马尔可夫|6篇杰出论文,普林斯顿获时间检验奖,NeurIPS 2021奖项出炉( 二 )


获奖论文 3:Deep Reinforcement Learning at the Edge of the Statistical Precipice

  • 作者:Rishabh Agarwal、Max Schwarzer、Pablo Samuel Castro、Aaron Courville、Marc G. Bellemare
  • 机构:谷歌、蒙特利尔大学
  • 论文地址:https://openreview.net/pdf?id=uqv8-U4lKBe
获奖理由:科学进步离不开对方法进行严格比较 。 本文提出了切实可行的方法来提高深度强化学习算法比较的严谨性 。 该论文强调 , 在多项任务和多次运行中报告深度强化学习结果的标准方法可能使得评估新算法和先前算法是否一致或性能是否提高变得困难 , 研究者通过实证示例说明了这一点 。 该研究提出的性能概要旨在通过每个任务的少量运行进行计算 , 这对于计算资源有限的实验室来说是必要的 。
获奖论文 4:MAUVE: Measuring the Gap Between Neural Text and Human Text using Divergence Frontiers
  • 作者:Krishna Pillutla、Swabha Swayamdipta、Rowan Zellers、John Thickstun、Sean Welleck、Yejin Choi、 Zaid Harchaoui
  • 机构:华盛顿大学 、艾伦人工智能研究院、斯坦福大学
  • 论文地址:https://openreview.net/forum?id=Tqx7nJp7PR
获奖理由:该论文提出了一种比较模型生成文本分布与人类生成文本分布的散度度量方法 MAUVE 。 MAUVE 使用被比较的两个文本的量化嵌入的(软)KL 散度测量的连续族 , 这种度量方法的本质是对度量连续族的集成 , 旨在捕获 I 类 error(生成不切实际的文本)和 II 类 error(不捕获所有可能的人类文本) 。 该研究通过实验表明 , 与之前的散度指标相比 , MAUVE 可以识别模型生成文本的已知模式 , 并且与人类判断的相关性更好 。 该方法将给开放端文本生成带来重要影响 。
获奖论文 5:A Continuized View on Nesterov Acceleration for Stochastic Gradient Descent and Randomized Gossip
  • 作者:Mathieu Even、Rapha?l Berthier、Francis Bach、Nicolas Flammarion、Pierre Gaillard、Hadrien Hendrikx、Laurent Massoulié、Adrien Taylor
  • 机构:巴黎科学艺术人文大学、洛桑联邦理工学院等
  • 论文地址:https://openreview.net/forum?id=bGfDnD7xo-v
获奖理由:该论文提出了 Nesterov 加速梯度方法的「连续」版本 , 其中两个独立的矢量变量在连续时间内联合 , 这种方法很像使用微分方程理解加速的方法 , 不同的是使用梯度更新发生在泊松点过程决定的随机时间 。 这种新方法促成了一种(随机化)离散时间方法:(1)与 Nesterov 方法具有相同的加速收敛性;(2) 提供利用连续时间参数进行的清晰透明的分析 , 比之前对加速梯度方法的分析更容易理解;(3) 避免了连续时间过程离散化的额外错误 , 这与之前使用连续时间过程理解加速方法的几种尝试形成鲜明对比 。
获奖论文 6:Moser Flow: Divergence-based Generative Modeling on Manifolds
  • 作者:Noam Rozen、Aditya Grover、Maximilian Nickel、Yaron Lipman
  • 机构:魏茨曼科学研究所、Meta(Facebook)AI、加州大学洛杉矶分校
  • 论文地址:https://openreview.net/pdf?id=qGvMv3undNJ
获奖理由:本文提出了一种在黎曼流形上训练连续归一化流 (CNF) 生成模型的方法 。 该研究主要是利用 Moser (1965) 的结果 , 该结果使用具有几何规律性条件的受限 ODE 类来表征 CNF 的解 , 并使用目标密度函数的散度明确定义 。 该研究提出的 Moser Flow 方法使用这种解的概念发展了一种基于参数化目标密度估计的 CNF 方法 。 实验表明 , 与之前的 CNF 工作相比 , 该研究的方法训练时间更快 , 测试性能更出色 。 更普遍地 , 这种利用几何规律性条件来规避反向传播训练的概念可能会引起研究者更广泛的兴趣 。

推荐阅读