必读论文 | 机械学习必读论文20篇

 常见问题     |      2023-03-31 19:23
本文摘要:学术文献代表着研究热点与技术前沿,已往 10 多年间,学术文献泛起了爆炸式增长。对许多初学者来说,如何正确找到自己研究领域的切入点成了一件很是痛苦的事儿。不必苦恼,小编这里有神奇推荐辣!拥有AI赋能的科技大数据检索平台 AMiner 新推出的必读论文模块,将会不让你为了不知道读什么论文而秃头,仙颜与才气兼可得也。 以下是小编整理搜索获得的,近五年来有关机械学习的 20 篇必读论文,不知道是否切合您的心中所想?

开云ag真人官网

学术文献代表着研究热点与技术前沿,已往 10 多年间,学术文献泛起了爆炸式增长。对许多初学者来说,如何正确找到自己研究领域的切入点成了一件很是痛苦的事儿。不必苦恼,小编这里有神奇推荐辣!拥有AI赋能的科技大数据检索平台 AMiner 新推出的必读论文模块,将会不让你为了不知道读什么论文而秃头,仙颜与才气兼可得也。

以下是小编整理搜索获得的,近五年来有关机械学习的 20 篇必读论文,不知道是否切合您的心中所想?如有疏漏,请轻拍,与小编联系后,我们将会实时添加您心目中的dream paper。更神奇的是,推荐论文如果集齐了 5 个赞,还能跻身领域必读论文榜哦~焦点速递1. 挑战无监视分散式表征的常见假设2. 稀疏变分高斯历程回归的收敛速度3. 非妄想Q学习和价值迭代4. 非平滑凸函数的漫衍式优化算法5. 通过样本压缩方案学习混淆高斯模型的近乎精密的样本庞大性界限6. 神经常微分方程7. 公正机械学习的滞后影响8. 混淆梯度的虚假宁静感:反抗样本防御9. 不完全信息博弈的宁静嵌套子博弈求解10. 带有凸工具的基于方差的正则化方法11. 一种线性时间核的拟合优度测试方法12. 使用影响函数明白黑箱预测13. 价值迭代网络14. 矩阵填充没有假的局部最小值15. 基于Magenta的即兴音乐交互体验16. 确保异步吉布斯采样的快速混淆和低偏差17. 像素循环神经网络18. 深度强化学习中的竞争网络架构19. 图结构稀疏性的近似线性时间框架20. Online Boosting的优化和自适应算法详细解读:1.论文题目:Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations中文题目:挑战无监视分散式表征的常见假设论文作者:Francesco Locatello, Stefan Bauer, Mario Lucic, Gunnar Rätsch, Sylvain Gelly, Bernhard Schölkopf, Olivier Bachem到场单元:ETH Zurich, Department for Computer Science; MaxPlanck Institute for Intelligent Systems; Google Research Brain Team论文解读:文章主要从理论和实践两方面临这一领域中的一些基本假设提出了挑战。

文章从理论上证明,如果没有对所思量的学习方法和数据集发生归纳偏置,那么解耦表现的无监视学习基本上是不行能的。文章还接纳了完善的无监视解耦学习实验方案,举行了一个超级大规模的实验研究。最后还公布了 disentanglement_lib,这是一个用于训练和评估解耦表现的新库。由于复制这个效果需要大量的盘算事情,论文还公布了凌驾 10000 个预训练的模型,可以作为未来研究的基线方法。

2.论文题目:Rates of Convergence for Sparse Variational Gaussian Process Regression中文题目:稀疏变分高斯历程回归的收敛速度论文作者:David R. Burt, Carl E. Rasmussen,Mark van der Wilk到场单元:University of Cambridge; PROWLER.io,Cambridge论文解读:这篇文章来自英国剑桥大学。自从许多研究人提出了对高斯历程后验的变分近似法后,制止了数据集巨细为 N 时 O(N3) 的缩放。它们将盘算成本降低到 O(NM2),其中 M ≤ N 是诱导变量的数量。虽然 N 的盘算成本似乎是线性的,但算法的真正庞大性取决于 M 如何增加以确保一定的近似质量。

论文证明晰稀疏 GP 回归变分近似到后验变分近似的 KL 散度的界线,该界线仅依赖于先验核的协方差算子的特征值的衰减。这些界限证明晰直观的效果,平滑的核、训练数据集中在一个小区域,允许高质量、很是稀疏的近似。这些界限证明晰用 M≤N 举行真正稀疏的非参数推理仍然可以提供可靠的边际似然预计和点后验预计。

对非共轭概率模型的扩展,是未来研究的一个有前景的偏向。3.论文题目:Non-delusional Q-learning and Value-iteration中文题目:非妄想Q学习和价值迭代论文作者:Tyler Lu, Dale Schuurmans, Craig Boutilier到场单元:Google AI论文解读:本文用函数迫近法确定了 Q- 学习和其他形式的动态计划中误差的基础泉源。当近似结构限制了可表达的贪婪计谋的种别时,就会发生偏差。

由于尺度 Q-updates 对可表达的计谋类做出了全局不协调的行动选择,因此可能导致纷歧致甚至冲突的 Q 值预计,从而导致病态行为,例如过分/低估、不稳定甚至发散。为相识决这个问题,本文引入了计谋一致性的新观点,并界说了一个当地备份流程,通过使用信息集,也就是记载与备份 Q 值一致的计谋约束集,来确保全局一致性。

本文证明晰使用这种备份的基于模型和无模型的算法都能消除妄想偏差,从而发生第一种已知算法,保证在一般条件下的最优效果。此外,这些算法只需要多项式的多个信息集(从潜在的指数支持)。最后,本文建议使用其他实用的启发式价值迭代和 Q 学习方法去实验淘汰妄想偏差。

4.论文题目:Optimal Algorithms for Non-Smooth Distributed Optimization in Networks中文题目:非平滑凸函数的漫衍式优化算法论文作者:Kevin Scaman, Francis Bach, Sebastien Bubeck, Laurent Massoulié, Yin Tat Lee到场单元:Noah’s Ark Lab, Huawei Technologies论文解读:在本文中,我们思量使用盘算单元网络的非平滑凸函数的漫衍式优化。我们在两个正则性假设下研究这个问题:(1)全局目的函数的 Lipschitz 一连性;(2)局部个体函数的 Lipschitz 一连性。

在局部正则性假设下,本文给出了称为多步原对偶(MSPD)的一阶最优疏散算法及其相应的最优收敛速度。这个效果的一个显著特点是,对于非平滑函数,当误差的主要项在 O(1/t)中时,通信网络的结构仅影响 O(1/t)中的二阶项,其中t是时间。换言之,纵然在非强凸目的函数的情况下,由于通信资源的限制而导致的误差也以快速率减小。

在全局正则性假设下,基于目的函数的局部平滑,给出了一种简朴而有效的漫衍式随机平滑(DRS)算法,并证明晰 DRS 在最优收敛速度的 d/4 乘因子内,其中 d 为底层。5.论文题目:Nearly Tight Sample Complexity Bounds for Learning Mixtures of Gaussians via Sample Compression Schemes中文题目:通过样本压缩方案学习混淆高斯模型的近乎精密的样本庞大性界限论文作者:Hassan Ashtiani, Shai Ben-David, NicholasJ.A.Harvey, Chritopher Liaw, AbbasMehrabian, YanivPlan到场单元:Department of Computing and Software McMaster University; School of Computer Science, University of Waterloo; Department of Computer Science, University of British Columbia; School of Computer Science McGill University Montréal; Department of Mathematics, University of British Columbia论文解读:本文证明晰 O(k d2/ε2)样本对于学习Rd中k个高斯的混淆,直至总变差距离中的误差ε来说,是充实须要条件。

这改善了已知的上界和下界这一问题。对于轴瞄准高斯混淆,本文证明晰 O(k d/ε2)样本匹配一个已知的下界是足够的。上限是基于样本压缩观点的漫衍学习新技术。

任何允许这种样本压缩方案的漫衍类都可以用很少的样原来学习。此外,如果一类漫衍具有这样的压缩方案,那么这些产物和混淆物的类也是如此。本文主要效果的焦点是证明晰 R^d 中的高斯类能有效的举行样本压缩。

6.论文题目:Neural Ordinary Differential Equations中文题目:神经常微分方程论文作者:Tian Qi Chen, Yulia Rubanova, Jesse Bettencourt, David Duvenaud到场单元:University of Toronto论文解读:本文先容了一系列新的深度神经网络模型。本文使用神经网络参数化隐藏状态的导数,而不是指定隐藏层的离散序列。

使用黑盒微分方程求解器盘算网络的输出。这些一连深度模型具有恒定的内存成本,使其评估计谋适应每个输入,而且可以明确地交流数值精度以获得速度。

本文在一连深度残差网络和一连时间潜变量模型中证明晰这些性质。本文还构建了一连归一化流,这是一种可以通过最大似然举行训练的生成模型,无需对数据维度举行分区或排序。

为了训练,本文展示了如何通过任何 ODE 求解器举行可扩展反向流传,而无需会见其内部操作。这允许在较大模型中对 ODE 举行端到端训练。7.论文题目:Delayed Impact of Fair Machine Learning中文题目:公正机械学习的滞后影响论文作者:Lydia T.Liu, Sarah Dean, Esther Rolf, Max Simchowitz, Moritz Hardt到场单元:Department of Electrical Engineering and Computer Sciences, University of California, Berkeley论文解读:机械学习的公正性主要在静态分类设置中获得研究,但却没有关注这些决议如何随时间改变潜在的群体。传统的看法认为公正性尺度能提升他们想掩护的群体的恒久利益。

本文研究了静态公正性尺度如何与暂时的利益指标相互作用,例如利益变量的恒久提升、停滞和下降。本文证实了纵然在一步反馈模型中,常见的公正性准则没有随时间带来改善,实际上可能给特定案例带来了伤害。

8.论文题目:Obfuscated Gradients Give a False Sense of Security: Circumventing Defenses to Adversarial Examples中文题目:混淆梯度的虚假宁静感:反抗样本防御论文作者:Anish Athalye, Nicholas Carlini, David Wagner到场单元:Equal contribution; Massachusetts Institute of Technology; University of California, Berkeley论文解读:如果在一张图片添加滋扰,可能就可以骗太过类器。为了抵御反抗样本的攻击,使得神经网络在受到迭代攻击时不受反抗样本滋扰,研究人员在寻找强大的反抗样本防御器,使其在面临基于优化的攻击之下,可以实现对反抗样本的鲁棒性防御。9.论文题目:Safe and Nested Subgame Solving for Imperfect-Information Games中文题目:不完全信息博弈的宁静嵌套子博弈求解论文作者:Noam Brown, Tuomas Sandholm到场单元:Computer Science Department, Carnegie Mellon University论文解读:和完美信息博弈差别,不完美信息博弈不能通过将博弈剖析为可独立求解的子博弈而求得占优计谋。

因此本文越来越多地使用盘算麋集的平衡判断技术,而且所有的决议必须将博弈的计谋看成一个整体。本文提出了一种无论在理论上还是在实践上都逾越了之前方法的子博弈求解技术。

本文还展示了如何对它们和以前的子博弈求解技术举行调整,以对超出初始行动提取(original action abstraction)的对手的行动做出应答;这远远逾越了之前的顶尖方法,即行动转化(action translation)。最后,本文展示了当博弈沿着博弈树向下举行时,子博弈求解可能会重复举行,从而大大降低可使用性。

10.论文题目:Variance-based Regularization with Convex Objectives中文题目:带有凸工具的基于方差的正则化方法论文作者:Hongseok Namkoong, John Duchi到场单元:Stanford University论文解读:本文研究了一种风险最小化和随机优化的方法,该方法可以为方差提供一个凸属性的替代项,并允许在迫近和预计误差间实现近似最优与高效盘算间的权衡。本文的方法建设在漫衍鲁棒性优化和 Owen 履历性似然度的基础上,并提供了一些有限样本(finite-sample)和渐进效果以展示预计器的理论性能。详细来说,本文证明晰该历程具有最优性保证(certificates of optimality),并通过迫近和最优预计误差间良好的权衡在更一般的设定下比履历风险最小化方法有更快的收敛率。

本文还给出了确凿的履历性证据,讲明预计器在实践中会在训练样本的方差和绝对性能之间举行权衡。此外,预计器也会提升尺度履历风险最小化方法在许多分类问题上的测试性能。11.论文题目:A Linear-Time Kernel Goodness-of-Fit Test中文题目:一种线性时间核的拟合优度测试方法论文作者:Wittawat Jitkrittum, Wenkai Xu, Zoltan Szabo, Kenji Fukumizu, Arthur Gretton到场单元:Gatsby Unit, UCL; CMAP, École Polytechnique论文解读:本文提出了一个全新的拟合优度(goodness-of-fit)的适应性测试法,其中盘算资源的消耗与样本数呈线性关系。

本文通过最小化假负类率来学习最能展示视察样本和参考模型之间差异的测试特征。这些特征是通过 Stein 法结构的——这意味着没有须要盘算模型的归一化常数。本文分析了新测试的 Bahadur 渐进效率,并证明晰在均值偏移(mean-shift)的情况下,无论选择哪个测试参数,本文的测试总是比先前的线性时间核测试具有更高的相对效率。在高维和模型结构可用的情况下,本文的拟合优度测试在模型中抽取样本,体现远远逾越基于最大平均差异(Maximum Mean Discrepancy)的二次时序双样本测试。

12.论文题目:Understanding Black-box Predictions via Influence Functions中文题目:使用影响函数明白黑箱预测论文作者:Pang Wei Koh, Percy Liang到场单元:Stanford University论文解读:这篇论文使用影响函数(稳健统计学中的经典技术),通过学习算法跟踪模型的预测并追溯到训练数据,从而确定对给定预测影响最大训练点来解释黑箱模型的预测。为了将影响函数扩展到现代机械学习中,论文中设计了一个简朴高效的实验,仅需梯度 oracle 会见和 Hessian 矢量积。

而且纵然在非凸和非微分模型上,影响函数的近似值算法仍然可以提供有价值的信息。在线性模型和卷积神经网络中,论文中也证明,影响函数可用于明白模型行为,调试模型,检测数据集错误,甚至是生成视觉上无法区分的训练集攻击。

13.论文题目:Value Iteration Networks中文题目:价值迭代网络论文作者:Aviv Tamar, Yi Wu, Garrett Thomas, Sergey Levine, Pieter Abbeel到场单元:Dept. of Electrical Engineering and Computer Sciences, UC Berkeley论文解读:本文先容了一个价值迭代网络(VIN):一种完全可微分的神经网络,内置“计划模块”。VIN 可以学习计划,而且适用于预测涉及基于计划的推理的效果,例如增强学习的政策。我们的方法的关键是一种新的可微近似值迭代算法,它可以表现为卷积神经网络,并使用尺度的反向流传训练端到端。

本文基于离散和一连路径计划域以及基于自然语言的搜索任务评估基于 VIN 的计谋。本文讲明,通过学习一个明确的计划盘算,VIN 计谋可以更好地推广到新的、未发现的领域。

开云ag真人官网

14.论文题目:Matrix Completion has No Spurious Local Minimum中文题目:矩阵填充没有假的局部最小值论文作者:Rong Ge, Jason Lee, Tengyu Ma到场单元:Duke University; University of Southern California; Princeton University论文题目:矩阵填充是一个基本的机械学习问题,具有广泛的应用,尤其是在协作过滤和推荐系统中。简朴的非凸优化算法在实践中很盛行且有效。

我们证明晰用于矩阵填充的常用非凸目的函数没有假的局部最小值——所有局部最小值也必须是全局的。因此,许多盛行的优化算法(例如随机梯度下降)可以通过多项式时间内的任意初始化可证明地解决矩阵填充问题。当视察到的条目包罗噪声时,效果可以推广到该设置。

我们认为,我们的主要证明计谋对于明白其他涉及部门或嘈杂观察值的统计问题的几何性质很有用。15.论文题目:Interactive musical improvisation with Magenta中文题目:基于 Magenta 的即兴音乐交互体验论文作者:Adam Roberts, Jesse Engel, Curtis Hawthorne, Ian Simon, Elliot Waite, Sageev Oore, Natasha Jaques, Cinjon Resnick, Douglas Eck到场单元:Google Brain; Dalhousie University; MIT论文解读:作者联合了基于 LSTM 的循环神经网络和 Deep Q-learning 建设了实时生成音乐序列。

LSTM 的任务是学习音乐评分(编码为 MIDI,而不是音频文件)的一般结构。Deep Q-learning 用来革新基于奖励的序列,如期望的类型,组成正确性和预测人类协作者演奏的内容。

基于 RNN 模型的生成与强化学习的联合是一种生成音乐的全新方式。这种方式比单独使用 LSTM 更为稳定,生成的音乐越发好听。

该方法有两个任务:生成对短旋律输入的响应,以及实时生成对旋律输入的伴奏,连续对未来输出举行预测。本方法在 TensorFlow 中加入了一个全新的 MIDI 接口发生即兴的音乐体验,让使用者可以与神经网络实时交互。

16.论文题目:Ensuring Rapid Mixing and Low Bias for Asynchronous Gibbs Sampling中文题目:确保异步吉布斯采样的快速混淆和低偏差论文作者:Christopher De Sa, Kunle Olukotun, Christopher Ré到场单元:Stanford University论文解读:吉布斯采样(Gibbs Sampling)是一种常被用于预计边缘漫衍(marginal distribution)的马尔可夫链蒙特卡罗技术(Markov chain Monte Carlo technique)。为了加速吉布斯采样,人们最近发生了通过异步执行并行处置惩罚它的兴趣。

只管一些履历效果讲明许多模型都可以有效地举行异步采样,但传统的马尔克夫链分析却无法应用于异步的情况,因此对异步吉布斯采样只有很少的相识。在这篇论文中,我们设法更好地相识了异步吉布斯的两个主要挑战:偏差(bias)和混淆时间(mixing time)。我们通过实验证明晰我们的理论效果是切合实际效果的。

17.论文题目:Pixel Recurrent Neural Networks中文题目:像素循环神经网络论文作者:Aaron van den Oord, Nal Kalchbrenner, Koray Kavukcuoglu到场单元:Google DeepMind论文解读:在无监视学习中,给自然图像漫衍建模是一个里程碑式的问题。这项任务要求获得可以同时体现图像、易于处置惩罚而且具备可扩展性的图像模型。

我们展示了一个可以沿二维空间维度依次预测图像中像素的深度神经网络。我们的方法建设了原始像素值的离散概率模型,而且编码了图像中完整的依赖关系荟萃。该架构的差别之处在于它包罗快速二维循环层(recurrent layers)和对深度循环网络中残差毗连(residual connections)的有效使用。

我们完成了自然图像上的对数似然分数,其比之前最先进的还要好许多。我们主要的结果还包罗提供多样化的 ImageNet 数据集基准。

从模型中生成了新鲜多样且全局同一的样本。此论文提出了一系列生成模型,可直接对像素的统计依赖关系举行建模。这些模型包罗两个 PixelRNN:Row LSTM 和 Diagonal BiLSTM(区别主要在于它们举行预测使用到的条件信息所在的领域);一个 PixelCNN,以及一个多尺度 PixelRNN。

18.论文题目:Dueling Network Architectures for Deep Reinforcement Learning中文题目:深度强化学习中的竞争网络架构论文作者:Ziyu Wang, Tom Schaul, Matteo Hessel, Hado van Hasselt, Marc Lanctot, Nando de Freitas到场单元:Google DeepMind论文解读:近几年,已经有许多在强化学习中使用深度表征获得乐成的例子。然而,这些应用中的许多例子仍然使用传统的架构,好比卷积网络、LSTMs,或者是自动编码器。在此论文中,我们提出了一个新的用于无模型(model free)强化学习的神经网络架构。

我们的竞争网络(dueling network)表现了两种独立的评估量:一个用于状态价值函数(state value function),一个用于状态依存行动优势函数(state-dependent action advantage function)。这一剖析的主要利益是在没有将任何变化强加于低层的强化学习算法的情况下,在行动(action)间归纳学习。我们的效果显示,这一架构在多种价值相似的行动眼前能引发更好的政策评估。

此外,这一竞争架构使得我们的强化学习署理胜过 Atari 2600 领域最前沿的研究。在这篇论文中,作者基于离开建模状态值和行动优势的想法,提出了一款可供选择的用于深度 Q 网络(DQN)的架构和相关的学习方案。

当被应用于 Atari 学习情况(Atari Learning Environment)基准时,这项技术显著推进了当前最先进的研究结果。19.论文题目:A Nearly-Linear Time Framework for Graph-Structured Sparsity中文题目:图结构稀疏性的近似线性时间框架论文作者:Hegde, Chinmay, Indyk, Piotr, Schmidt, Ludwig到场单元:Massachusetts Institute of Technology论文解读:本文引入了一个通过图界说的稀疏结构框架。其方法较灵活,而且推广到了以前研究过的几个稀疏模型。

此外,本文还为该稀疏度模型提供了有效的投影算法,该模型险些在线性时间内运行。在稀疏恢复的配景下,本文证明晰该框架在理论上实现了广泛参数下的信息最优样本庞大性。本文用实验来增补该理论分析,证明该算法在实践中也革新了先前的事情。

20.论文题目:Optimal and Adaptive Algorithms for Online Boosting中文题目:Online Boosting的优化和自适应算法论文作者:Alina Beygelzimer, Satyen Kale, Haipeng Luo到场单元:Yahoo Labs; Princeton University论文解读:我们学习在线促进,这是一项将任何一个弱的在线学习者转变为强的在线学习者的任务。基于对网络学习能力弱的一个新的自然界说,我们开发了两种在线增强算法。第一种算法是在线版本的 Boost by Majority。

通过证明一个匹配下界,我们证明晰该算法对于弱学习者的数量和到达指定精度所需的样本庞大度是本质上最优的。然而,这种优化算法并不具有自适应性。使用在线损失最小化的工具,推导了一种无参数但非最优的自适应在线增强算法。这两种算法都与基础学习者一起事情,基础学习者可以直接处置惩罚示例重要性权重,也可以使用升迁者界说的概率拒绝抽样示例。

效果与广泛的实验研究相辅相成。


本文关键词:开云ag真人官网,必读,论文,机械,学习,20篇,学术,文献,代表,着

本文来源:开云ag真人官网-www.zhtzs168.com