本文是AI研究学会整理的技术博客,原标题:
作者|
ODSC-
翻译|亲爱的葛勇编辑|酱梨,邓普西杰夫
原始链接:
@-2019年至今-
在刚刚结束的2019年第一季度,深度学习技术发展迅速。为了了解这项技术的进展,我经常查看相关研究人员的工作。这项工作让我学到了很多我不知道的东西,进而优化了我的工作日程。所以虽然每周都有上百篇这方面的论文,但我还是会要求自己每周至少看一篇研究论文。
本文列出了2019年以来发表的论文,会为你节省很多时间。下面所有的文章都有相应的代码。让我们开始一段美好的旅程!
1.使用fast开始图形表示学习
本研究介绍了一个名为PyTorchGeometric的学习库,它基于PyTorch,可以帮助我们直接使用图形、点云和流形数据等不规则数据结构。除了一般的图形数据结构和处理方法,它还包括许多最近发表的关系学习和3D数据处理方法。PyTorchGeometric通过使用稀疏GPU加速、提供特殊的CUDA内核以及为不同大小的输入样本提供高效的小批量处理,实现了高数据吞吐量。本文的代码可以在GitHub中找到。
https://arxiv.org/abs/1903.02428v2
相关文章:2018年波动最大的数据科学研究论文
2.美国有线电视新闻网
在案例分割任务中,大多数案例分割框架使用案例分类的置信度作为掩码的质量得分。本文研究了这一问题,提出了一种包含网络块的R-CNN掩码评分方法来学习和预测实例掩码的质量。与掩码质量和掩码得分不一致相比,掩码得分策略优先考虑更准确的掩码预测,以提高COCOAP评价指标中实例分割的性能。代码可以在GitHub上找到。
https://arxiv.org/abs/1903.00241v1
3.使用更少的标签生成高保真图像
深度生成模型正在成为现代机器学习的基础。最近对条件生成对手网络的研究表明,在自然图像上学习复杂的高维分布是可行的。虽然最新的模型可以以高分辨率生成高保真和多样化的自然图像,但它们依赖于大量的注释数据。本文展示了如何从最新的自监督和半监督学习研究中获得启发,使其在无监督图像合成和条件设置方面优于当前的最佳效果(SOTA)。代码可以在GitHub上找到。
https://arxiv.org/abs/1903.02271v1
4.实时SLAM的高效匹配预测
提出了一种基于深度学习的关键词和描述符生成网络GCNv2,该网络基于GCN训练的三维投影几何。GCNv2设计了一个二进制描述符向量作为ORB的特征,以便在ORB-slam等系统中方便地替换ORB。代码可以在GitHub上找到。
https://arxiv.org/abs/1902.11046v1
相关文献:深度分类
5.ALiPy:使用Python进行主动学习(Alipy : Python中的主动学习)
监督机器学习方法通常需要大量的标记数据进行模型训练。然而,在许多实际应用中,有大量的未标记数据,但标记数据有限,标记它们的成本非常高。主动学习通过查询在标注器中迭代选择最合适的标签,可以降低标注成本。本文介绍了一个用于主动学习的Python库ALiPy。代码可以在GitHub上找到。
https://arxiv.org/abs/1901.03802v1
6.DeepFashion2:是一个用于服装图像检测、姿态估计、分割和识别的多用途标签(Deep Fashion 2:为服装图像的检测、姿态估计、分割和识别提供基准)
通过标签丰富的数据集(如DeepFashion,其标签包括服装类别、标签点和消费者信息图像对),可以增强对时尚图像的理解。但是DeepFashion也存在一些不容忽视的问题,比如每张图片只有一件衣服,标记点稀疏(只有4~8个),每个像素没有遮罩,与真实场景相差甚远。本文采用deepform 2来解决这些问题,填补这一空白。DeepFashion2是一个通用标签库,包括服装检测、姿态估计、分割和检索四个任务。代码可以在GitHub上
找到。https://arxiv.org/abs/1901.07973v1
7.星际争霸多端挑战(TheStarCraftMulti-AgentChallenge)
近年来,深度多端强化学习(RL)已经成为一个非常活跃的研究领域。在这一领域,有一类特别的问题很有挑战,就是部分可观察的、可以合作的、多智能体的学习,在这种学习中,团队必须学会只以他们各自的观察为条件进而协调整体的行为。这是一个很有吸引力的研究方向,因为这类问题涉及大量的真实系统,而且比一般总和博奕问题更易于评估。然而,对于可协作的多端RL,目前还没有可对比的基准。因此,这一领域的大多数论文都使用一次性的游戏,很难衡量真正的进展。本文将星际争霸多智能挑战(SMAC)作为一个基准问题来填补这一空白。代码可以在GitHub上找到。
https://arxiv.org/abs/1902.04043v2
8.Dropout是随机增量规则(SDR)的一个特例:更快、更准确的深度学习(Dropoutisaspecialcaseofthestochasticdeltarule:fasterandmoreaccuratedeeplearning)
多层神经网络在文本、语音和图像处理等多种任务中取得了很好的效果。在分层模型中,非线性参数估计容易出现过拟合和错误设置的问题。对这些参数估计错误以及其他相关问题(局部极小值、共线性、特征提取等)的一种解决方法称为Dropout。Dropout会根据概率为p的伯努利随机分布,在每次更新前随机删除部分隐藏层的单元,从而对网络产生随机的“扰动”,并在每次更新时对其进行平均。本文指出,Dropout是发表于1990年的通用模型随机增量规则(StochasticDeltaRule,SDR)的一种特例。代码可以在GitHub上找到。
https://arxiv.org/abs/1808.03578v2
9.Lingvo:一种用于序列模型的模块化和可伸缩框架(Lingvo:aModularandScalableFrameworkforSequence-to-SequenceModeling)
Lingvo是一个Tensorflow框架,为深度学习研究尤其是序列化模型提供了一个完整的解决方案,它由灵活且易于扩展的模块化构建块组成,实验时可以集中配置且可高度定制。该框架支持分布式训练和量化推理,包含大量实用组件、辅助函数和最新研究论文的实现。在过去的两年里,Lingvo已经被数十名研究人员用在了20多篇论文里。本文概述了Lingvo的底层设计,并对框架各个部分进行了介绍,同时还对框架的高级特性提供了示例。代码可以在GitHub上找到。
https://arxiv.org/abs/1902.08295v1
10.具有动态学习率边界的自适应梯度方法(AdaptiveGradientMethodswithDynamicBoundofLearningRate)
为了加快深度学习的训练速度,人们提出了如AdaGrad,RMSProp和Adam等学习率自适应优化方法。虽然方法众多,但与SGD相比,它们的泛化能力较差,甚至由于不稳定和极端的学习率而无法收敛。本文论证了极端的学习率会导致模型性能变差。基于Adam和AMSGrad分别提出了名为AdaBound和AMSBound的变种,它们利用学习率的动态边界实现了从自适应方法到SGD的渐进平稳过渡,并给出了收敛性的理论证明。对各种常见的任务和模型进行了进一步的实验,实验结果表明,新的方法能够消除自适应方法与SGD之间的泛化差距,同时在训练初期保持较高的学习速度。代码可以在GitHub上找到。雷锋网(公众号:雷锋网)雷锋网雷锋网
https://openreview.net/forum?id=Bkg3g2R9FX
想要继续查看该篇文章相关链接和参考文献?
点击
【2019到目前为止的深度学习研究进展汇总】即可访问哦~
为了营造更好学习氛围,AI研习社向你推荐“
PyTorch的深度教程
”
这是作者编写的一系列深入的教程,可用于通过令人惊叹的PyTorch库自己实现很酷的深度学习模型。如果你刚开始接触PyTorch,请先阅读PyTorch的深度学习:60分钟闪电战和学习PyTorch的例子。在每个教程中,我们将通过从研究论文中实施模型来关注特定应用或感兴趣的领域。比如文本分类(代码已创建完成,教程正在进行)、机器翻译物体检测等。
教程链接:https://ai.yanxishe.com/page/tweet/22260
雷锋网原创文章,未经授权禁止转载。详情见转载须知。
相关阅读
版权声明:内容来源于互联网和用户投稿 如有侵权请联系删除
标签: #国外了解深度学**最新动态的网站