研究人员正在意识到AI许多子领域进展缓慢的迹象

导读 新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我

新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我想和大家分享一条关于科技的知识。我希望你会喜欢它。

人工智能(AI)似乎越来越聪明。每一部iPhone都能比上一部更好地学习你的脸、声音和习惯,AI对隐私和工作构成的威胁也越来越大。激增反映了更快的芯片、更多的数据和更好的算法。麻省理工学院计算机科学系研究生戴维斯布拉洛克(Davis Bralock)说,但有些改进来自调整,而不是发明者声称的核心创新,有些收获可能根本不存在。Blalock和他的同事比较了几十种改善神经网络的方法,这些方法松散地模仿了大脑的软件架构。他说:“收录了五十篇论文,很明显最新的技术水平不是很明显。”

研究人员评估了81种修剪算法,这些算法可以通过修剪不必要的连接来提高神经网络的效率。每个人都声称自己在稍微不同的方面有优势。然而,它们很少被恰当地比较——当研究人员试图平行评估它们时,没有明显的证据表明性能会在10年内提高。这些结果在3月份的机器学习和系统会议上公布,这让布拉洛克博士感到惊讶。麻省理工学院计算机科学家约翰古塔格的顾问说,不平衡本身可以解释停滞。“那是一把旧锯子,不是吗?”古塔格说。“如果你不能衡量某样东西,就很难让它变得更好。”

研究人员正在意识到人工智能许多子领域进展缓慢的迹象。2019年,一种元分析信息检索算法被用于搜索引擎,以实现“高分”.实际设定在2009年”。2019年的另一项研究复制了七个神经网络推荐系统,它们是流媒体服务使用的系统。发现有六种方法无法击败几年前开发的更简单的非神经算法。当时对早期技术进行了微调,从而揭示了这一领域的“幻影进展”。在另一篇论文中,来自康奈尔大学的计算机科学家凯文穆斯格雷夫(Kevin Musgrave)研究了损失函数,这是从数学上确定其目标的算法的一部分。Musgrave在一项涉及图像检索的任务中对十多人进行了比较,发现与开发人员的说法相反,自2006年以来,准确性没有提高。“一直都有一波这样的炒作,”穆斯格雷夫说。

机器学习算法的好处可以来自于其架构、损失函数或优化策略的根本改变,即如何利用反馈进行改进。卡耐基梅隆大学的计算机科学家济科科特说,对这些方法进行微调也可以提高性能。他研究了图像识别模型,这些模型被训练成对黑客的“对抗攻击”免疫。早期的对抗训练方法叫做投影梯度下降(PGD)。在这种方法中,针对真实和欺骗性例子的简单模型训练似乎已经被更复杂的方法所超越。然而,在2月份的arXiv论文中,Kolter和他的同事发现,当使用一种简单的技术来增强它们时,所有方法的性能几乎相同。

本文就为大家讲解到这里了。
版权声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。