比较神经网络的新方法揭示了人工智能是如何工作的

【字体: 时间:2022年09月14日 来源:

编辑推荐:

  洛斯阿拉莫斯国家实验室的一个团队开发了一种新的方法来比较神经网络,这种方法可以在人工智能的“黑匣子”中查看,以帮助研究人员理解神经网络行为。神经网络识别数据集中的模式;虚拟助手、面部识别系统和自动驾驶汽车等应用程序在社会中无处不在。

  
   

Neural Networks    

图:洛斯阿拉莫斯大学的研究人员正在寻找比较神经网络的新方法。这张图片是由一款名为“稳定扩散”的人工智能软件制作的,使用的提示是“窥探神经网络的黑盒子”。    

图片来源:洛斯阿拉莫斯国家实验室

洛斯阿拉莫斯国家实验室的一个团队开发了一种新的方法来比较神经网络,这种方法可以在人工智能的“黑匣子”中查看,以帮助研究人员理解神经网络行为。神经网络识别数据集中的模式;虚拟助手、面部识别系统和自动驾驶汽车等应用程序在社会中无处不在。

“人工智能研究团体并不一定完全理解神经网络在做什么;它们给了我们很好的结果,但我们不知道是如何或为什么,”洛斯阿拉莫斯高级网络系统研究组的研究员海顿·琼斯(Haydn Jones)说。“我们的新方法在比较神经网络方面做得更好,这是更好地理解人工智能背后的数学的关键一步。”

神经网络性能很高,但很脆弱。例如,自动驾驶汽车使用神经网络来检测信号。当条件理想时,它们会做得很好。然而,最小的像差——比如停止标志上的贴纸——可能导致神经网络错误识别标志而永远停止。

为了改善神经网络,研究人员正在寻找提高网络鲁棒性的方法。一种最先进的方法包括在训练过程中“攻击”网络。研究人员有意引入畸变,并训练人工智能忽略它们。这个过程被称为对抗训练,本质上使欺骗网络变得更加困难。

琼斯、洛斯阿拉莫斯的合作者Jacob施普林格和Garrett Kenyon,以及琼斯的导师Juston Moore,将他们新的网络相似度度量应用到对抗训练的神经网络中,并令人惊讶地发现,当攻击的规模增加时,对抗训练导致计算机视觉领域的神经网络收敛到非常相似的数据表示,而不管网络架构如何。

琼斯说:“我们发现,当我们训练神经网络强健地抵御对抗性攻击时,它们开始做同样的事情。”

工业界和学术界一直在努力寻找神经网络的“正确架构”,但洛斯阿拉莫斯团队的研究结果表明,引入对抗训练大大缩小了这一搜索空间。因此,AI研究社区可能不需要花那么多时间探索新的架构,因为知道对抗训练会导致不同的架构收敛到类似的解决方案。

“通过发现鲁棒神经网络彼此相似,我们更容易理解鲁棒人工智能可能如何真正工作。我们甚至可能会发现人类和其他动物的知觉是如何发生的。”

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号