人性化的AI无助于人工智能比我们想象的更难

admin 2509 0
人性化的AI无助于人工智能比我们想象的更难

百度网盘课程

通用入口链接!10000G.课程都有!一起学习吧!

立即点击↓ 获取课程!

现在的AI系统可以在广泛的领域执行复杂的任务,比如数学、游戏、真实感图像生成等。但是,当我们接近AI的一些早期目标,比如看家机器人、自动驾驶汽车,这些目标就会逐渐消失。

圣达菲研究所戴维斯复杂性教授、《人工智能:人类思维指南》一书的作者梅勒妮米切尔(Melanie Mitchell)说,错过这些目标的连续循环的一部分是由于对人工智能和自然智能的错误假设。

米切尔在题为《为什么人工智能比我们想象的更难》的新论文中提出了关于人工智能的四个常见谬误,这不仅在公众和媒体之间,而且在专家之间造成了误解。这些谬误给了人们一种虚假的自信,让我们对人工智能的实现充满了信心,这种信心可以与人类的认知能力和一般的问题解决能力相匹配。

狭义AI与一般AI在规模上是不同的

现有的AI可以很好的解决狭隘的问题。比如我们在围棋和象棋上超越人类,以超乎寻常的精确度在x光图像中发现癌变模式,将音频数据转换成文本。

然而,设计一个可以解决单个问题的系统并不一定会让我们更接近解决更复杂的问题。米切尔将第一个谬误描述为“狭义智力与普通智力是连续的”。

米切尔在论文中写道:“即使人们看到一台机器在一个狭窄的区域内做着奇妙的事情,他们通常也会认为这个领域离一般AI的发展要远得多。”

例如,今天的自然语言处理系统在解决许多不同的问题方面已经走了很长的路,例如翻译、文本生成和特定问题的问答。

同时,我们有一个深度学习系统,可以实时将语音数据转换成文本。每一项成就的背后都是数千小时的研发(以及数百万美元的计算和数据支出)。然而,人工智能社区长期以来没有解决创建能够参与开放式对话而不失去一致性的代理的问题。这样的系统不仅需要解决较小的问题,还需要解决更多的问题。

它需要常识,这是AI尚未解决的关键挑战之一。

简单的事情很难自动化

说到人类,我们想要一个聪明的人去做艰苦的事情,这需要多年的学习和实践。例子可能包括解决微积分和物理问题、大师级下棋或背诵许多诗歌等任务。

然而,几十年的人工智能研究已经证明,自动化那些需要自动关注的困难任务更容易。简单的任务,我们认为理所当然的事情,很难自动化。米切尔将第二个谬误描述为“容易的事容易,而难的事难。”

米切尔写道:“我们人类不用思考就能做的事情——看看世界,知道我们看到了什么,进行对话,在拥挤的人行道上行走而不撞到任何人,这是对机器最严峻的挑战。”。

相反,机器通常更容易去做对人类来说非常困难的事情;比如机器解决复杂的数学问题,掌握象棋、围棋等游戏,在数百种语言之间翻译句子都相对容易。

比如考虑视野。几十亿年来,生物已经开发出处理光信号的复杂设备。动物用它们的眼睛来检查它们的环境,导航它们的环境,寻找食物,检测威胁,并完成对它们生存至关重要的许多其他任务。我们人类从祖先那里继承了所有这些能力,并无意识地加以利用。但是,它的基本机制确实比让高中和大学受挫的大规模数学公式更复杂。

一个恰当的例子:我们仍然没有像人类视觉那样普遍的计算机视觉系统。我们设法创建了一个人工神经网络,它可以大致模拟动物和人类视觉系统的各个部分,例如检测对象和分割图像。但它们脆弱,对许多不同种类的干扰敏感,不能模仿生物视觉能完成的所有任务。例如,这就是为什么无人驾驶汽车中使用的计算机视觉系统需要激光雷达和地图数据等先进技术的补充。

另一个被证明非常困难的领域是感觉运动技能,人类不需要特殊训练就能掌握。想想怎么处理物体,走,跑,跳。这些都是你不知道就能完成的任务。其实在走路的时候,你可以做其他的事情,比如听播客或者打电话。但是,对于目前的AI系统来说,这些技能仍然是一个巨大而昂贵的挑战。

米切尔写道:“人工智能比我们想象的更难,因为我们在很大程度上没有意识到我们思维过程的复杂性。”

人性化的AI也无济于事

人工智能领域词汇丰富,使得软件和人类智能处于同一水平。我们用“学习”、“理解”、“阅读”、“思考”等术语来描述AI算法的工作模式。虽然这种拟人化的术语经常被用作简化复杂软件机制的速记,但它们可能会误导我们认为当前的人工智能系统就像人脑一样运行。

米切尔称这种谬论为“一厢情愿的记忆术的诱惑”,并写道:“这种速记可能会误导试图理解它们的公众(以及报道这些结果的媒体),甚至会无意识地影响人工智能专家的思维方式。他们的系统以及这些系统与人类智能的相似程度。”

一厢情愿的谬论也导致AI界以误导的方式命名算法评估的基准。例如,考虑一些人工智能最

受尊敬的组织和学术机构开发的通用语言理解评估(GLUE)基准。GLUE 提供了一组任务,这些任务可以帮助评估语言模型如何将其功能推广到其已受训的任务之外。但是,与媒体所描述的相反,如果 AI 代理获得的 GLUE 得分高于人类,则并不意味着它的语言理解能力要高于人类。

Mitchell 写道:“虽然在这些特定基准上机器的性能优于人类,但 AI 系统仍远不能与我们与基准名称相关联的更一般的人类能力相匹配。”

如意算术的一个明显例子是 Facebook 人工智能研究公司 2017 年的一个项目,科学家在该项目中训练了两个 AI 代理以基于人类对话的任务进行谈判。在他们的博客文章中,研究人员指出“更新两个代理的参数会导致与人类语言的差异,因为代理开发了自己的语言进行谈判(强调我的意思)。”

这导致了一系列的点击诱饵文章,它们警告了 AI 系统变得比人类更智能,并且正在以秘密方言进行交流。四年后,最先进的语言模型仍然难以理解大多数人在很小的年龄就没有受到指导的情况下所学的基本概念。

没有身体的 AI

智慧能否与世界丰富的物理经验孤立地存在?这是科学家和哲学家几个世纪以来一直困惑的问题。

一种思想流派认为,智力全在大脑中,并且可以与身体分离,这也被称为“桶中的大脑”理论。米切尔(Mitchell)称其为“智力全在脑中”的谬论。有了正确的算法和数据,我们就可以创建可以生活在服务器中并与人类智能相匹配的 AI。对于这种思维方式的拥护者,尤其是那些支持纯粹的基于深度学习的方法的人,达到通用 AI 取决于收集适量的数据并创建越来越大的神经网络。

同时,越来越多的证据表明这种方法注定会失败。她写道:“越来越多的研究人员正在质疑“全脑”信息处理模型的基础,以理解智能并创建人工智能。”

人和动物的大脑已经与所有其他人体器官一起进化,其最终目标是提高生存机会。我们的智力与身体的极限和能力紧密相关。嵌入式 AI 的领域不断扩大,其目的是通过通过不同的感官刺激与环境互动来创建能够发展智能技能的主体。

米切尔(Mitchell)指出,神经科学研究表明“控制认知的神经结构与控制感觉和运动系统的神经结构紧密相连,抽象思维利用了基于人体的神经“图”。”事实上,越来越多的证据和研究证明了来自反馈的反馈。大脑的不同感觉区域会影响我们的有意识和无意识思想。

米切尔(Mitchell)支持这样的观念,即情感,感觉,潜意识偏见和身体经验与智力密不可分。她写道:“在我们的心理学或神经科学知识上,没有任何东西可以支持 ' 纯粹的理性 ' 与可以影响我们的认知和目标的情感和文化偏见分开的可能性。”

“相反,我们从体现认知的研究中学到的是,人类智力似乎是一个高度集成的系统,具有紧密相关的属性,包括情感,欲望,强烈的自我意识和自主性以及对世界的常识。尚不清楚这些属性是否可以分开。”

人工智能常识

发展通用人工智能需要对我们对智能本身的理解进行调整。我们仍在努力定义什么是智能以及如何在人工和自然界中对其进行测量。

“很明显,为了更有效地实现和评估 AI 的进步,我们将需要开发出更好的词汇来谈论机器可以做什么,”Mitchell 写道。

“从更广泛的意义上讲,我们将需要对智能进行更好的科学理解,因为它体现在自然界的不同系统中。”

米切尔(Mitchell)在论文中讨论的另一个挑战是常识性挑战,她将其描述为“一种当今最先进的 AI 系统所缺少的保护伞”。

常识包括我们获得的有关世界的知识,并且每天无需付出太多努力就可以应用它。当我们还是孩子的时候,通过探索世界,我们可以学到很多东西,而无需明确指示。其中包括诸如空间,时间,重力和物体的物理属性之类的概念。

例如,一个孩子很小的时候就知道,当一个物体被另一个物体挡住时,它并没有消失并继续存在,或者当一个球在桌子上滚动并到达壁架时,它应该掉下来。我们使用这些知识来构建世界的心理模型,进行因果推断,并以相当高的准确性预测未来状态。

当今的 AI 系统缺少这种知识,这使它们变得不可预测且需要大量数据。实际上,本文开头提到的两个 AI 应用程序 - 客房清洁和驾驶是大多数人通过常识和一点点实践学习的东西。

常识还包括有关人类本性和生活的基本事实,我们在对话和写作中忽略的事物,因为我们知道我们的读者和听众都知道它们。例如,我们知道如果两个人在“打电话”,则意味着他们不在同一个房间。我们还知道,如果“约翰伸手去拿糖”,则意味着在约翰附近某处有一个装有糖的容器。这种知识对于自然语言处理等领域至关重要。

“还没有人知道如何在机器中捕获这样的知识或能力。这是人工智能研究的当前前沿,一种令人鼓舞的前进方式是利用有关幼儿中这些能力发展的已知知识。”米切尔写道。

尽管我们仍然不知道许多问题的答案,但寻找解决方案的第一步是要意识到我们自己的错误思想。Mitchell 写道:“了解这些谬论及其微妙的影响可以为创建更健壮,值得信赖甚至可能真正智能的 AI 系统指明方向。”

版权声明:内容来源于互联网和用户投稿 如有侵权请联系删除

本文地址:http://0561fc.cn/34544.html