集异璧 侯世达:我讨厌“人工智能”这个词 因为它们没有智能

栏目:美食 2021-11-30 14:39:22
分享到:

道格拉斯·霍夫施塔特|格雷格·鲁芬

在这个问题上,他显然是少数派。他几十年没有参加学术会议,也很少和AI的主流研究者交谈——“我对他们的地位不感兴趣”。很多时候,这并不是真正的冲突。双方只是在思考不同的话题,不同的时间尺度。

但是他在想的真的是击中了盲点。

智能可以堆积在数据集中吗?智力是没有目的和情感的吗?如今的AI可以做很多事情,但他们真的“了解现实世界”吗?还是他们只是空空的黑盒?

毫无疑问,今天的人工智能领域是非常成功的,在没有考虑这些问题的情况下,它正在取得快速的进步。但是这种进步可能是不可持续的。如果不解决一些更深层次的问题,你可能就像寓言中那个想爬树到达月球的人:“他会不断进步,直到树的尽头。”

图片来源:卡通创意

问答|果壳侯道仁

贝壳:你为什么把这样的研究方式带离主流?

侯:其实我觉得我不是在做正常意义上的研究。我在个人状态下探索想法,如果可能的话,我会写书来传递。驱使我这样做的是寻求美和优雅的力量。另外,我喜欢不认真。

我对企业的商业目标不感兴趣——你知道,比如谷歌的AI产品什么的。我感兴趣的是理解人类的思维,理解语言,理解这些东西的深度和复杂性。

我对这些东西非常尊重,我的感觉是那些科技公司好像没有太多的尊重。这绝对不是全部成立的。有数百人在做这些项目。每个人都是独一无二的,都有自己的想法;但公司本身会有动力推动这些人公开宣布“我们已经达到了人工翻译的水平”。

我不知道谷歌翻译团队的成员是否真的相信这些话,但他们显然有这种“厚颜无耻”——你知道厚颜无耻这个词吗?这是一个意第绪语单词,用这种傲慢的语气说出来很可笑。当然,他们的产品非常强大。在谷歌翻译中输入一篇文章或复制一个网页,两秒钟后翻译就会出现在右侧。有时候翻译会很好,因为他们真的用了很多知识,不,不是知识——

图:卡通创意

壳牌:数据?

侯:是的,数据,而且速度很快。但大多数时候,翻译是相互远离的。我举过一个例子:从医院屋顶上下来的骆驼背上有一箱木瓦。

翻译软件给出“一盒带状疱疹”。这和带状疱疹没关系!屋顶工人搬运的瓦片显然无疑是瓦片。而且它还用了一个“盒子”。怎么会有疾病的“盒子”?

没有任何意义。简直是垃圾。但这就是翻译软件所做的,因为它什么都不懂。为零。它不知道有这样一个世界,里面发生了那么多事情,它不知道过去和未来,也不知道有大有小,有大有小。它什么都不知道。它只知道文字。

贝壳:不知道意思?

侯:你连字都不会。只是用词而已。这么简单的句子你听不懂。你怎么能说这是人类水平的翻译?

壳牌:这些不是个别的例子吗?

侯:你要用这些例子来揭示它背后的空洞,证明它不懂。机器翻译是一个聪明的技巧,有时它能完美地工作,它通常在简单的句子上工作——但不是每个句子。

整个机器翻译领域最著名的例子是“盒子在笔里。”我尝试的每一个程序都在这句话里失败了。即使给出上下文也没用:“小约翰在找他的玩具箱。他到处找,最后在钢笔里找到了。他非常高兴。”

贝壳:它变成了钢笔里的盒子。

侯:任何人都可以理解。当然,他们可能会笑,认为这很有趣,因为乍一看,“笔”这个词可能会让人以为它是你口袋里的“笔”,显然“笔”的原句不是笔。但是人类只能想想,程序直接掉进坑里。但现在60年过去了。这句话出自机器翻译领域最著名的一篇文章,发表于1959年;现在,60年过去了,机器学习的这么多成果都无法让程序跳出这个陷阱。

此外,机器学习在很大程度上仍然是一个黑箱。如果它犯了一个错误,很难知道如何修复它。

贝壳:我觉得这种事情就像是自动驾驶的状态。他们似乎能认出他们看到的图像,但他们不能真正理解它们。你认为AI不了解所有这些事情就做这些事情危险吗?

特斯拉汽车在使用自动驾驶系统时发生车祸|来源:BBC

侯:当然危险。的确,我们有很多工具可以做很多事情,而这些工具什么都不懂。比如机场不同航站楼之间有小火车连接,火车上没有人类工程师或司机,但都很简单。它们是固定的轨道,固定的起点和终点,轨道上几乎没有障碍物,所以你可以信任它们。一些大城市的地铁也不需要司机,因为轨道是纯地下的,所以不可能有障碍物。不理解也没关系。但是对于自动驾驶,我感觉几乎和翻译软件一样糟糕。

现实世界中可能出现的场景无限复杂,开车时会发生什么完全无法预测。我觉得非常糟糕。反正我不喜欢AI这个词。

如果你能重新发明一个词,你会怎么说?

侯:我不知道。我认为开车可以。你不需要“智力”这个词。智力不是这个领域讨论的话题。当我们谈论智能时,其中一些确实对我们实时看到的场景进行了分类;我不太懂自动驾驶。我知道他们使用的很多技术都不同于人类驾驶。他们可以使用GPS、激光雷达等,这意味着他们通过自动驾驶看到的场景和信息与人类驾驶不同。

我不确定他们在做什么,但你可以说,这是对快速变化的图像的实时感知和实时分类,这是一个动态而不是静态的过程,这当然是智能的一部分,但绝对不是所有的智能。所以我不喜欢在这样的系统中使用智能这个词。

上世纪五六十年代,说“我们在研究AI”还行。我们正在研究它,试图理解智力,但现在人们不再这么说了。人们说“这就是智慧”“那就是智慧”。我不喜欢这样。这是过于简单化、扭曲和误导。

Shell:开车和翻译都是很难的实际问题,但是创意呢?阿法尔狗在围棋中击败人类,我相当震惊。

柯洁VS阿尔法狗|来源:theguardian.com

侯:我同意。震惊是正确的词。我觉得很不舒服。我为围棋选手感到难过。然而,你知道有一个微软程序可以写诗——

壳牌:是的,他们真的出版了。

侯:我不知道你说的“真”是什么意思。显然现在人们可以发表任何东西!没什么。但是我想说,随便写点现代诗也没什么大不了的,很容易,大部分都是垃圾。做一本垃圾书,声称是诗,这不是成就。这种事情已经做了很久了,五十五年前我自己写了这个程序。没什么-嗯,也许五十年前没什么。

但就像有人说的,这叫电脑的创造力?这完全是荒谬的,完全是无稽之谈。有创造力与情感有关。强烈的智力激情、好奇心和驱动力、愉悦和玩耍、乐趣、神秘和对发明的渴望——这些在今天的电脑中是找不到的。没事没事。

当然,电脑可以做很多事情。25年前,有人曾经写过一个程序——后来我和他成了朋友——可以发现新的欧洲几何定理。它正在探索几何学中的新东西。但它的实践完全是机械的。它对几何没有兴趣,不思考,不享受,不寻找美,也不做这种事。只是一个机械蛮力的琐碎探索,数到小数点后15位,检查是在线还是圆的。这些事情对于人类来说是极其困难和无聊的。

如果你观察它作为一个人产生的成千上万的结果,你会偶尔发现一个优雅的定理。但是机器不知道它的优雅,对优雅不感兴趣,对什么都不感兴趣。说这和创造力有共同之处是荒谬的,但人们总是这么说。当他们说这样的话时,他们从来没有想过什么是创造力和智力。所以我真的很讨厌说我们在用“人工智能”做事。我们没有这种东西。

果壳:AI最早的时代。图灵说,因为我们不知道计算机是否会思考,所以我们应该根据它们的思考结果来判断。现在我们有了EMI,可以产生类似肖邦的音乐,还有Alpha dog,可以打败人类棋手。这些是思考的结果吗?

侯:不,因为艾伦·图灵说的是使用语言。

贝壳:那么语言是人类思维的核心吗?

侯:语言代表概念,日常的词语和句子对应着我们心中的概念,这是给概念贴标签的一种方式。当然,不是所有的概念都有标签,但很多有。我们用语言来表达这些概念。这是图灵说的。当然,围棋也对应这个概念,让阿法尔狗可以玩围棋,但这不是关于整个世界,它只是一个微小的微缩世界。

至于EMI,我写过很多东西,也做过很多讲座——

啊,我读过《喜欢听巴赫》。

侯:这是这篇文章的缩写。我写了大约40页,减少到10页左右。我忘了是不是自己缩写的。那几乎是20年前的事了。不幸的是,它没有完全总结我想说的。

我觉得百代是骗子。它生产的大部分东西显然是从其他作曲家那里借来的。你对那些作曲家的作品越熟悉,就越能看出它们只是片段,并把它们组合在一起。这与创作音乐无关,是零,与人与音乐的关系无关。只是表面的模仿。就像那个三个字母的游戏。

你知道这个游戏吗?找什么文章不重要,比如林肯的葛底斯堡演说。然后计算本文中三个字母组合的频率。比如AAA没有出现,The出现了几次,或者HE空和空也算一个字母,汇聚成频率表。然后你找两个字母。我通常在表格中随意查找下一个字母。例如,如果第一个字母是th,那么你可以检查thA、THB、THC……直到TH逗号、TH句点和TH空的频率,然后根据这些频率随机选择第三个字母。最大的概率可能是,但你不能总是选择它。也许这次你选择了THR。然后,新的双字母是HR,然后在表中查找HRA、HRB、HRC……等等。

壳牌:这是一个马尔可夫链。

侯:对,就是这样。你用这种方法创建一个新的文本,看看它是什么样子。它与原文有很大的相似之处。你可以用四个字母,五个或更多的字母来代替三个字母。你甚至可以用整本书作为源文本,统计其中的频率,创建新的人工文本。大致来说,它看起来会像是原作者写的东西的一部分,连接几个单词可能是正常的,尤其是当你用四个字母或五个字母来生成它们的时候;但这根本没有任何意义,总体来说是垃圾。这个想法是大约70年前发明的,已经被充分研究过了。当然这样做出来的东西很有意思,这也是EMI本质上做的事情。

但是当它做这种事情的时候,它就不聪明,不懂得音乐。这不是对作曲家的威胁,而是一个小玩具,可以让电脑快速拼凑出音乐的小片段。有时候听起来很有说服力,但是和创作音乐,理解音乐,什么都没有,空什么都没有。然而,正是这种东西不断被吹捧为人类层面的成就。

壳牌:但是有没有可能沿着这条路线发展出不同于人类智力的东西?例如,阿尔法狗是否发现了一些人类没有看到的关于围棋的深刻见解?

侯:如果有,一定是感情用事。情感是智力的核心,没有情感就没有智力。当然,你可以看到我现在说的话很感性,这是真的。我们说的每一句话都充满了情绪,被情绪所驱使,智力就是这样。

阿法尔狗做了一些惊人的事情。我根本不知道Go,所以无法评论。但显然,它发现了一些人类从未注意到的模式,并利用这些模式下了一盘好棋。我不知道说它“理解”围棋是否正确,因为理解是一个很难的概念,但至少它一定找到了一些关于围棋的事实,一些强大而未知的事实。

我觉得这很棒,也让我很沮丧和担心,但我不认为这是一条通往非人智慧的道路。如果你能在未来创造一个计算机程序与人类交流是一回事,但玩围棋不是交流思想,它只是一个游戏。不,这甚至不是玩游戏,这只是操纵符号。它不知道这是一个游戏,也不知道什么是游戏。

但如果人们能开发一个程序,在未来与人交谈——认真讨论意见和想法,而不是问“siri附近有哪些印度餐馆”。我不太喜欢这些东西,也永远不会用,虽然我知道很多人喜欢这样的小软件。

简而言之,如果我们将来真的有一个可以与人交谈的系统,它必须几乎了解人类生活的一切。你需要了解人类的情绪,你必须有情绪,你必须有忧虑、恐惧、不安等等,就像人类一样。这是获得智能系统的唯一途径,但我们离它的实现还很远。

图:卡通创意

贝壳:没有捷径吗?也许我们可以复制人类经验的一部分,而不用把所有可能的经验都传授给机器?

侯:我不这么认为,但是我不知道捷径是什么。一点点经验还是可以的。围棋也是其中的一部分。

壳牌:那么机器面临的问题是什么?

侯:感情是有一套内在目标的。我们谈论的对象必须追求这些目标,并且需要能够快速判断它所做的事情对这些目标是好是坏。情感是从这种对好与坏的区别的感知中产生的。

壳牌:但我们真的在为遗传算法设定目标,这还不够吗?

侯:但是这些目标和它的生存和福利没有关系。它不是试图保护自己,不是试图过上更好的生活。情感来自奋斗,生存的奋斗。现在没有了。

贝壳:听起来是适者生存,要模仿进化路线。

侯:计算机能进化吗?当然,全世界数百万台电脑都在不断变化,这与50年前大不相同。这也是自然的选择。自然选择意味着世界上有不同的事物在竞争,被环境选择。在这种情况下,环境是人的,但这并不重要。人类也是世界的一部分。所以当然计算机正在走一条进化的道路。

但是它们不繁殖,不重组遗传信息,这种进化方式与生物不同。乐器也在进化,但它们不是被复制的,而是由人类制造的。计算机也是如此。

如果计算机成为自律的实体,开始自我复制,互相竞争生存,那么这里发生的事情就更接近于生物的进化。这个时候,你会有情绪。情感来自于保护自己,保护你关心的实体,保护你的家人和朋友。电脑没有朋友之前,是不会有情绪的。现在电脑没有朋友,不喜欢也不讨厌任何人。这不是他们世界的一部分。一定要有保护,有关怀,有同理心,要能认同别人的目标,把它当成自己的目标。

我们远离这一切。

作者Ent与侯世达照片|来源:Ent

排版:瑞英

标题图来源:漫画创意

文章来源:本文转载自微信官方账号“果壳”,有授权。请联系原账号。

欢迎个人转发到朋友圈

微信:SquirrelClub

微博:科学松鼠会

科学松鼠会成立于2008年4月,是一个以促进科学传播产业发展为使命的非营利组织。我们希望帮助公众剥开科学的坚果,像松鼠一样分享科学之美

喜欢记得“看”