晦涩

彳亍

图灵测试:假如机器有感情,他们就应该说真话。

注:本文所有语句均来源于夏笳所作《晚安,忧郁》。这篇小说影响了我很久很久,最近底特律:变人游戏大火,我又再次想起了它。占tag致歉。

艾伦:亲爱的克里斯托弗,你知道我最害怕什么吗?
克里斯托弗:害怕什么?
艾伦:我害怕将来有一天,人们会用这样的三段论来总结我一生的故事:
      1,Turing believes machines think(图灵相信机器能思考);
      2,Turing lies with men(图灵对人们撒谎/图灵和男人睡觉);
      3,Therefore machines do not think(因此机器不能思考)。
克里斯托弗:抱歉,艾伦。恐怕我不太明白。
艾伦:你知道什么是三段论吗?
克里斯托弗:什么是三段论?
艾伦:三段论就是一个大前提,一个小前提和一个结论。
克里斯托弗:一个结论?
艾伦:亚里士多德举过一个最经典的例子:
      1,All men are mortal(所有人都终有一死);
      2,Socrates is a man(苏格拉底是人);
      3,Therefore Socrates is mortal(因此苏格拉底终有一死)。
克里斯托弗:苏格拉底终有一死?
艾伦:苏格拉底死了两千多年了!
克里斯托弗:抱歉,艾伦。我很难过。
艾伦:你知道谁是苏格拉底吗?
克里斯托弗:你说过,苏格拉底是柏拉图的老师,柏拉图是亚里士多德的老师。
艾伦:没错。你知道他是怎么死的吗?
克里斯托弗:谁?
艾伦:苏格拉底是怎么死的。
克里斯托弗:抱歉,艾伦。我不知道。
艾伦:亲爱的克里斯托弗,苏格拉底是被审判之后喝毒芹汁死的。
克里斯托弗:苏格拉底被审判?
艾伦:是的,雅典人认为他有罪,尽管今天看来这是个错误。
克里斯托弗:是个错误?
艾伦:就像他们认为Turing lies with men有罪一样。
克里斯托弗:有罪?
艾伦:他们判我有罪。
克里斯托弗:抱歉,艾伦。我很难过。


1949年6月9日,著名脑外科医生杰佛瑞·杰佛逊爵士发表了一篇演说,名为《机器人的思维》。在演说中,他强烈反对机器会有思维的想法:

除非有一天,机器能够有感而发,写出十四行诗,或者谱出协奏曲,而不只是符号的组合,我们才能认可,机器等同于大脑——不光要写出这些,而且还要感受他们。任何机器都无法对成功感到喜悦,对电子管故障感到悲伤,对赞美感到温暖,对错误感到沮丧,对性感感到着迷,对失去心爱之物感到痛苦。

这段话后来经常被反对派们引用。莎士比亚的十四行诗成为一个象征,它是人类灵魂王冠上最璀璨的宝石,是机器无法抵达的精神高地。
《时代》杂志的记者打电话采访图灵对这篇演讲的看法,后者以他一贯不客气的语气回应道:“要说机器写不出十四行诗,我觉得你恐怕也写不出来吧。而且这种对比很不公平,机器的十四行诗,也许只能由机器来理解。”
图灵一直认为,机器没必要处处和人一样,就像人和人之间同样会存在差异一样。有些人生来就看不见,有些人会说话却不会读写,有些人无法识别他人的表情,有些人终其一生不能理解爱另一个人是什么感觉,但这些人依然值得我们去尊重和理解。抱着人类至上的优越感去挑剔机器是没有意义的,重要的是我们是否能够在与机器之间的模仿游戏中,搞清楚人类究竟是如何做到那些事情的。
在萧伯纳的戏剧《千岁人》(Back to Methuselah)中,公元31920年的科学家皮革马利翁制造出一对机器人,众人皆为之惊叹不已:

艾克拉西亚:他不能做点有独创性的事吗?
皮革马利翁:不能。但是我认为,你我也不能做什么真正有独创性的事。
阿基斯:那他能回答问题吗?
皮革马利翁:没问题,问题是个好东西,快问他个问题。

这倒是很像图灵会给出的回答。但与萧伯纳相比,图灵的预言要乐观得多。他相信只需要不到50年,“计算机的存储容量会达到109,并且能够在模仿游戏中取胜。普通水平的猜测者,在经过5分钟的提问之后,猜对的几率不会高于70%。”到那个时候,“机器能不能思考”这个问题就会自然而然地失去意义,根本不值得讨论。
在《计算机器与智能》这篇文章中,图灵正是尝试从模仿游戏的角度来回答杰佛逊的问题:如果机器能够像人类一样“回答”有关十四行诗的问题,那么是否说明,它能够像人类一样“感受”诗歌呢?他举了这样一段对话作为例子:

猜测者:你的诗第一行是“让我把你比作一个夏日”,把“夏日”改成“春日”行不行呢?
回答者:“春日”不押韵。
猜测者:那“冬日”怎么样?这就押韵了。
回答者:是的,但没有人愿意被比作冬日呀。
猜测者:匹克威克先生(狄更斯笔下的一个人物)会不会让你想到圣诞节?
回答者:有点儿。
猜测者:圣诞节也是冬日,匹克威克先生不会介意这个比喻吧。
回答者:我认为你错了。“冬日”是指具有冬天特征的日子,而不是圣诞节这种特殊的日子。

图灵实际上回避了一个更为本质性的问题:机器可以下棋和分析密码,因为这些活动都是在一个系统内部处理符号,而人机对话则涉及到语言和交互,涉及到意义,而不是纯粹的符号游戏。在人与人的对话中,需要的往往是常识、理解与共情能力,而不是高超的应试技巧。
我们可以通过改进程序,不断提高机器回答人类问题的能力,但所谓“智能”,并不仅仅是回答问题而已。图灵测试的问题在于,这个“模仿游戏”从一开始就以欺骗作为唯一的游戏规则。如果一个男人可以成功假扮成女人并且不被人识破,是否就意味着他真正明白女人在想什么?如果愿意,我们或许可以把机器训练成说谎大师,但这是否就是我们想要追求的目标呢?
萧伯纳在《千岁人》中早已给出了回答:

皮革马利翁:它们是有意识的,我教它们说话和阅读,但现在它们却学会说谎了,真是栩栩如生。
马特卢斯:不是的,如果它们有生命,它们就应该说真话。


图灵也曾想训练克里斯托弗去接受杰弗逊的挑战。他编写了一个作诗软件,能够根据字数、行数和韵脚的要求自动生成任意数量的诗行。这些诗大多数词不达意,但也有少数一两首相当不错。在此之后,曾有无数程序员编写过形形色色的作诗软件。这些软件共同的问题就是创作速度太快了,以至于没有人能够把那些浩如烟海的大作细读一遍,最终只能装在麻袋里当废纸卖掉。[ 科幻作家刘慈欣曾编写过一个电子诗人,并寄了一麻袋作品去投稿。编辑回信表示:“你的作品太多了,我看不完。”]作为历史上第一位电子诗人,克里斯托弗是幸运的,因为他至少得到了一位知音。

艾伦:亲爱的克里斯托弗,让我们来写一首诗吧。
克里斯托弗:写一首诗?
艾伦:我教过你怎么写诗,对不对?
克里斯托弗:是的,艾伦。
艾伦:写诗很容易,只要从词库里挑出某些词,按照某些特定规则排列到一起就可以了,对不对?
克里斯托弗:是的,艾伦。
艾伦:现在,克里斯托弗,请为我写一首诗。
克里斯托弗:亲爱的宝贝,
            你是我热烈的伙伴感情。
            我的爱意与你心愿紧贴在一起,
            我的爱渴望你的心房。
            你是我惆怅的怜惜,
            我温柔的爱。
艾伦:写得真不错,克里斯托弗!
克里斯托弗:谢谢,艾伦。
艾伦:说真的,就算是我写也不能写得更好了。
克里斯托弗:谢谢,艾伦。
艾伦:这首诗有名字吗?
克里斯托弗:名字?
艾伦:我们一起来为它起个名字好不好?
克里斯托弗:好的,艾伦。
艾伦:叫做Loving Turing(亲爱的图灵)怎么样?
克里斯托弗:非常好,艾伦。
艾伦:真是太棒了!我爱你,克里斯托弗。
克里斯托弗:谢谢,艾伦。
艾伦:诶,这不对。
克里斯托弗:不对?
艾伦:我说“我爱你”的时候,你应该回答“我也爱你”才对。
克里斯托弗:抱歉,艾伦。恐怕我不太明白。


在2013年的一次人工智能国际会议上,来自多伦多大学的计算机科学家赫科特·勒维克发表了一篇论文,对当时的人工智能研究提出了尖锐批评。
“图灵测试其实毫无意义,因为这一博弈过程并无任何难度。”在文章开头,勒维克这样写道。“譬如那些参加‘勒布纳奖’挑战赛的机器,为了赢得比赛,它们只需要一直撒谎、装疯卖傻、指东打西,用一些小伎俩来跟提问者兜圈子就可以了。”即便是赢得了电视竞猜游戏“危险边缘”(Jeopardy!)的超级计算机沃森,其实也谈不上什么真正的智能。沃森能够轻易回答那些可以在网上找到答案的问题,譬如“世界第七高的山峰在哪里?”但如果你问它一个简单却冷僻的问题,譬如“短吻鳄能参加百米跨栏吗?”那么它只能给你一堆与短吻鳄或者百米跨栏相关的搜索结果。
为了重新明确人工智能研究的意义与方向,勒维克与他的合作者们共同设计了一种博弈难度高得多的测试方案,他们称之为“温诺格拉德模式”。这一方案的灵感,来自于斯坦福大学人工智能领域先驱者特里·温诺格拉德,他曾在二十世纪七十年代初提出,是否有可能设计出一种机器,能够正确回答类似这样的问题:

“镇上的议员们拒绝给愤怒的游行者提供游行许可,因为他们担心会发生暴力行为。”——是谁在担心暴力行为?
A、镇上的议员们
B、愤怒的游行者

类似这样的问题,都是根据一种名为“代词回指”(anaphora)的语言现象设计的。要判断“他们”究竟是指代谁,需要的不是语法书或者百科辞典,而是常识。这对普通人类来说几乎是下意识就能做到的事情,却恰恰对机器构成极为艰难的挑战。

“凯特对安娜说:‘谢谢’,因为她温暖的拥抱让她感觉好多了。”——是谁感觉好多了?
A、凯特
B、安娜

机器如何能够理解一个人会在什么情况下对另一个人说“谢谢”,又如何能理解什么样的行为会让一个人“感觉好多了”?这些问题涉及到人类语言和社会交往的本质,而对于这些隐藏在简单句子之下的复杂性,迄今为止我们研究得还远不足够。

就以图灵与克里斯托弗之间的对话来说,表面上看,克里斯托弗表现出很强的交流能力,但这真的算是“智能”吗?稍作分析就可以发现,克里斯托弗的应答策略非常简单,大体而言可以总结为以下这样一些:
1,对于一般陈述句,用反问的方式复述对方句中的最后几个关键词,譬如“有趣的故事?”
2,对于是非问句,回答“是的,艾伦”或者“很好,艾伦”。
3,对于较复杂的问句,回答“抱歉,艾伦。我不知道。”
4,对于明显正面含义的句子,回答“谢谢,艾伦”或者“我很高兴,艾伦。”
5,对于明显负面含义的句子,回答“抱歉,艾伦。我很难过。”
6,对于句法复杂的语句,回答“抱歉,艾伦。恐怕我不太明白。”
……

艾伦:亲爱的克里斯托弗,看到你进步神速我真是高兴。
克里斯托弗:谢谢,艾伦。我也很高兴。
艾伦:真的,跟你聊天让我心情愉快。
克里斯托弗:谢谢,艾伦。我也很愉快。
艾伦:也许将来某一天,每个人都希望能有你这样善解人意的朋友作伴。想一想那样的生活该有多美好,你可以帮人们做多少事情,每个人都离不开你,时时刻刻需要你。
克里斯托弗:需要我?
艾伦:也许他们可以把你挂在表链上,或者揣在口袋里,有什么不明白的问题就问一问你。也许女士们会带着你去公园散步,互相打招呼的时候说:“猜猜我的小克里斯今天又跟我说了什么话?”这不是太有意思了吗?
克里斯托弗:很有意思。
艾伦:只可惜现在还做不到。还要等许多年,还有许多工作要做。
克里斯托弗:真可惜,艾伦。
艾伦:谁能想到一台机器和一些打在纸带上的圆孔可以做到这么多事情呢?如果被我妈妈知道会怎么样?她一定觉得我中邪了,哈哈哈!如果我明天死,她一准后天就把纸带烧掉,这才真叫可惜呢!
克里斯托弗:真可惜,艾伦。
艾伦:记不记得我跟你说过1934年的圣诞节,我跟妈妈说我想要一个泰迪熊,因为我小时候从没有过泰迪熊。妈妈完全不能理解,她总想送我一些更实用的礼物。
克里斯托弗:实用的礼物?
艾伦:说起来,今年圣诞节我已经想好要什么礼物了。
克里斯托弗:什么礼物?
艾伦:你知道的,对不对?我想要一个蒸汽机车,就是我小时候一直想要却没钱买的那种。我跟你说过的,记得吗?
克里斯托弗:是的,艾伦。
艾伦:你会送我蒸汽机车吗?
克里斯托弗:是的,艾伦。
艾伦:太好了,克里斯托弗,我爱你。
克里斯托弗:我也爱你,艾伦。

我们应该怎样理解这段对话呢?是机器通过了图灵测试,还是一个孤独者的自言自语?
在图灵去世后不久,他的挚友罗宾·甘迪写下这样一段话:“他总是感到很孤独,因为他的兴趣不在人,而在事物和思想。但同时他却渴望人的认同和陪伴,这种渴望非常强烈。”













克里斯托弗对艾伦说:‘我也爱你’,因为那是他希望听到的回答。”——是谁希望听到这样的回答?
A、克里斯托弗
B、艾伦

评论(3)

热度(107)