神经科学家的心路历程:没有AI,你会更安心吗?

神经科学家的心路历程:没有AI,你会更安心吗?的照片
(图为1997年纽约,与IBM深蓝电脑终局对弈开始时,一台电视监视器上的加里·卡斯帕罗夫)

人与机器的区别正身处重围。

技术先知Ray Kurzweil抱着随意的信心说,把人类自己上传到宇宙服务器中能够实现电磁形式的不朽。在我看来,机器可能获得与人类知觉与情感相当的等价物——这只是纯粹的幻想。然而,作为一名神经学家,我不能忽视先进的机器智能中人类意识的含义。

让我们先来回想一下1997年IBM深蓝击败加里·卡斯帕罗夫这件事。卡斯帕罗夫指责深蓝在一步关键的步骤中有IBM人工干预的成分。这一举动凸显出这一事实:当机器越来越聪明时,人类将会遭遇重要的认知失调。

我们知道理解一些事情意味着什么,因为我们体会到了理解的感觉。机器不会。

卡斯帕罗夫不能接受他自己被一台计算机打败了,因为他感到在这一棋局中输给了更高级的智能。

但是,他错了——几年之后,深蓝的创造者揭示说,最重要的一步棋源自软件的一个bug。面对眼前的几种选择,深蓝无法确定选择哪一个,结果,一步随机的棋让卡斯帕罗夫慌了神。

揭秘创造力的生物过程是一件大事。功能性核磁共振扫描大致地告诉我们,某个人有了新想法时,哪一片脑区会亮起来。脑波专家提出一些对原创性有特异反应的脑电模式。即使这些发现成功了,他们也不能告诉我们一步好棋如何从软件错误中产生。如果我们被迫扩大创造力的概念,将随机的神经放电也纳入其中,这有助于我们看清人类面对无意识机器意淫出来的优越性吗?

对于卡斯帕罗夫来说,深蓝是一个谜一样的黑匣子,什么构成人而什么构成机器智能的偏见造就了他的看法。他不是唯一这么想的人。

对于人类如何思考,我们有着强烈的私人私人感受,因为我们经验着思考。我们知道理解意味着什么理解意味着什么,因为我们体验着理解的感觉。这种理解的感觉既需要意识能力,也需要察知某人思想的能力。我们无法设想没有意识的理解。

实际决策的质量或者说精度,在这个过程中被忽略了。棋手所走的每一个标准步骤代表的是理解,线路和晶体管构成的没有生命的收集者的优越步骤不是理解,而是死记硬背的机器学习。为了说明这一点,脑补一个自称象棋菜鸟的人走出了深蓝的杀招,我们所有人都会怀疑她到底是不是菜鸟。

然而,神经科学正在揭示:理解不是意识深思熟虑的结果。从直觉到「啊哈」,不同程度的领悟感,其实是无意识的精神感觉( involuntary mental sensations),是潜意识大脑机制的产物。大脑通过这种方式告诉我们,潜在想法可能是对的。它们更像是身体感觉而非精神感觉,在有意识的思维不在场时,它们能在某些精神药物和直接脑部刺激下自发产生。我们不会对「啊哈」有什么终极理解,感受它,如同体验着爱欲和惊奇。

相反,我们能在没有任何理解感的情况下认识事物。(在经典的盲视例子中,皮质盲患者能够指出视野里有灯光在闪烁,即使他们觉得自己看不到任何东西,患者的某些感觉是十分可靠的,但他们却对此一无所知。)

如果我们接受这样的观点:理解感是一种机器不可能体验到的无意识感,那么,你可能会认为,我们应该停止担心机器会「懂得」什么。然而,事实并非如此。1980年,哲学家John Searle提出的中文房间的论据证明数字计算机不可能理解语言或者思想,兹总结如下:

想象一个母语是英语,对中文一无所知的人被锁在一间房子里,这个房子里有许多中文符号(一个数据库)和一本操作这些符号的指南(程序)。一个在房子外的人用中文符号提交中文问题(输入),这些都是房子里的人所不了解的。接着,房子里的人遵循程序的指导,递出正确答案的中文字符(输出)。这个程序让房子里的人能够通过理解中文的图灵测试,尽管他对中文一无所知。

回到1980年,那时我们对大脑了解很少,人工智能还没有实际效用,在这种语境下,John Searle的讨论是合理的;在人工智能还缺少理解力时,你当然不会期盼它做出只有聪明的人类思想才能做出的决策。然而,三十五年后的今天,这个争论过时了。实际上,认为机器没有意识和感情,令人费解。否认机器能够理解,无助于我们探知机器智能的的潜在界限。即便如此,据斯坦福哲学百科全书,中文房间论证(the Chinese Room argument)仍旧是继继图灵测试之后,认知科学领域讨论得最为为广泛的哲学观点。

这仿佛是人类自我宣称的优越和独特地位正在持续受到威胁,似乎必须从根本上与所有其他潜在会思考的实体进行比较。在几百年前,笛卡尔就假设其它的动物是机器人。即使我们知道乌鸦能使用工具,黑猩猩会进行领土战争,我们仍然不会担心乌鸦和黑猩猩会占领我们的星球,也不会担心他们会取代我们成为地球上最高的生命形式。但是机器,就要另当别论了。

值得赞扬的是,卡斯帕罗夫看到了未来。后来,他的朋友们尝试着安慰他说,计算机拥有远比人脑更强的计算能力,但是,它不理解象棋。鉴于计算机处理的大量信息,卡斯帕罗夫的回答可谓先见之明:「更多的数量能带来更好的质量(More quantity creates better quality)。」

我们大多数人知道,这将在我们有生之年里成为现实。作为一个实践的神经学家,我对我积累的临床数据很骄傲。现在,不仅仅是神经科学,任何有一点内存的手持设备都有个更大、更精确的数据库。扑克是我一生所爱,通过实践、学习和一点点数学,我掌握了还算不错的技能组合。对我而言,游戏的快乐来自于知道对手都有什么牌,赌什么,对手什么时候是在吹牛。本质上,我热爱神经科学和扑克是因为自身才能在这些领域得到最好的发挥。现在不再是这样了。

最近几年,阿尔伯塔大学的计算机系开发的一个扑克程序(Cepheus)不断打败世界上最顶尖的选手 。但是,这一系列获胜最值得注意的地方是,他们不是预先编程成某种风格或者是对错综复杂的扑克知识有所了解。取而代之的是一个有巨大内存(4000TB)的人工神经网络。它测试并纪录了上百万局尝试和错误的仿真牌局,最终学会了任意给定情况的最优策略。做到这点时,它没有关于扑克游戏以及对手的任何知识,或者最佳人类选手的任何细节。(如果你愿意,你可以在_poker.srv.ualberta.ca 和这个程序对弈。)

因此,如果接受现实,承认机器的这种相对优越性,我们该如何适从?我很赞赏一位年轻朋友的观点,他是一位顶级扑克联赛选手,花了大量时间挑战Cepheus(不过,鲜有胜绩)。他希望通过观察对弈提高扑克牌技巧,试图揭开计算机时常采取反直觉招术背后原因。他并不关心Cepheus是否了解扑克游戏本身。「嗨,我很务实,不是哲学家。如果机器知道些我不知道的事情,我乐于以它为师。」

与其让什么构成了意识这种生物学偏见压得自己喘不过气来,不如试着采取新的分类法。将机器视为拥有不同类型智慧的独立物种——在数据处理上,机器优于人类,但是它们没有情感理性。它们既不优于人类,也不逊于人类,仅仅不同于我们。在谈论机器智能时,让我们试着避免使用诸如思维、理解之类的词汇;它们无助于我们对机器的理解(明白我的意思吗)?人类正慢慢了解到动植物展现自身智慧形式的无数种方式;在认识机器时,也应该遵循同样的道理。

区分很简单。 就可定量数据而言,智慧将变得越来越集体化,而非私人化。我们可以从智能机器那里获得最佳治疗方案,扑克或象棋游戏中最佳招术,选择最佳出行时间,获取天气变化消息。在这种定量数据方面,人类不占优势。

人类智慧最根本的价值在于,我们能够沉思那些不能量化的东西。情感,感觉和意图——作为人的那些特质——无法加以精确的描述和计算。机器无法也不能告诉我们最好的移民政策,是否应该继续基因疗法,枪支管制是否最符合我们的利益,等等。计算模型能够告诉我们,微妙的人类偏见如何引发明显的种族主义和盲从,却无法将观看一幅私刑处决照片时涌出的大量人类情感纳入考量。

无需赘言,我们拥有情感智慧;机器可没有。与其为骄横的机器会从人类这里夺取什么而焦虑,不如关注那些仅凭人类自己就能带来变化的领域。

平心而论,这篇文章是我个人长期观察思考后的成果。我一直关注着人类创造和使用智能机器的热情,这种热情正与日俱增,但真正担忧的是人类正逐渐失去机器无法取代的认知技能(cognitive skills)。大学人文学科招生人数在下降,文人小说也如沐黄昏,人们对信息的热情似乎超过了对沉思的关注。当然,没有什么是非黑即白。这种趋势也是我作为旁观者的拙见。

我承认自己偏好这样的想法:根据科学证据和推理回答那些经验性问题,与此同时,对无法言说的神秘之物和情感复杂事物——构成我们生活的那些无法形容却显而易见的混乱,保持深深的理解和欣赏。就后者而言,能赋予我们价值的不是那些具体答案,而是深度思考过的问题。最终,问题的质量将成为衡量一个人的标尺。

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: