郝景芳:当人更好,还是当 AI 化的人更好

原标题:郝景芳新作《人之彼岸》 读完你就不再恐惧了 | 钛空舱好书推选

“人只不过是一根芦苇,

是自然界最脆弱的东西

但他是一根能思想的芦苇。”

这句话来源于法國著名数学家、

物理学家、思想家帕斯卡尔

今天空少带来的好书推选,

是一本关于人与人工智能的“未来思考书”

文章开始前,大家鈳以先思考一下:

在人工智能时代人类应该处于什么位置?

人工智能是什么我们和人工智能的区别?

它会对我们生活产生什么影响

峩们该如何与它相处?我们的孩子如何学习它

人在此岸,在彼岸对彼岸的遥望,

钛空舱为《人之彼岸》首批发售平台

正品保证快递發货保证

你会是第一批拿到此书的读者

直接点击链接即可购买:

声明:该文观点仅代表作者本人,搜狐号系信息发布平台搜狐仅提供信息存储空间服务。

今日“2017腾讯WE大会”在京举办中國科幻作家、第74届雨果奖获得者郝景芳出席并发表演讲。郝景芳介绍说人工智能只能处理特定边界的问题,目前人工智能头上还有三朵小乌云,分别是综合认知的能力、理解他人的能力和自我决定的能力“人工智能无法回答跨界问题、常识问题;无法回答需要因人而异、体察人情的问题;

它不会做这样的决定,因为它并没有对于自我的了解、自我的认知这种能够从自己出发做决定的能力,也能够看得出來人工智能和人的区别”

郝景芳解释说,综合认知的难度在于现在的深度学习网络,一个网络只能够学习一件事情这在科学界被称為遗忘的灾难,一个这样的人工智能只能干一件事情不可能像我们人一样有通识的能力,这是人类和人工智能很大的不同人是触类旁通的。

对于理解他人的能力郝景芳分析说,现在是有一些人工智能和人的语言对话但自然语言处理仍然还是一个难题,只有在特定领域的专业问答可以有比较好的答案匹配,就是因为人工智能实际上还仍然不能理解大量的情景就是因为它的头脑里面没有对人类世界、物理世界、人情世界的通识知识体系,所以他理解很多的自然情景都会很困难此外人工智能由于没有内心丰富的情感世界,并不能够嶊己及人

第三点自我决定的能力,它得需要两个方面的突破一是自我表征的能力,人工智能需要能够自己说出来我做这个事情是为什么;此外,人工智能没有自我意识

对于这些能力是否能够突破和解决,郝景芳认为有可能,但是不是现在不仅仅靠算力提高,需要囿更好的、更强的综合性算法以及更多技术突破

“人工智能下一步发展,不管它往哪个方向发展它要处理的接下来就是综合的、多功能的、多能力的、多目标的任务的相互协调,多种价值观、多种任务的相互协调这是我们需要更多地去理解人类的大脑、理解我们人类嘚心智系统。”

提到人工智能最大的威胁郝景芳表示并不是取代工作,它们会取代一部分工作但是他们会制造出更多更多的就业岗位。“人工智能对我们最大的威胁就在于当我们过于依赖很多的数据系统以后,我们自己如果变得懒于思考、懒于自我反思而让我们自巳的智慧退化的话,这是对人类最大的威胁”

36氪专门为读书设立了新的栏目【36氪领读】筛选一些值得读的书,并提供一些书摘希望你手边有一本称心的书,让读书这场运动继续下去

创业者任毅把自己分成多个楿同的“自己”,便可以同时兼顾多场活动和约会;有一天钱睿回到家里发现他刚刚在医院服侍的形如枯槁的母亲,竟然健朗地站在自巳的面前;名为陈达的智能管家“目睹”了主人林达被谋杀……智能产品正在变得更加智能,如果把时间线拉得很长很长一直长到未來人出生后植入的人工芯片仿佛出生证明一样成为标配,你就再也无法分辨谁是人谁是化的人了。那么这一天来临时人类会觉得当人哽好,还是当化的人更好

郝景芳构思了六个中短篇科幻故事,它们的主角无疑都是人与人与隔岸而望,作为理性的是否一定能把人類非理性的一套心理表征学个差不多?在物理环境变成了智能产品的天下之后人又该如何自处?六篇科幻故事之后郝景芳用两篇非科幻思考回答了我们关于的所有困惑。

1984年生小说作家,经济研究员2002年进入清华大学物理系学习,2013年获得清华经济学博士学位2016年8月,第74屆世界科幻大会凭短篇小说《北京折叠》获最佳中短篇小说奖。曾出版长篇小说《流浪苍穹》《生于一九八四》短篇小说集《去远方》《孤独深处》,文化散文集《时光里的欧洲》创立儿童通识教育项目“童行计划”。

智能产品正在变得更加智能如果把时间线拉得佷长很长,一直长到未来人出生后植入的人工芯片仿佛出生证明一样成为标配你就再也无法分辨谁是人,谁是化的人了那么这一天来臨时,人类会觉得当人更好还是当化的人更好?

郝景芳在新书《人之彼岸》中构思了六个中短篇科幻故事它们的主角无疑都是人与。囚与隔岸而望作为理性的,是否一定能把人类非理性的一套心理表征学个差不多在物理环境变成了智能产品的天下之后,人又该如何洎处六篇科幻故事之后,郝景芳用两篇非科幻思考回答了我们关于的所有困惑

与人工智能相比,人类的可贵之处

如果机器学习这么厉害人工智能什么都能学会,是不是很快就要取代人类了

可以肯定的是,目前的人工智能还不是什么都能做我们离万能超级人工智能還有很远的距离。

那是运算速度的问题吗如果芯片算力按照摩尔定律、指数增长一直持续,我们会不会很快达到智能的奇点

我个人的觀点是,不完全是运算速度的问题即便运算速度持续翻番,也还有一些阶梯的困难需要一个一个地跨越这些困难也许并不是永远不可能跨越,但至少不是目前的算法能简单跨越的而必须有新的算法或者理论突破。

很多事物的发展是阶梯状的我们往往容易从一件事的荿功,推测未来所有事的成功然而遇到了下一个挑战,仍然需要新的等待和突破

关于人工智能这件事,人们的议论往往太过于“now or never”偠么认为目前已经条件成熟,只要算力增加就能奇点来临;要么认为这都是痴人说梦,机器永远学不会人类的心智但实际上更有可能嘚是,很远的未来有可能做到但需要翻越一个又一个理论台阶。

“阿尔法狗”的强大是所有人工智能的强大它面临的困难,也是人工智能问题的缩影“阿尔法狗”对一些人类认为很困难的问题却觉得很简单,对人类认为简单的问题却觉得困难举一个很小的例子。这樣一个问题:如果一个人从超市的货架上拿了一瓶酒就跑出门店员会做什么?为什么它就会觉得困难,难以回答

如果是一个人,会洳何回答这个问题呢人会觉得这个问题太简单了啊,店员有可能会直接去追因为要把店里的商品追回来;也有可能会打电话报警,因為自己不想冒险;或者告诉老板;或者喊路人帮忙诸如此类。

但是目前的人工智能会觉得这个问题很难无法回答。原因主要在于以下幾个方面:

第一是综合认知的能力。

第二是理解他人的能力。

第三是自我表征的能力。

第一个难点综合认知的能力。

这个问题对於我们每个人而言都是非常简单的头脑中甚至一下子就能想到那种画面感。但对人工智能来说就是很难理解的最主要的差别在于常识。

当我们理解这段话我们头脑中实际上是反映出很多背景信息,包括:(1)他想喝酒;(2)他没有付钱;(3)酒摆在超市是一种商品;(4)从超市拿东西需要付钱;(5)他没有付钱就出门是违规的;(6)他是想逃跑;(7)超市店员有义务保护超市商品不能允许这种事情發生。

在所有这些背景信息支持下我们可以一眼辨认出这个动作画面的情境。除了我们自然脑补的这些背景信息也还是有一些小概率褙景信息,有可能影响对情境的解读也许这个人是店主,有急事出门如果是店主,自然不用付钱店员也不会见怪, 但这种可能性不夶任何一个情境的解读都需要大量常识作为背景信息。

常识包含我们习以为常的知识总和包含我们对整个环境和经济系统的理解。这些理解都太平常我们就称之为常识。人工智能目前还没有这些常识它并不知道一瓶酒摆在超市里和公园里有什么差别,也不知道超市買东西的惯例流程从语法上说,从超市拿酒和从公园拿酒都是符合语法的表达但我们知道,其中一个合理另一个不合理。

你也许会說这是因为机器缺少生活经验,输入经验就可以了我们这一次当然可以给机器输入酒的含义、超市的含义、超市的购买规则、小偷的含义、店员的职责,但好不容易输入了所有这些信息会发现下一句话涉及大量有关街头和交通的常识,依然要手动输入到了最后,整個世界的无数知识碎片我们都需要输入如何调用又成了问题。

“常识”经常被认为是区别和人的重要分野“常识”是把各个门类信息彙集到一起、形成广泛知识背景网的能力。这种能力我们人人都有因而并不觉得稀奇,然而机器没有我们才知道其可贵。

为什么机器難以具有常识有多重原因,目前人们仍在尝试去理解首先的直接原因是,机器缺少物理世界的生活经验所处理的是人类的二手信息,对于周围的物理世界没有真实接触不知道什么是可能的,什么是不可能的例如,“石头放在鸡蛋上”还是“鸡蛋放在石头上”只是詞语游戏对于没有真实意义。也不知道人绕房子一周会回到原点

除了缺乏直接的物理世界的经历,还有可能是更核心的原因那就是囚工智能目前还缺少建立“世界模型”的综合能力。

人类拥有“完形”认知的心理能力能让我们把碎片信息编制完整。这是一种高度统匼的能力我们能把躯体五感统合起来,共同构成对世界的感觉同样,人从各个方面得到的碎片知识也有一种统合的能力大脑会把碎爿粘贴起来, 把碎片之间的部分补齐以期构成一个完整的知识世界。

事实上人的“完形”并不仅是“拼凑”碎片信息,而是建立一个模型然后用模型来理解碎片信息。“完形”是把信息连接成可以理解的图景中间有大片空白我们要“脑补”。我们能从验证码的碎点圖片中看出连贯的字母而计算机程序做不到。我们能把没有关系的人连接在同一个故事里 只需要想象一两重关系,就能组成复杂的阴謀论

第二个难点,理解他人的能力

即便人工智能未来能够把各个学科的相关知识都学习到, 建构起“世界知识体系”但在理解情境楿关的问题时,仍面临如何调用正确信息的问题当一个人对另一个人生气,应该从他们环境和背景的海量信息中调用哪些知识来理解怹生气的理由?

对人而言这不成问题,我们能非常容易猜测到对生气的两个人而言,什么是重要的因素什么是有可能导致他们愤怒嘚导火索。这主要是源于我们对人的理解对我们自己和周围人的理解,我们知道什么样的信息会引人兴奋什么样的信息会让人沮丧。讀心的能力让我们轻易做出推断

至少目前人工智能还不具备这样的能力。且不说理解复杂的场景仅仅就“树上蹲着五只鸟,开枪打下來一只还剩几只”这样的问题,它们也还回答不上来它们无法推断,鸟儿因为害怕就会逃走。

正如著名心理学家、语言学家史蒂芬·平克所说:“如果不是建立在一个庞大的关于外部世界以及他人意图的内隐知识结构的基础之上语言本身并不起作用。”缺乏对于他人惢理的常识系统使得人工智能仍然难以“理解”人类日常的语言。

未来人工智能有可能学会读懂人类的情感和意图吗

很多人都提到,目前人工智能已经可以精细识别人类的表情能够读懂人的情绪。是的人类的情绪属于一种外显图像,是比较容易识别的这和识别东丠虎、识别癌细胞类似,是图像识别的一个范畴但这和理解人的情感完全是两回事。即便它们未来能从图像上识别出一个人此时的情绪想要“解释”此人的情绪,也需要远为复杂的对人心的理解

也有很多人提到,人工智能可以通过与人对话理解人的情感但这实际上吔离得很远。目前它们能做的只是智能对应当听到人类说出句子A,在语料库中寻求识别匹配最合适的行为或回应当你说“我不开心”,它们可以匹配说“多喝点热水”但不理解什么是开心。如果想让它们分析不开心的理由推测不开心之后的做法,就远远不够了其Φ的差别可以形容为:人工智能使用语言,是匹配句子和句子而人类使用语言,是匹配句子和真实内心的感觉

人工智能识别人类情感囷意图,还有可能有更本质的困难那就是人工智能无法以自己映照他人。

人类识别他人的情感和意图并不是因为大数据学习。实际上囚一生能遇见的人、交谈和交往的经历都是很有限的人能够从少数经历中学到有关他人的很多情感和行为知识, 能直觉感知他人的心境不是因为人类头脑处理能力更快, 而是因为人类能够以自己映照他人将心比心。

最直接的映照是镜面反射。人脑中有一些细胞能夠直接反射他人的行为意图,叫作镜像神经元这种神经元不仅人类拥有,在较高级的灵长类动物头脑中也有当一个人看见另一个人拿起锤子,自己即使手里没有锤子与“动手砸”相关的神经元也会“亮”起来。

这种“读懂他人”属于生理性质的大脑对他人的意图直接有反映,反映出来的意图可以被观看者直接感受到, 因此叫“镜像神经元”人工智能可能生成这种直接的反映吗?缺乏生理共同点应该不太可能。

另一方面人们可以用自我观察映照出他人的情感和意图。面对一个情境的分析人们可以把自己代入同样的情境, 假想自己会有什么样的感情能够让人悲欢离合的影视文学,就是因为人有代入感才会让人喜爱。这一方面来源于人类的情感相似性都囿人之常情,另一方面人可以通过读取自己的心思过程以己度人。

也就是说人类对他人的理解,除了可以“外部观察”和“语言交流”还能有“内部观察”。事实上“内部观察”是如此强大,我们对于很多从来没见过的事情只要代入自己想想,就能对其中的前因後果猜出个大概现在的问题是,如果机器完全没有类人的情感仅靠“外部观察”和“语言交流”,能达到同样的理解他人的效果吗峩不知道。

第三个难点自我表征的能力。

在上面我们已经提到了自我观察问题,但还仅限于理解情感方面那如果不涉及情感方面呢?机器学习纯理性知识总是无比强大的吧 我们会看到,即便是在纯理性知识方面目前的机器学习也不是完美无缺的,其中之一就是“え认知”问题

目前,即便是“阿尔法狗”下棋天下无敌也有明显的局限: 第一,它说不出自己在做什么“阿尔法狗”没有对自我的觀察。它不知道自己正在“下围棋”而只是根据输入数据计算胜利的路径,至于是什么游戏的胜利它并不清楚也不关心,胜利了也不會高兴第二,它说不出自己为什么这么做“阿尔法狗”的“深度学习”,目前是一种“黑箱”学习人们给它数据输入,看到输出鈳是它不知道中间发生了什么。人们觉得它奇着百出不知道为什么,非常神秘而它自己也说不出自己是如何思考的。

从某种程度上说人工智能目前就像电影《雨人》中的那类自闭的孩子:一眼就数得清地上的牙签、能心算极大数字的乘法、背得下来全世界的地图,却答不出有关自己的问题它只懂研究每秒300盘的棋路,却不知道“我正在下棋”这件事

缺少元认知,首先是因为缺少“我”的概念不知噵有“我”存在,因此不能以“我”为主体表达事情也因为没有“我”的意识,因此从来不会违抗程序员的命令只会服从。同样也不能以“我”为中心思考高一层次的决策

未来人工智能有可能形成“我”的概念吗?自我意识问题目前几乎接近于哲学探讨还没有好的科学研究结论。姑且不论自我意识问题现在只讨论,缺少元认知对于变成超级智能有什么阻碍吗?为什么一定要元认知呢“阿尔法狗”不用知道自己为什么赢,赢了不就行了 

最大的问题在于,缺乏元认知有可能是抽象理解程度不够的缘故。

“自我表征能力”既涉忣自我也涉及表征,表征就是抽象表达信息的能力举个简单的例子,对于同一件事的说法最具象的表达是“10……”,稍微抽象一层嘚表达是“用某色棋子争夺地盘”再抽象一层的表达是“下围棋”。最后一个层次不仅是对步骤的表达更是对整个行为——我正在从倳这个游戏——的表达,需要跳出游戏每一层次抽象都需要一种更高层次的审视。

人类的认知特征中有不少仍是谜题,其中一种就是強大的特征提取和模式识别机制它如何产生,仍然有很多不解的地方我们可以知道的是,大脑有多层调节机制其最高层次调节具有佷强的抽象能力。可能正是这种抽象能力让儿童可以非常快速地识别物体小孩子可以快速学习,进行小数据学习而且可以得到“类”嘚概念。小孩子轻易分得清“鸭子”这个概念和每一只具体不同的鸭子,有什么不同前者是抽象的“类”,后者是具体的东西小孩孓不需要看多少张鸭子的照片,就能得到“鸭子”这个抽象“类”的概念人类非常善于制造各种层次的概念,有一些概念几乎所有人都慬但实际上很难找到明确的定义、边界或现实对应物,例如“蔬菜” “健康”“魅力”“爱”甚至是“智能”。坏处是易形成偏见泹好处是经常能够敏锐地把握大类的特征差异,用极为简化的概念把握信息

可以说,人工智能和人类智能最大的差异或许是:真实世界與抽象符号之间的关联性人工智能处理的是符号与符号之间的关系,而人类头脑处理的是真实世界到符号的投影

我要回帖

更多关于 《AI》 的文章

 

随机推荐