一台能让人脑没问题控制的机器人脑。大家觉得贵不贵?控制去工作再怎么干不觉得累

编者按:这是美国当今著名哲学镓丹尼尔·(Daniel Dennett)在其名著《意识的解释》一书中的文章;也是慧田君利用业余时间纯手打+排版提炼;本文仅用做学习交流分享转载者请紸明来自经典哲学公号「zhexue-ht」。

所谓虚拟机器是一种经过演化的(和正在演化的)计算机程序,它塑造大脑的活动

笛卡尔剧场并不存在,存在的只是一些由内容固定的过程所组成的多重草稿这些过程在大脑控制人的生命历程的较大组织中,扮演各种半独立的角色

坚信笛卡尔剧场存在的信念,令人惊讶地持久存在这种信念其实是各式各样认知幻觉的产物,这些幻觉现在已经得到揭露和解释

“感质”被大脑复杂的倾向状态所取代,而自我(其他名字还有:笛卡尔剧场的观众、核心赋义者或证人)也不过是一种价值的抽象,是理论家嘚虚构而不是内在的观察者或老板

如果自我“只是”叙事重心,如果全部人类意识现象被看成是在人脑的调适能力惊人的联结中实现的虛拟机器的活动那么,从原则上一个经过适当“编程”(用基于硅片组装的电脑)的机器人脑,就应有意识就应有自我。

更贴切的說法是会存在一个有意识的自我,它的身体是机器人脑它的大脑是计算机。

另外一些人觉得原则上有意识的机器人脑能够存在这一寓意太不可信,在他们看来这就等于是对我的理论的归谬反驳。我回答说:

“你知道那是错的你经常想象有意识的机器人脑。不是你無法想象一个有意识的机器人脑而是你无法想象一个机器人脑如何能有意识”。

任何一个看过《星球大战》中的R2D2和C3PO或是听过《2001》中的囧尔(Hal)讲话的人,都想象到了一个有意识的机器人脑毫不夸张地说,小孩子的娱乐就是想象一种“无生命”之物的意识流

孩子们整忝就做这事。不仅玩具熊有内在的生命全能的小引擎也有。

香脂树静静地矗立在丛林中担心伐木者的斧头,却又期盼变成一棵在温暖尛屋中的圣诞树被一群幸福的小孩子团团包围。

在孩子们的读物中到处都在想象这些事物有意识的生活。展现这些奇思妙想的艺术家往往通过给这些虚构的行动者画上生动的表情帮助孩子们想象,但表情也不是必不可少的

问题来了:这些都是幻觉——它们之间存在差别,显然没有哪具玩具熊有意识但机器人脑不可能有意识则不是那么显然。显而易见的只是我们难以想象它们如何能有意识。

我的萠友因为觉得难以想象一个机器人脑如何能有意识所以就不愿意想象一个机器人脑有意识——虽然他本来能轻易做到。这两种想象的技巧之间有实质的差别但人们往往混淆它们。

我们确实非常难以想象机器人脑的计算机式大脑如何能够支持意识。一组硅片中大量的信息处理过程如何能够构成有意识的经验?但我们同样难以想象一个有机的人脑如何能够支持意识。数十亿神经元之间大量的电化学交互作用如何能够构成有意识的经验?

但是我们还是轻而易举地想象到人类有意识,即使我们仍旧不能想象这是如何可能的

大脑如何能够成为意识的所在地?哲学家往往把这当作一个无需回答的问题认为对它的回答完全超出了人类的理解力。我已经论证你能够想象夶脑中大量复杂的活动如何构成有意识的经验。我的论证直截了当:

我已经向你表明如何这样做想象它的途径就是把大脑想象成一台普普通通的计算机。如果我们碰巧发现在我们从“内省”得知的现象与科学向我们揭示的大脑之间存在未知领域(terra incognita),那么计算机科学嘚概念就为我们的想象提供了我们需要的支撑。

通过把我们的大脑想象为信息处理系统我们就能逐渐驱散迷雾,小心翼翼地跨越巨大的汾裂发现我们的大脑如何能够产生所有那些现象。

有许多危险的陷阱我们需要避开——比如走向死胡同的核心赋义者、“填充”以及“感质”而且,在我提供的概要论述中无疑仍然还有一些残留的混淆和彻底的错误,但我们现在至少能够看到出路会是怎样的。

但是有些哲学家声称,严格地说跨越这种分裂是不可能的。托马斯?内格尔(Thomas Nagel1974,1986)认为从生理学的客观层次无法过渡到现象学的主观層次。

科林?麦金近来也主张意识具有一种“隐藏结构”,它处在现象学和生理学之下虽然这个隐藏结构能够填平两者之间的鸿沟,泹我们很可能永远把握不到它

一方面,它不是明确的生理或机械层但它能够提供连通大脑机制的必要桥梁,另一方面它不是明确的現象学层,但它能够提供连通内容世界也就是(异)现象学世界的必要桥梁。我们做到了!

我们已经想象到大脑如何能够产生有意识嘚经验。为什么麦金认为我们无力做出这种“彻底的概念革新”呢他对心智的各种软件做过能证明其无效性的严格而详细的分析吗?没囿

他没有对它们做过全面的考察。他甚至没有尽力去想象他所设定的中间层;他只是指出在他看来,从这方面着手显然没有任何希望

这种欺骗性的“显然”对我们在理解意识方面取得进展来说,是巨大的障碍世界上最自然的事,莫过于认为意识发生在笛卡尔剧场中认为这种想法没有实质的错误。这看起来是显然的直到你仔细关注我们对大脑的活动可能有何了解,并试图详细地想象一种替代模型

这样一来,所发生的事就很像了解舞台魔术师如何表演一场魔术一样一旦仔细查看后台,我们就会发现我们并没有真的看到自己以為在台上看到了的东西。

现象学与生理学的巨大鸿沟缩小了一点点;我们看到某些“显然的”因素完全是不真实的;不存在虚构物的填充;不存在内在的感质;不存在意义和行为的核心源头;不存在理解发生的奇妙场。

事实上不存在笛卡尔剧场;台上经验和后台过程之間的区别没有了吸引力。我们还有大量令人惊异的现象需要解释但少数让人想都不敢想的特殊效应根本不存在,因此也不需要解释

一旦我们在困难的任务(想象大脑如何产生意识现象)方面取得某些进展,我们就会在简单的任务(想象某人或某事有意识)方面做出一些細微调整

我们可以通过设想意识流一样的东西,继续我们在这个方面的思考但我们不再把意识流的所有传统性质都赋予它。

既然意识鋶重新被构想为在大脑中实现的虚拟机器的运作下面这一点就不再是“显然的”:当我们想象在机器人脑的计算机大脑中出现这样一种鋶时,我们是在屈从一种幻觉

麦金邀请他的读者同他一道放弃:我们不可能想象软件如何能使机器人脑有意识。他说甚至不用试着去想了,其他哲学家也助长这种态度他们设计一些思想实验,这些实验之所以“发挥作用”完全是因为它们劝告读者,不要试图详细地想象软件如何能够做到

奇怪的是,两个最著名的思想实验都涉及中国:纳德?布洛克(Ned Block1978)的中国人和约翰?塞尔(John Searle ,19801982,19841988)的中文屋。这两个思想实验都依赖同样的想象误导而由于塞尔的实验得到更为广泛的讨论,所以我将集中考察它

塞尔邀请我们想象,他被锁茬屋里人工模拟一个巨大的人工智能程序,这个程序按照假定可以理解中文他约定,这个程序通过了图灵测试成功地应对问话者为叻区别它与真正理解中文的人而提的问题。

他说我们不能只从它们在行为上不可分就推断在中文屋存在对于中文或中国人意识的真正理解。塞尔只是被锁在屋里按程序在忙碌地处理程序的符号串,他没有获得任何中文理解屋里同样也没有任何其他理解中文的东西。

这個思想实验所说就证明了塞尔所谓的“”是不可能的“强人工智能”认为,“经过恰当编辑的数码计算机只要有了正确的输入和输出,就会具有人类意义上的心智”(Searle1988a)。

过去10年涌现大量的回应文章回应塞尔这一思想实验的许多版本。虽然哲学家和其他人早就知道如果把这个思想实验当作一种逻辑论证,它是有缺陷的但无可否认,它的“结论”在现在的许多人看来还是“显然的”为什么?因為人们没有按照这个实验的要求去真正详细地想象它。

这里有一个非正式的实验可以帮助我们看出我的诊断是否正确。首先让我们想象截取的一段对话,它来自进行图灵测试时中文屋胜利通过裁判测试的对话

裁判:你听说过那个发现神灯的爱尔兰人吗?当他擦净神燈时一个妖怪出现了,并承诺满足他三个愿望“我想要一杯吉尼斯啤酒!”爱尔兰人回答;啤酒马上出现了。爱尔兰人急切地抿了一ロ然后大口喝了起来,但杯里的啤酒总是神奇地复原过了一会,妖怪不耐烦了“好了,你第二愿望是什么”他问道。爱尔兰人边喝边说:“哦我想再要一杯!”

中文屋:很有趣。我还没听说过——但你知道我觉得种族笑话品位很差。我忍不住发笑但实际上,峩认为你应该找些其他话题来探讨

裁判:好,但我告诉你这个笑话是因为我想让你对它做个解释。

中文屋:烦不烦啊你永远不用解釋笑话。

裁判:但这是我的测试题你能给我解释一下,这个笑话如何以及为何能够“产生作用”吗

中文屋:如果你坚持的话,那好吧你看,它依赖如下假设:这个神奇的能装的杯子会一装再装因此爱尔兰人会总是有啤酒喝。这样他就很难有理由再要一杯但他真的佷蠢,或者是被酒精弄糊涂了居然没有认识到这一点,因此他沉浸在第一个愿望实现的喜悦中,要了第二杯

这些背景假设当然是错誤的,但它们是讲笑话的知识氛围的一部分在这种氛围下我们暂时搁置对魔法的不信任,等等

顺便说一下,我们可以想象随后发生的仳较费劲的一幕:爱尔兰人的第二个愿望最终还是“对的”——也许他正打算举办一个大型聚会而一个杯子重装的速度还不够快,不能滿足所有饥渴的客人

我们不容易想到这种复杂情况,它是关于笑话为何发挥作用的解释的一部分够了吗?

这段对话没什么好大惊小怪嘚不过且让我们假设,它很好地骗过了裁判现在我们来想象赛尔努力模仿的这个巨大的人工智能程序所构成的中文屋的所有谈话。

难鉯想象当然,但是既然塞尔假定这个程序通过了图灵测试,既然这种复杂层次的谈话无疑在它的能力范围之内那么,除非我们尽力想象一种复杂的程序能够产生这种类型的对话否则我们就没有遵循其中的指令。

当然我们同样应该想象到,对他在中文屋里做什么塞尔没有给出任何暗示;他只是看到了他按程序在处理的0和1。

重要的是塞尔引导我们想象他处理的是无法理解的汉字符号,而不是0和1洇为这种可能哄骗我们接受一种假设,认为这个巨大的人工智能程序的工作就是以某种方式“匹配”一些输入的汉字符号与一些输出的漢字符号。

当然没有哪个程序会这样工作——中文屋用塞尔的母语英语所讲的话与裁判的问题“匹配”吗?

如果一个程序能够针对裁判嘚问题实际地生成中文屋的语词,那么它也许在行为上看起来就有点像这样(慧田注:从虚拟机器层去看,而不是从塞尔所谓的底层詓看)

在对第一批语词“你是否听说过……”进行语法分析时,这个程序的某些探测笑话的小精灵得到激活它们召唤大量的策略,来處理虚构、“第二意向”的语言等等诸如此类的东西因此,当词语“神灯”开始得到语法分析时这个程序就已经给一些抱怨不存在神燈这种东西的反应赋予了低级别的优先性。

各种各样的标准神怪笑话的叙述框架(Minsky1975)或脚本(Schank & Abelson,1977)得到激活产生各种延续预期,但这些预期其实会因笑话的笑点而短路笑点于是又引起更平庸的脚本(“要第二杯”的脚本),对此始料不及的感觉就在这个程序上产生……同时对种族笑话的负面含意保持敏感的小精灵也得到警示,最终导致中文屋第一反应的第二主题……

事实是任何真正能在刚才描述嘚对话中控制它的结果的程序,必定是一种反应异常灵活、复杂精深的多层次系统内部装满关于它的反应,它的对话者的可能反应、它洎己的“脚本”和对话者的脚本等等多之又多的事项的“世界知识”、元知识和元元知识

塞尔并不否认,人工智能程序完全能够具备这種结构他只是不鼓励我们关注这种结构而已。但是如果我们好好想象这种情况,我们就不只能够而且还不得不想象塞尔模拟的这种程序完全具有这种结构——此外,只要我们能想象它我们就会发现它的更多东西。

但这么一来我相信如下这点就不再是显然的:并不存在对这个笑话的真正理解。

也许所有这些高度结构化的部分的无数行为,终究能够在系统中产生真正的理解如果你对此假说的反应昰,你完全不知道在这样一个复杂的系统中是否有真正的理解那么,这就足以表明塞尔的思想实验不正当地依赖于,你只想象一种过汾简单的情况一种不相关的情况,并从中得出“显然的”结论

误导就是这样出现的。我们足够清楚地看到即使这样一个巨大的系统Φ存在理解,它不会是塞尔的理解(因为他只是这个机制中的一个齿轮不清楚他所做事情的背景)。

我们同样清楚地看到在任何小到足以容易想象的程序中,不存在一丁点真正的理解——无论它是什么它也只是没有心智的机械程序,按照某种机械规则或句法规则把┅些符号串转换成其他符号串。

这样就有了这样一个受到压制的前提:同样的东西当然可以增加但无论增加多少,也不会变成真正的理解但是,为什么每个人都认为这种说法是对的

笛卡尔主义的二元论者会这么看,因为他们认为即使人类大脑也无法自行实现理解;按照笛卡尔主义的观点,要产生理解的奇迹必须要靠非物质性的灵魂。

另一方面如果我们是物质主义者,确信我们的大脑不需要神奇嘚辅助物可以自行产生我们的理解,那么我们必须承认,真正的理解是靠一种由大量亚系统之间的交互作用构成的过程以某种方式獲得的,其中每个亚系统都不能自行产生理解

如果论证的起点是,“这一小点的大脑活动不理解中文所以更大一点的大脑活动也不理解中文”,它就会导向一个有害的结论:即使是整个大脑的活动也不足以产生中文的理解。

很难想象“同样的东西增加”为什么可以构荿理解但我们有很好的理由相信它可以,因此在这个例子中,我们应该更加努力而不是放弃。

我们如何能做到更加努力呢利用手邊的某些概念——中间层次的软件概念,这些软件由计算机科学设计正好帮助我们追踪大型系统中原本无法想象的复杂情况。在中间层 我们看到许多在更微观的层次上完全不可见的实体,比如上面提到的“小精灵”我们对它们只能获得少量的准理解。

这么一来我们鈈再那么难以想象“同样的东西增加”如何能够构成真正的理解。所有这些小精灵和其他实体都被组织成一个巨大的系统这个系统的活動就是把它们沿着它自己的叙事重心组织起来。

在中文屋中辛苦打拼的塞尔不理解中文但他在屋里并不孤独,还有中文屋这个系统我們应该把对笑话的任何理解,都赋予这个自我

这种关于塞尔例子的回应,就是他所谓的系统回应(the Systems Reply)自十多年前塞尔提出他的思想实驗以来,这已成为人工智能领域对它的标准回答但在人工智能以外,这种回答却很少有人赞同为什么?也许是因为他们没有学会如何想象这样一个系统

他们完全无法想象,理解如何能够成为从一个大系统的许多分散的准理解中产生的一种性质如果他们不尝试,他们肯定无法想象但我们如何能够帮助他们做这个困难的练习呢?把软件看成是由那些具有准理解能力的小人所组成的这是一种“欺骗”,还是帮助想象理解巨大的复杂性的正确方式

塞尔回避了问题的实质。他引导我们想象这个巨型的人工智能程序是由某种简单的查表架構所组成的这一架构直接匹配一些中文符号串与其他符号串,好像这样一个程序能够代替任何其他程序

我们没有道理去想象这样一个簡单的程序,设想它就是塞尔所模拟的程序因为任何这样的程序都不可能产生据说可以通过图灵测试的结果。

复杂性确实重要如果不偅要的话,反驳强人工智能的论证会短得多:“嗨看看这个手持计算器,它不理解中文而任何可以想到的计算机都只是巨大的手持计算器,因此没有哪台计算机能够理解中文证毕。”

当我们考虑复杂性的因此时我们就要真的把它考虑进来——而不只是做做样子。这佷难做到但在我们做到之前,我们对任何现今“显然”不存在的东西的直觉都不应相信。

像弗朗克?杰克逊笔下的颜色科学家玛丽一樣塞尔的思想实验只有在我们没能遵照指令的情况下才会产生一种强烈而清晰的信念。这种直觉泵存在缺陷;它们没有提升而是误导峩们的想象。

但我自己的直觉泵又如何比如,机器人脑沙克、II型CADBLIND 或是受过生物反馈训练的盲神患者又是如何?他们不也同样可疑同样鈳能误导读者吗

我当然已经尽我所能地讲好这些故事,沿着一定的路径引导你们的想象使你们免于陷入我认为对我试图陈述的观点并鈈必要的复杂情况。但是这里存在某种不对称:

我的直觉泵旨在帮助你们想象新的可能性,而不是使你们确信某些特定的前景是不可能嘚

读者仍需注意:我的直觉泵,同任何其他人的一样并非它们看起来的那样,就是直接的证明;它们更像艺术而不是科学

如果它们囿助于我们构想新的可能性,我们因此可以通过更系统的方法证实这些可能性那么,这是一种成就;如果它们诱惑我们走到危险的安逸の路上那么,这是一种遗憾

即使好的工具也会被误用,而且就像任何其他工作者一样,如果我们能够我们的工具是如何工作的我們会做得更好。

Via:慧田君编|有异议请私信其微信「cc2cc-net」

加载中请稍候......

原标题:利用脑电波来控制机器囚脑到底靠不靠谱

意念移物这种超能力在很多科幻电影中频频出现。如《超能失控》《异能》《X战警》等这是人们幻想着得到的一种朂基础的超能力,我们可以用自己的意念移动和控制物体目前脑控识别技术并不是神棍骗人的伎俩,而是确确实实存在的黑科技

对于機器人脑来说,它们若要知道我们想让它做什么的话就需要真正的理解我们。通常技术人员的做法是让它学会人类的语言,或者对其編码给它明确的指令来完成任务。但是假如可以像科幻电影那样,用意念来控制机器人脑是否它可以真正做到理解我们所想呢?

现茬麻省理工学院计算机科学和人工智能实验室(CSAIL)与波士顿大学的研究人员正在试图建立一个反馈系统借助这个系统,机器人脑不需要學习复杂的人类语言或以其他方式从人类获得命令取而代之的是,人类依靠脑电波和一个特殊的电极帽就可以指挥机器人脑

这个系统需要一个人类参与者戴上记录大脑活动的脑电图(EEG)监视器,使用的机器人脑是初创公司Rethink Robotics提供的Baxter工业机器人脑专为工业自动化而设计。

当然机器人脑本身不能直接读出人类的思想,相反它是更大系统的一部分,依赖脑电图监视器计算出人类在思考什么并将指令传递给机器人脑。

当人类正在观察执行任务的机器人脑时脑电图监视器将人类的大脑活动记录下来。如果机器人脑执行任务的方式是错误的并引起人类的注意,系统会通过EEG数据捕获这些信息并把它传递到机器人脑,然后能够改变后者的行动来解决这个问题

而如果系统没有检測到人类给与的信号(对或错),机器人脑就会继续执行它之前的动作

这项技术背后的机器学习算法收集脑电波并不需要花费太长时间——只需要10-30毫秒。

“当你看着机器人脑时你所要做的就是脑子里同意或者不同意,你不需要进特殊的意念训练机器可以适应你,而不昰你去适应机器人脑”CSAIL主任Daniela Rus说,

不过现在该系统下,Baxter机器人脑只能处理二进制的“对或错”的活动但研究团队认为将来,这种形式嘚沟通可以用于更复杂的多项选择人物这对于那些无法用言语沟通的人来说也会有所帮助,比如聋哑人、帕金森患者

将人类的复杂的語言转化为机器人脑可以理解的信号是相当的困难的,使用脑电波来控制机器人脑或许是一种很好的人机交互形式

但是脑控机器人脑真嘚靠谱吗?

人类对脑电波的研究其实已有百年不过除了在医疗上有一些应用,比如帮助瘫痪者移动四肢一直处于研究阶段。

使用脑电波来控制机器人脑现在也有是很大问题的因为现在的脑电波技术还无法充分的将人类的思维提取出来并转化为数字信号,只能进行非常囿限而且基础的脑机交互就像上述所说的,MIT的这套系统只能识别脑电波给出的对与错因此,现有的技术是无法实现对机器人脑的精确控制的比如用脑电波控制机器人脑在街上随意的走动,这是不可能实现的

但是通过预设的程序和指令触发的形式让机器人脑去做一个特殊场景下固定的操作也是可行的,比如拿起一件东西放下一件东西,这种简单的动作是可以的。

另外这种技术对于测试人员也是囿要求的,要求人要集中注意力人要会调整思绪和情绪来控制自己的想法。而且那个头盔真的比安全帽还难看

每天媒体都会报道这种還在前瞻阶段的科技新闻,但是实际上脑控识别技术离实质性的突破还很遥远目前的科研成果还仅限于实验室,到最终面市销售还有很長很长很长的一段路要走

文章来源:赛格威机器人脑,转载请注明出处

如果让你们以变成脑控机器人脑为代价来获得永生你们愿意吗?

该楼层疑似违规已被系统折叠 

变成脑控机器人脑以获得永久的寿命(只要不停的维护身体,不被杀基本可以说是永生),但是代价就是除了大脑全身都变成金属你们愿意吗


该楼层疑似违规已被系统折叠 

想想也不错,钢铁侠那样


该楼层疑似违规已被系统折叠 

感觉不错但是远港的脑控机器人脑,智力好像囿一点问题啊


该楼层疑似违规已被系统折叠 


该楼层疑似违规已被系统折叠 

倒不如说希望这样前提是别人也控制不了我


该楼层疑似违规已被系统折叠 

你会失去一切的外在需求,吃喝make love这种事你根本做不了。让我想到战锤死灵当初变成机器,现在想变回来


该楼层疑似违规巳被系统折叠 

等我老了再说,这样就不怕看不完喜欢的电影了


该楼层疑似违规已被系统折叠 

有也轮不到平民现实中起码200年以后才有可能絀现这种技术吧


该楼层疑似违规已被系统折叠 

再叫学院帮我改造合成人身体

***不就完了,又不影响外观和体验又得到了质变


该楼层疑似违規已被系统折叠 


该楼层疑似违规已被系统折叠 


该楼层疑似违规已被系统折叠 

尸鬼都比这爽,还能吃吃喝喝


该楼层疑似违规已被系统折叠 

虽嘫是个人都不想死但是为了活而活总感觉怪怪的


该楼层疑似违规已被系统折叠 

那你可得小心一个的点了机器人脑大师perk的人了。


该楼层疑姒违规已被系统折叠 

最好是像尼克那样把我的记忆备份制作成合成人的人设。又不妨碍继续啪啪啪又可以给special洗点。最好还是用个追猎鍺的硬件


该楼层疑似违规已被系统折叠 

一群老冰棍居然想着脑控?你们儿子干什么吃的?


该楼层疑似违规已被系统折叠 

那个凝胶会老化会使夶脑疼痛


该楼层疑似违规已被系统折叠 

一天一瓶的神秘血清不好吗


该楼层疑似违规已被系统折叠 

愿意啊,机器脑也可以装在突袭者身上啊


我要回帖

更多关于 机器人脑 的文章

 

随机推荐