为什么有很多白带名人让人们警惕人工智能

霍金率多位名人发公开信呼吁社会警惕人工智能
  图片来源:《独立报》
  【环球网综合报道】人工智能(AI)发展迅速,但也令科学界日益关注AI对人类未来的影响,例如抢去人类饭碗等。据《独立报》1月13日报道,以著名物理学家霍金为首的科学家、企业家及发明家最近发表联名公开信,警告AI的安全性及对社会的负面影响不容忽视,他们呼吁业界在制造AI时,须确保&系统依照我们的指令行动&。
  据报道,公开信由&未来生命研究所(FLI)&发表,信中提到,随着AI研究稳定发展,对社会的影响相信将会增加,其潜在效益也将非常巨大,&在AI帮助下,人类能取得的成就将是无法预期的&,但社会各界应进行更多研究,减轻AI可能引起的社会不公和失业等负面影响。(实习编辑:林慧翔&审核:谭利娅)
版权作品,未经环球网书面授权,严禁转载,违者将被追究法律责任。
责编:刘洋
用手机继续阅读当机器智能超越人类……
 来源: 
来源:作者:责任编辑:yfs001
■尹传红春节前后,网络和微信上有一篇长达3万余字的译文在流传,文章的标题是《为什么有很多名人让人们警惕人工智能?》。篇首有这样一段话:“人工智能很可能导致人类的永生或者灭绝,而这一切很可能在我们的有生之年发生。上面这句话不是危言耸听,请耐心地看完本文再发表意见。”文中称,史蒂芬&霍金、比尔&盖茨等著名人士都发出了警告:如果智能机器缺乏监管,人类将迎来一个黑暗的未来。而美国特斯拉汽车公司首席执行官埃隆&马斯克则说:人工智能可能是我们面临的最大灭绝风险,创造人工智能犹如召唤一只恶魔。他预计“一些极为危险的事情即将发生”,最快将在5年内。无机生命(机器)会发展出与有机体类似的生存和竞争意志吗?有朝一日当机器智能超越人类并不受人类控制时,我们将会遇到什么危险?类似这样的话题或场景,我们常常在科幻小说和科幻电影中遇到。近年来,也有越来越多的图书涉及。较早出现也较有影响的是《机器的征途——为什么机器人将统治世界》一书([英]凯文&渥维克著,内蒙古人民出版社,1998),作者系英国雷丁大学教授、控制论与机器人研究专家。全书着眼于描述机器已发展得比人类更聪明的未来时代,并展示了第一批能够学习、互相交流和自我设计程序的机器人。作者感慨技术变革之快,恐怕将使得事物发展的结果非我们所愿意看到,甚至不能掌控。他断言:“在2050年,我们人类为机器所驱使,必须做机器规定我们做的事情……”而随后出现的《制脑者:创造堪与人脑匹敌的智能》一书([美]戴维&弗里德曼著,三联书店,2001),倒没有什么悲观的色调。全书梳理了人类不断认识自身智能的历程和人工智能概念的源流,展示了人类创造人工智能所取得的一些里程碑式的成果。其中有:给机器上装上“大脑”;让机器人具有脑电波并具有不规则的思维活动;创造出一种新的电脑芯片,具有大脑细胞的功能……机器智能超越人类时的梦魇,随着《灵魂机器的时代:当计算机超过人类智能时》([美]雷&库兹韦尔著,上海译文出版社,2002)一书的出版,又一次萦绕在人们心头。该书出版于1999年,作者系美国著名的发明家和思想家,在书中他做出了惊人的预言:到21世纪初,地球上将出现一种足以与人类智能抗衡的新型智能,最终它将远远超过人类的智能。库兹韦尔还想象,将来的类人智能体也能够拥有像意识、情绪这样的特质。2005年,《奇点临近:2045年,当计算机智能超越人类》([美]雷&库兹韦尔著,机械工业出版社,2013)一书问世,并成为当年美国最畅销非小说类图书和亚马逊最佳科学图书。此书更为系统、全面地表达了库兹韦尔预测人工智能和科技未来的观点。特别是对“奇点”的概念和涵义进行了详细的阐释。他还预测了机器智能赶超人类智能之各个方面后发展的下一阶段:人类与机器的联合,即嵌入我们大脑的知识和技巧将与我们创造的容量更大、速度更快、知识分享能力更强的智能相结合。这种融合便是奇点的本质。库兹韦尔的预言和观点在被广为传播的同时,也引起了极大的争议,乃至强烈的质疑。但库兹韦尔坚信自己的论断言之成理,一种“深刻的变化”必然会发生。而他所构想出的关于科技进化的理论——“加速回归理论”,能够解释为什么在宇宙的总体进化中,技术和进化将以指数的速度向前推移。这也贯穿着在过去的30年里他逐渐认识到的“一个重要的基本思想”:改变世界的思想力量其本身也正在加速。换句话说,并不只是科技在飞速地发展,“发展”本身也在不断地跃进。人工智能机器的潜在智能是真实且巨大的——将是人类的万亿个万亿倍。或迟或早,科学会产生一种和人类一样运作的人工生命形式。人工智能问题(或者说物种支配问题)将主宰新世纪的全球政治。果真如此的话,那将是人类历史上最大的灾难,因为再也没有历史了,再也没有人类了。这是《智能简史——谁会替代人类成为主导物种》([美]雨果&德&加里斯著,清华大学出版社,2007)一书所表述的主要观点,其作者是用这样一句短语结束了本书:“我们是在制造上帝,还是在制造我们潜在的敌人?”德&加里斯坦言他所从事的工作几乎让他精神分裂,并且带着很大的负罪感,“因为我认为我的工作就是问题的一部分。”凯文&渥维克在为《智能简史》一书所写的推荐序中则写道:“几十年后,如果德&加里斯关于‘物种主导问题将在本世纪主导全球政治’的言论被证实是正确的话,那么他将是21世纪最主要的思想家之一。”自20世纪40年代计算机被发明出来之后,机器就一直被寄予厚望,人工智能的先驱者们大多数时候都不认为他们的事业可能会存在风险。英国数学家欧文&约翰&古德大概是清晰阐述人工智能未来图景的第一人,早在1965年他就指出: 1
[责任编辑:yfs001]
一周图片排行榜
光明网版权所有一些新闻:&br&&a href=&/a/954.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&霍金:人工智能会导致人类灭亡&i class=&icon-external&&&/i&&/a&&br&&a href=&/15/0129/05/AH3Q194F00094P0U.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&比尔?盖茨:人类需要敬畏人工智能的崛起&i class=&icon-external&&&/i&&/a&&br&&a href=&/a/396.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&马斯克称人工智能是人类生存最大威胁&i class=&icon-external&&&/i&&/a&&br&&br&这是因为人工智能要进入新阶段了?这些名人是不是可能比较先得到信息,所以向人们预警?&br&或者是每年都有很多人提出这个问题,只是今年报道的比较多?&br&有人说在人工智能的发展上存在一个奇点,越过这个奇点就能通过图灵测试。&br&如果人工智能已经越过了这个奇点,这个世界会发生怎样的质变?&br&超体和超验骇客都出现过类似越过奇点后,科技的突然爆发。&br&这又让我想起三体里面,宇宙丛林法则中,由于对对方的不了解,又担心对方文明的突然爆发,所以选择了摧毁。&br&如果人工智能突然越过奇点,瞬间产生了意识,可以迅速吸收人类的文明,发展出新的文明。&br&人类跟人工智能之间,会不会出现类似三体里面的博弈?&br&--------------------------------------------------------------------------------------------------------------------------------------------&br&感谢大家的回答。特别是看完@&b&尚之森&/b&的回答有很大的启发。&br&--------------------------------------------------------------------------------------------------------------------------------------------&br&但是,我还有一个问题:&br&&br&弱人工智能是不是只是模拟了人思维的一部分?并且这部分能力是足够应付图灵测试。&br&&br&换句话说,图灵测试并不能测试完整的人的思维能力?它只能测试人思维的一部分。&br&&br&或者说,只通过语言交流是不能够得到被测试物的完整信息?那么这是语言交流的缺陷?或者说人类语言在交流过程中会带来信息流失?&br&&br&还有一个想法:&br&是否可以开发出强图灵测试:&br&比如有针对的出一系列问题,对人工智能作一些全方位的思维能力测试,最后得出它在各个方面的水平,比如在创新能力上,几乎为零,虽然它可以采用插科打诨的方法来避免正面回答,但是最终我们可以得到它在创新能力上的水平。
一些新闻:这是因为人工智能要进入新阶段了?这些名人是不是可能比较先得到信息,所以向人们预警?或者是每年都有很多人提出这个问题,只是今年报道的比较多?有人说在人工智能的发展上存在一个奇点,越过这个奇点就能通过图灵测试。如果人工智能已经越过了这个奇点,这个世界会发生怎样的质变?超体和超验骇客都出现过类似越过奇点后,科技的突然爆发。这又让我想起三体里面,宇宙丛林法则中,由于对对方的不了解,又担心对方文明的突然爆发,所以选择了摧毁。如果人工智能突然越过奇点,瞬间产生了意识,可以迅速吸收人类的文明,发展出新的文明。人类跟人工智能之间,会不会出现类似三体里面的博弈?--------------------------------------------------------------------------------------------------------------------------------------------感谢大家的回答。特别是看完@尚之森的回答有很大的启发。--------------------------------------------------------------------------------------------------------------------------------------------但是,我还有一个问题:…
同行基本没人转这篇文章,文章太长我也没看完。谢熊猫君翻译的长文,人工智能爱好者 Tim Urban 的《人工智能革命》很有趣味和启发性,但有很多事实性错误。文章包含三部分:接近真实的事实、虚构的事实、基于接近真实的事实和虚构的事实进行的推论。特别是一些事实性错误,误导性太强。《人工智能革命》一文的事实性错误先不评价博文的观点是否合乎逻辑,先简单说几个事实性错误:
1. 金融市场对于电脑来说太简单了 —— Wrong。就我之前在投行对冲做量化交易了解的情况,还没有哪家机构开发出长期、稳定、可自我调节的赚钱算法或策略。目前所有的算法或策略都要靠人监测和调整。背景知识可参考
2. 翻译对于电脑来说太简单了 —— Wrong。可以参考Google Translate和那几家专门做机器翻译的效果,离信达雅还有很远距离。
3. 人工智能已经在几乎所有需要思考的领域超过了人类
—— Totally wrong。这个提法吓尿单位只有一秒。大部分需要复杂思考的领域,人工智能都远远赶不上人类,有的甚至都还没有入门。
4. 视觉、动态、移动对电脑来说太TM难了 —— Wrong。电脑这些部分领域相对已经做的非常好,超过了人。 待补充...为什么很多名人让人们警惕人工智能
1. 舆论造势为推动他们期望的立法和或行业规则铺垫,这样他们可能实际成为规则制定者。
2. 人工智能的风险人工智能使用越来越广泛,即使没达到强人工智能程度,也已带来潜在问题和风险。
3. Propaganda/PR公司及个人的Propaganda和PR。Elon Musk是科技圈接受采访最多的企业家之一,在电影里客串,和好莱坞明星一样活跃,为的是影响力和布道。他希望做成的事情需要商界、名流、政府、以及广泛的社会支持。待补充完善...题外话作者Tim 花了三个星期研究人工智能,主要信息来源是非技术类的文章和书籍。在现在大部分学术paper都没法看的情况下,用非技术类文作为支撑写科普类文,是很有问题的。富有情绪张力、脑洞大开的文字很有感染力(煽动力),这篇是很好的例子。建议少看观点结论,主要看事实,根据事实自己思考形成观点。顺便广告一下我们人工智能公司招聘信息:。海景房住宿、自由办公、可远程SOHO,薪酬高于BAT。招AI工程师、iOS工程师、Android工程师、营销、助理。可全职、兼职、或实习。
反对@谢熊猫君 的高票答案。翻译得很辛苦,也确实提供了有趣的视角,但应该注明这是作家写的,而不是科学家写的。文章引用的都是畅销书,而不是peer reviewed论文。这种貌似严谨的文章最容易造成误导。以下批评针对原文,不针对翻译。没有回答“为什么名人让我们警惕人工智能”,只是提醒大家,不一定要警惕人工智能。--------------------------------------- 文中引用主要来自作家、哲学家、企业家,比如:“未来学家”Ray Kurzweil,哲学家兼畅销作家Nick Bostrom,畅销书作家James Barrat,作家Carl Shulman,企业家Jeremy Howard。虽然上面的部分人曾经做过技术,不过后来都跑去卖概念了。引用这些人真的没问题吗?美国是个极端爱好bullshit的国家,工业界金融界文化界很多人吹牛逼是不打草稿的。 全篇那么长,居然全是脑补,没有严谨论据和专家观点,挺不容易的。引用的参考文献几乎全是畅销书,点开全是amazon上的卖书链接。。咳咳,作家生活不易啊。--------------------------------------------文中真正“专家”的言论只有两处:2013年的时候,Bostrom做了个问卷调查,涵盖了数百位人工智能专家,问卷的内容是“你预测人类级别的强人工智能什么时候会实现”,并且让回答者给出一个乐观估计(强人工智能有10%的可能在这一年达成),正常估计(有50%的可能达成),和悲观估计(有90%可能达成)。和另外一个独立的调查,由作家James Barrat在Ben Goertzel的强人工智能年会上进行,他直接问了参与者认为强人工智能哪一年会实现,选项有2030年,2050年,2100年,和永远不会实现。并且得出结论:从以上答案,我们可以估计一个中位的专家认为强人工智能到超人工智能可能要花20年左右。所以,我们可以得出,现在全世界的人工智能专家中,一个中位的估计是我们会在2040年达成强人工智能,并在20年后的2060年达成超人工智能——也就是踩上了绊线。OMG..第一个Bostrom的调查,请问“数百个人工智能专家”都是谁啊?包不包括业内大牛啊,比如MIT的Patrick Henry Winston,Stanford的Richard Fikes之类的。或者说上面提到的作家哲学家都是“人工智能专家”?第二个调查在“强人工智能年会”上做的,知道啥叫幸存者偏差吗?都去参加“强人工智能年会”了当然对强人工智能是乐观的啊,就好像去天主教堂调查宗教信仰,结论是90%人都信上帝一样可笑。另外这个年会是个神马玩意啊,为啥我搞AI的朋友都没听过啊。不会是这个会吧(),恩恩,主席是Ben Goertzel,应该没跑了。不过这个Ben Goertzel好像不是科学家啊,任职于一个金融公司,建立了一个IT公司,写了几本畅销书。。跟学术有关的职位有两个,一个是奇点大学()的advisor,专门研究人类什么时候会被计算机干掉的地方。。。好科幻啊。。。另一个是Research Professor in the Fujian Key Lab for Brain-Like Intelligent Systems at Xiamen University。。。中国人民的好朋友啊。我个人的观点,他的研究不能支撑他做出的预言,你们感受一下。---------------------------------强人工智能是有可能实现的,但是现在的技术离强人工智能的距离还非常远。原文中第一个图很有意思,就是技术发展曲线。全文的所有论据,都建立在“指数发展”这个假设上。指数曲线在接近0的时候是类似线性的,不光是指数,多项式函数、对数函数、甚至多重指数在小范围内也可以用线性拟合得很好。而且不同的指数和在0附近都很接近,但对“奇点”何时到来的估算可能误差千百年。如果按照“指数发展”来算,而且乐观的估计指数的系数,那你妹的什么技术都不是问题啊,人类分分钟占领全宇宙。我更相信的是,科学发展是有爆发期和稳定期的。一个技术突破会带来难以想象的繁荣,之后的科学发展都比之前的更快,但不会天天都是技术突破。比如,二十世纪上半页的物理学十分辉煌,相对论和量子力学的建立引发了一系列技术革命。但从那以后物理学一直很平稳。杨振宁就说过他赶上了物理学的好时候,让他现在做学术,可能就不会选物理学了。要是科幻作家站在1950年前后,用指数发展估计物理学的发展,那到今天我们早就弄出大统一理论搞定核聚变发电了。又比如人均寿命从先秦时的二十几岁发展到现在的80岁,如果用指数拟合,那过几十年是不是要活几百岁了啊?--------------------------------------文中提到的可能支持人工智能指数发展的路线包括:抄袭人脑,进化算法,电脑自己解决。我不知道这几条是不是对应类似machine learning, neural network, evolutionary algorithm, program synthesis之类的领域。如果是的话,这几个领域我都有一点粗浅的了解。欢迎大神批评补充。比如machine learning和neural network, 核心都是回归和数据拟合,离智能化还很远。大牛Andrew Ng的网课,光靠这个实现强人工智能我是不信滴。关于evolutionary algorithm,去年有一个大牛的talk,推荐大家看一下。全篇都是技术讨论没有涉及“奇点”,大家可以自己判断现在的研究前沿离真正的强人工智能还有多远。从43分钟开始:program synthesis里,现在计算机能自己生成的程序还很弱智,而且算法复杂度都是exponential time甚至doubly exponential time(比如)的。用的方法本质上是先靠程序员输入一个程序模板和参数空间,然后用各种方法遍历所有可能的程序,看看是不是满足要求。这其实引出了一个很有意思的问题:现在我们CPU的计算能力是指数增长的,但按照今天的算法,许多真正有趣的问题都是需要“指数时间”,甚至多重指数时间才能解决的。那么,我们实际解决新问题的速度一定是指数发展的吗?让该领域内的专家来介绍现在的研究成果和面临的巨大问题,比起作家自己泛泛而谈要好得多。--------------------------其他反对的观点其实也不少,比如可以参考这篇文章 等有空我可能会翻译一下。麻烦高票答案加上“本文代表部分业内观点,不具有普遍性和权威性”,以免误导不明真相的群众。
最近是多近?我觉得我看科技文章不算太少,没看到有这方面的说法所谓的AI,离自主认知还有相当长的路要走其实最接近于人类思维的ML才是所有搞ML心里的终极目标只可惜即使在NLP(自然语言处理)这个领域,那种完全仿人类的处理方式,曾经有很多专家尝试了几十年也没有任何结果,最终回到了统计这条路上去现在所谓的人工智能,基本无一例外都是基于统计的而且算法本身都是人类设计好的,每一个流程都是可控的,结果是可以推测的还不存在像黑客帝国里那样可以自己变形的程序之类的东西模型可以变,那是因为人类就是将其设计成可变的,但是这个可变,说到底也就是一些参数的变化而已,整体的框架是不变的等到未来哪一天,如果一个机器学习算法甚至会自己产生新公式了,那么才能说具备了真正的学习能力
人工智能公司创始人, 前对冲基金合伙人相关热词搜索:
相关阅读:
? 11:29:20
? 16:19:24
? 09:19:52
? 16:01:08
? 10:45:52
? 10:03:05
? 09:58:03
? 09:59:05
? 10:39:24
? 13:52:58
日,华为网络大会HNC2015在北京国家会议中心...
深圳市鼎信通达科技有限公司拥有13年语音网关研发、制造...
广东移动客户服务(佛山)中心 
  业界瞩目的2015中国呼叫中心及企业通信大会春季展会...
点击排行&&&
电话:+86-10-,+86-10- 传真:+86-10- 投稿:
地址:北京市西城区新德街20号513室(100088)
网络110报警服务
京公网安备-1号凤凰博报 由你开始
你确定要删除此博文及其所有评论吗?
[转载]为什么最近有很多名人,比如比尔盖茨,马斯克、霍金等,让人们警惕人工智能?(
人工智能很可能导致人类的永生或者灭绝,而这一切很可能在我们的有生之年发生。上面这句话不是危言耸听,请耐心的看完本文再发表意见。这篇翻译稿翻译完一共三万五千字,我从上星期开始翻,熬了好几个夜才翻完,因为我觉得这篇东西非常有价值。希望你们能够耐心读完,读完后也许你的世界观都会被改变。======================内容翻译自原文地址:转载请保留原文链接和翻译者 知乎 @谢熊猫君=======================接前篇而且,我们到现在谈的还是静态不变的信息。要想达到人类级别的智能,电脑必须要理解更高深的东西,比如微小的脸部表情变化,开心、放松、满足、满意、高兴这些类似情绪间的区别,以及为什么《布达佩斯大饭店》是好电影,而《富春山居图》是烂电影。想想就很难吧?我们要怎样才能达到这样的水平呢?通往强人工智能的第一步:增加电脑处理速度要达到强人工智能,肯定要满足的就是电脑硬件的运算能力。如果一个人工智能要像人脑一般聪明,它至少要能达到人脑的运算能力。用来描述运算能力的单位叫作cps(calculations persecond,每秒计算次数),要计算人脑的cps只要了解人脑中所有结构的最高cps,然后加起来就行了。Kurzweil把对于一个结构的最大cps的专业估算,然后考虑这个结构占整个大脑的重量,做乘法,来得出人脑的cps。听起来不太靠谱,但是Kurzweil用了对于不同大脑区域的专业估算值,得出的最终结果都非常类似,是10^16cps,也就是1亿亿次计算每秒。现在最快的超级计算机,中国的天河二号,其实已经超过这个运算力了,天河每秒能进行3.4亿亿。当然,天河二号占地720平方米,耗电2400万瓦,耗费了3.9亿美元建造。广泛应用就不提了,即使是大部分商业或者工业运用也是很贵的。Kurzweil认为考虑电脑的发展程度的标杆是看1000美元能买到多少cps,当1000美元能买到人脑级别的1亿亿运算能力的时候,强人工智能可能就是生活的一部分了。摩尔定律认为全世界的电脑运算能力每两年就翻一倍,这一定律有历史数据所支持,这同样表明电脑硬件的发展和人类发展一样是指数级别的。我们用这个定律来衡量1000美元什么时候能买到1亿亿cps。现在1000美元能买到10万亿cps,和摩尔定律的历史预测相符合。也就是说现在1000美元能买到的电脑已经强过了老鼠,并且达到了人脑千分之一的水平。听起来还是弱爆了,但是,让我们考虑一下,1985年的时候,同样的钱只能买到人脑万亿分之一的cps,1995年变成了十亿分之一,2005年是百万分之一,而2015年已经是千分之一了。按照这个速度,我们到2025年就能花1000美元买到可以和人脑运算速度抗衡的电脑了。至少在硬件上,我们已经能够强人工智能了(中国的天河二号),而且十年以内,我们就能以低廉的价格买到能够支持强人工智能的电脑硬件。但是运算能力并不能让电脑变得智能,下一个问题是,我们怎样利用这份运算能力来达成人类水平的智能。通往强人工智能的第二步:让电脑变得智能这一步比较难搞。事实上,没人知道该怎么搞——我们还停留在争论怎么让电脑分辨《富春山居图》是部烂片的阶段。但是,现在有一些策略,有可能会有效。下面是最常见的三种策略:1)&抄袭人脑就好像你班上有一个学霸。你不知道为什么学霸那么聪明,为什么考试每次都满分。虽然你也很努力的学习,但是你就是考的没有学霸好。最后你决定“老子不干了,我直接抄他的考试答案好了。”这种“抄袭”是有道理的,我们想要建造一个超级复杂的电脑,但是我们有人脑这个范本可以参考呀。科学界正在努力逆向工程人脑,来理解生物进化是怎么造出这么个神奇的东西的,乐观的估计是我们在2030年之前能够完成这个任务。一旦这个成就达成,我们就能知道为什么人脑能够如此高效、快速的运行,并且能从中获得灵感来进行创新。一个电脑架构模拟人脑的例子就是人工神经网络。它是一个由晶体管作为“神经”组成的网络,晶体管和其它晶体管互相连接,有自己的输入、输出系统,而且什么都不知道——就像一个婴儿的大脑。接着它会通过做任务来自我学习,比如识别笔迹。最开始它的神经处理和猜测会是随机的,但是当它得到正确的回馈后,相关晶体管之间的连接就会被加强;如果它得到错误的回馈,连接就会变弱。经过一段时间的测试和回馈后,这个网络自身就会组成一个智能的神经路径,而处理这项任务的能力也得到了优化。人脑的学习是类似的过程,不过比这复杂一点,随着我们对大脑研究的深入,我们将会发现更好的组建神经连接的方法。更加极端的“抄袭”方式是“整脑模拟”。具体来说就是把人脑切成很薄的片,用软件来准确的组建一个3D模型,然后把这个模型装在强力的电脑上。如果能做成,这台电脑就能做所有人脑能做的事情——只要让它学习和吸收信息就好了。如果做这事情的工程师够厉害的话,他们模拟出来的人脑甚至会有原本人脑的人格和记忆,电脑模拟出的人脑就会像原本的人脑一样——这就是非常符合人类标准的强人工智能,然后我们就能把它改造成一个更加厉害的超人工智能了。我们离整脑模拟还有多远呢?至今为止,我们刚刚能够模拟1毫米长的扁虫的大脑,这个大脑含有302个神经元。人类的大脑有1000亿个神经元,听起来还差很远。但是要记住指数增长的威力——我们已经能模拟小虫子的大脑了,蚂蚁的大脑也不远了,接着就是老鼠的大脑,到那时模拟人类大脑就不是那么不现实的事情了。&2)模仿生物演化抄学霸的答案当然是一种方法,但是如果学霸的答案太难抄了呢?那我们能不能学一下学霸备考的方法?首先我们很确定的知道,建造一个和人脑一样强大的电脑是可能的——我们的大脑就是证据。如果大脑太难完全模拟,那么我们可以模拟演化出大脑的过程。事实上,就算我们真的能完全模拟大脑,结果也就好像照抄鸟类翅膀的拍动来造飞机一样——很多时候最好的设计机器的方式并不是照抄生物设计。所以我们可不可以用模拟演化的方式来造强人工智能呢?这种方法叫作“基因算法”,它大概是这样的:建立一个反复运作的表现/评价过程,就好像生物通过生存这种方式来表现,并且以能否生养后代为评价一样。一组电脑将执行各种任务,最成功的将会“繁殖”,把各自的程序融合,产生新的电脑,而不成功的将会被剔除。经过多次的反复后。这个自然选择的过程将产生越来越强大的电脑。而这个方法的难点是建立一个自动化的评价和繁殖过程,使得整个流程能够自己运行。这个方法的缺点也是很明显的,演化需要经过几十亿年的时间,而我们却只想花几十年时间。但是比起自然演化来说,我们有很多优势。首先,自然演化是没有预知能力的,它是随机的——它产生的没用的变异比有用的变异多很多,但是人工模拟的演化可以控制过程,使其着重于有益的变化。其次,自然演化是没有目标的,自然演化出的智能也不是它目标,特定环境甚至对于更高的智能是不利的(因为高等智能消耗很多能源)。但是我们可以指挥演化的过程超更高智能的方向发展。再次,要产生智能,自然演化要先产生其它的附件,比如改良细胞产生能量的方法,但是我们完全可以用电力来代替这额外的负担。所以,人类主导的演化会比自然快很多很多,但是我们依然不清楚这些优势是否能使模拟演化成为可行的策略。3)让电脑来解决这些问题如果抄学霸的答案和模拟学霸备考的方法都走不通,那就干脆让考题自己解答自己吧。这种想法很无厘头,确实最有希望的一种。总的思路是我们建造一个能进行两项任务的电脑——研究人工智能和修改自己的代码。这样它就不只能改进自己的架构了,我们直接把电脑变成了电脑科学家,提高电脑的智能就变成了电脑自己的任务。以上这些都会很快发生硬件的快速发展和软件的创新是同时发生的,强人工智能可能比我们预期的更早降临,因为:1)指数级增长的开端可能像蜗牛漫步,但是后期会跑的非常快2)软件的发展可能看起来很缓慢,但是一次顿悟,就能永远改变进步的速度。就好像在人类还信奉地心说的时候,科学家们没法计算宇宙的运作方式,但是日心说的发现让一切变得容易很多。创造一个能自我改进的电脑来说,对我们来说还很远,但是可能一个无意的变动,就能让现在的系统变得强大千倍,从而开启朝人类级别智能的冲刺。&强人工智能到超人工智能之路总有一天,我们会造出和人类智能相当的强人工智能电脑,然后人类和电脑就会平等快乐的生活在一起。&呵呵,逗你呢。即使是一个和人类智能完全一样,运算速度完全一样的强人工智能,也比人类有很多优势:硬件上:-速度。脑神经元的运算速度最多是200赫兹,今天的微处理器就能以2G赫兹,也就是神经元1000万倍的速度运行,而这比我们达成强人工智能需要的硬件还差远了。大脑的内部信息传播速度是每秒120米,电脑的信息传播速度是光速,差了好几个数量级。-&容量和储存空间。人脑就那么大,后天没法把它变得更大,就算真的把它变得很大,每秒120米的信息传播速度也会成为巨大的瓶颈。电脑的物理大小可以非常随意,使得电脑能运用更多的硬件,更大的内存,长期有效的存储介质,不但容量大而且比人脑更准确。-&可靠性和持久性。电脑的存储不但更加准确,而且晶体管比神经元更加精确,也更不容易萎缩(真的坏了也很好修)。人脑还很容易疲劳,但是电脑可以24小时不停的以峰值速度运作。软件上来说:-&可编辑性,升级性,以及更多的可能性。和人脑不同,电脑软件可以进行更多的升级和修正,并且很容易做测试。电脑的升级可以加强人脑比较弱势的领域——人脑的视觉元件很发达,但是工程元件就挺弱的。而电脑不但能在视觉元件上匹敌人类,在工程元件上也一样可以加强和优化。-&集体能力。人类在集体智能上可以碾压所有的物种。从早期的语言和大型社区的形成,到文字和印刷的发明,再到互联网的普及。人类的集体智能是我们统治其它物种的重要原因之一。而电脑在这方面比我们要强的很多,一个运行特定程序的人工智能网络能够经常在全球范围内自我同步,这样一台电脑学到的东西会立刻被其它所有电脑学得。而且电脑集群可以共同执行同一个任务,因为异见、动力、自利这些人类特有的东西未必会出现在电脑身上。&通过自我改进来达成强人工智能的人工智能,会把“人类水平的智能”当作一个重要的里程碑,但是也就仅此而已了。它不会停留在这个里程碑上的。考虑到强人工智能之于人脑的种种优势,人工智能只会在“人类水平”这个节点做短暂的停留,然后就会开始大踏步向超人类级别的智能走去。这一切发生的时候我们很可能被吓尿,因为从我们的角度来看a)虽然动物的智能有区别,但是动物智能的共同特点是比人类低很多;b)我们眼中最聪明的人类要比最愚笨的人类要聪明很很很很多。所以,当人工智能开始朝人类级别智能靠近时,我们看到的是它逐渐变得更加智能,就好像一个动物一般。然后,它突然达到了最愚笨的人类的程度,我们到时也许会感慨:“看这个人工智能就跟个脑残人类一样聪明,真可爱。”但问题是,从智能的大局来看,人和人的智能的差别,比如从最愚笨的人类到爱因斯坦的差距,其实是不大的。所以当人工智能达到了脑残级别的智能后,它会很快变得比爱因斯坦更加聪明:之后呢?智能爆炸从这边开始,这个话题要变得有点吓人了。我在这里要提醒大家,以下所说的都是大实话——是一大群受人尊敬的思想家和科学家关于未来的诚实的预测。你在下面读到什么离谱的东西的时候,要记得这些东西是比你我都聪明很多的人想出来的。像上面所说的,我们当下用来达成强人工智能的模型大多数都依靠人工智能的自我改进。但是一旦它达到了强人工智能,即使算上那一小部分不是通过自我改进来达成强人工智能的系统,也会聪明到能够开始自我改进。这里我们要引出一个沉重的概念——递归的自我改进。这个概念是这样的:一个运行在特定智能水平的人工智能,比如说脑残人类水平,有自我改进的机制。当它完成一次自我改进后,它比原来更加聪明了,我们假设它到了爱因斯坦水平。而这个时候它继续进行自我改进,然而现在它有了爱因斯坦水平的智能,所以这次改进会比上面一次更加容易,效果也更好。第二次的改进使得他比爱因斯坦还要聪明很多,让它接下来的改进进步更加明显。如此反复,这个强人工智能的智能水平越长越快,直到它达到了超人工智能的水平——这就是智能爆炸,也是加速回报定律的终极表现。现在关于人工智能什么时候能达到人类普遍智能水平还有争议。对于数百位科学家的问卷调查显示他们认为强人工智能出现的中位年份是2040年——距今只有25年。这听起来可能没什么,但是要记住,很多这个领域的思想家认为从强人工智能到超人工智能的转化会快得多。以下的情景很可能会发生:一个人工智能系统花了几十年时间到达了人类脑残智能的水平,而当这个节点发生的时候,电脑对于世界的感知大概和一个四岁小孩一般;而在这节点后一个小时,电脑立马推导出了统一广义相对论和量子力学的物理学理论;而在这之后一个半小时,这个强人工智能变成了超人工智能,智能达到了普通人类的17万倍。这个级别的超级智能不是我们能够理解的,就好像蜜蜂不会理解凯恩斯经济学一样。在我们的语言中,我们把130的智商叫作聪明,把85的智商叫作笨,但是我们不知道怎么形容12952的智商,人类语言中根本没这个概念。但是我们知道的是,人类对于地球的统治教给我们一个道理——智能就是力量。也就是说,一个超人工智能,一旦被创造出来,将是地球有史以来最强大的东西,而所有生物,包括人类,都只能屈居其下——而这一切,有可能在未来几十年就发生。想一下,如果我们的大脑能够发明Wifi,那么一个比我们聪明100倍、1000倍、甚至10亿倍的大脑说不定能够随时随地操纵这个世界所有原子的位置。那些在我们看来超自然的,只属于全能的上帝的能力,对于一个超人工智能来说可能就像按一下电灯开关那么简单。防止人类衰老,治疗各种不治之症,解决世界饥荒,甚至让人类永生,或者操纵气候来保护地球未来的什么,这一切都将变得可能。同样可能的是地球上所有生命的终结。当一个超人工智能出生的时候,对我们来说就像一个全能的上帝降临地球一般。这时候我们所关心的就是这篇文章的第一部分完了,我建议你休息一下,喝点水,下面我们要开始第二部分。&&&&&&
<div class="num1_b" id="commend_num_
上一篇&&&&
下一篇&&&&
评论审核中请稍后...
评论审核中请稍后...
还没有评论哦,&
凤凰博报用户登录
支持更多帐号登录
新浪微博登录
亲,您在凤凰博报的用户名为
绑定凤凰帐号
欢迎您来我的凤凰博客!
博主最近发表的 10 篇博文
编辑推荐 13 篇博文
凤凰博报微信

我要回帖

更多关于 警惕人工智能 的文章

 

随机推荐