马克斯·泰格马克是一位著名的物理学家。他还是马萨诸塞州剑桥市生命未来研究所(the Future of Life Institute)的联合创始人,乐观得让人无法抑制。或自我毁灭。让我们做出改变!”)现在,在《生活3.0》中,他着手处理一个紧迫的未来发展——人工智能(AI)的进化。他认为,如果我们的“宇宙天赋”不被不经意地抛弃,这些风险就需要认真思考。
“机器蜂”是用来人工授粉的,但可能会产生无法预料的环境影响。
出于披露的利益,Tegmark和我是合作者,并共享一个文学代理。2014年,我们与物理学家斯蒂芬·霍金(Stephen Hawking)和弗兰克·威尔切克(Frank Wilczek)共同撰写了《赫芬顿邮报》(Huffington Post)的文章《超越对超级智能机器的自满》(beyond自满on superintelligent machines)。从表面上看,这是对沃利费斯特(Wally Pfister)反乌托邦式的人工智能电影《超越》(Transcendence)的评论,实际上是在呼吁人工智能社区认真对待智能系统的风险。因此,我不太可能强烈反对Life 3.0的前提。泰格马克认为,由于我们现在做出的决定,生命可能在宇宙中传播,也可能不会在宇宙中“繁荣数十亿年或数万亿年”——这种可能性既诱人又难以抗拒。
这本书的标题提到了进化史上的第三个阶段。近40亿年以来,硬件(身体)和软件(产生行为的能力)都是由生物学决定的。在接下来的10万年里,学习和文化使人类能够适应和控制自己的软件。在即将到来的第三阶段,软件和硬件都可以重新设计。这听起来像是一种超人类主义——对身体和大脑进行重新设计的运动——但Tegmark的重点是人工智能,它通过外部设备来补充精神能力。
Tegmark同时考虑风险和收益。近期的风险包括自主武器的军备竞赛和就业的大幅减少。人工智能社区几乎一致谴责制造可以选择杀死人类的机器,但工作问题引发了辩论。许多人预测这将带来经济上的好处——就像以前的工业革命一样,人工智能会激发新工作岗位取代旧工作岗位。Tegmark挖苦地想象了两匹马在1900年讨论内燃机的兴起。有人预测“马的新工作……这是以前经常发生的事情,比如轮子和犁的发明。唉,对大多数马来说,“新工作”就是做宠物食品。特格马克的分析令人信服,保罗•克鲁格曼(Paul Krugman)等经济学家也认同。但问题依然存在:当我们现在所说的大部分工作都是由机器完成的时候,我们可能会追求什么样的理想经济?
长期风险是存在的。这本书虚构的序曲描述了一个相当可信的场景,198客户端APP
198优惠活动如何登录,其中超级智能人工智能可能会出现。后来,Tegmark涵盖了从近乎乌托邦到人类奴役或灭绝的全球后果。我们不知道如何走向更好的未来,这表明我们缺乏认真思考为什么让人工智能变得更好可能是一件坏事。
计算机先驱艾伦•图灵(Alan Turing)在1951年提出,人类至多会被人工智能“大大削弱”的可能性。通过限制人工智能的进展来缓解这种不安可能既不可行也不可取。《生活3.0》中最有趣的部分解释道,真正的问题在于目标可能不一致。控制论创始人诺伯特·维纳(Norbert Wiener)在1960年写道:“我们最好确信,投入机器的目的就是我们真正渴望的目的。”或者,正如Tegmark所说,“目前还不清楚如何向一个超级智能的人工智能灌输一个既不模糊也不会导致人类灭亡的终极目标。”“在我看来,这个技术和哲学问题需要我们能够利用的所有智力资源。
只有解决了这个问题,我们才能获得好处。其中之一就是宇宙的膨胀,可能是由诸如Dyson spheres(它可以捕获恒星的能量)、围绕黑洞建造的加速器或Tegmark的理论喷射器(像柴油发动机,但以夸克为动力,效率是前者的10亿倍)等奇异技术提供动力。就纯粹的科学乐趣而言,要解释宇宙和物理定律将允许多大的上升空间是很难击败的。例如,有一天我们可能会把生物圈“扩大32个数量级”。令人失望的是,
如果能从玩家的观念来看198彩平台,
198彩怎么样了解玩家心灵活动的198彩平台总代理永远不为自己的前途担心。,宇宙的膨胀可能会限制我们只建立100亿个星系。我们感到子孙后代的焦虑,因为“暗能量的威胁正在撕裂宇宙文明,这激发了大规模的宇宙工程项目”。
这本书最后总结了未来生命研究所在将这些问题转变为主流人工智能思维方面的作用——这一点值得泰格马克高度赞扬。当然,198彩除了有时时彩,分分彩,11选5
时时彩定位胆技巧,江苏快三,还有新上线的瑞士分分彩,只有你想的到的我们都有。,他并不是唯一一个发出警告的人。在其宏大的愿景中,Life 3.0与尼克·博斯特罗姆(Nick Bostrom) 2014年出版的《超级智能》(Superintelligence,牛津大学出版社)最为相似。然而,与博斯特罗姆不同的是,Tegmark并没有试图证明风险是不可避免的;他避开了深奥的哲学,而是倾向于问读者,他们认为哪种情景更可能发生,哪种情景更可取。
尽管我强烈推荐这两本书,但我怀疑,Tegmark的书不太可能在人工智能研究人员中引发一种常见的过敏反应——退回到不注意的防御性争论中。这里有一个典型的例子:我们不担心遥远的但物种灭绝的可能性,比如黑洞在近地轨道上出现,那么为什么要担心超级智能人工智能呢?回答:如果物理学家正在努力制造这样的黑洞,我们难道不会问他们这样做是否安全吗?
《经济学人》对这个主要问题的描述是这样的:“在地球上引入第二个智能物种的意义深远,值得我们认真思考。“《生活3.0》远不是关于人工智能和未来的最后定论,但它提供了一种引人入胜的视角,让我们得以一窥所需的艰难思考。