马斯克资助的AI安全项目正在做什么?

文 陈梦凡 孙梦璠 编辑 汪再兴 卜昌炯   2016-05-08 04:57:48


人工智能是一把双刃剑。如何让它只做对人类有益的事却不至于失控,拥有豪华科学顾问团队的生命未来研究所正未雨绸缪。

文 陈梦凡 孙梦璠 编辑 汪再兴 卜昌炯


特斯拉、SpaceX创始人埃隆·马斯克

美国麻省理工学院教授、宇宙学家麦克斯·泰格马克将致力于降低人类存在性风险的生命未来研究所官网Logo设计成一棵树是有意味的。这棵与众不同的树一边枝繁叶茂,另一边只剩下枯枝,似乎在暗示技术能给人类带来前所未有的繁盛,但也会让人类走向自我毁灭。

麦克斯是生命未来研究所(Future of Life Institute,简称FLI)的联合创始人之一。如名所示,这是一个关注人类未来的组织,关注基因、核以及人工智能等各种现代技术的发展会为人类带来怎样的前景。

FLI官网上列出的一长串科学顾问委员会成员名单,可谓大牌云集。这可能是由世界上最聪明、最具影响力的一群人组成的顾问团。

他们中有行事天马行空的特斯拉创始人埃隆·马斯克,还有身兼导演、演员、编剧等身份,多次获得艾美奖和金球奖的艾伦·艾尔达,以及内地很多观众熟悉的影星摩根·弗里曼。但更多的还是学术圈名人,著名物理学家史蒂夫·霍金领衔一众来自哈佛、牛津、剑桥、麻省理工等院校的精英们,涉及基因、大脑、人工智能、物理、宇宙、数字经济等各个领域。

他们中的不少人曾在不同场合向媒体表达过对人工智能的担忧。去年12月,霍金接受BBC采访时称全面发展的人工智能可能成为人类的终结者,他主要担心的是那些达到或者超越人类的人工智能—“他们会快速地发展和更新换代,但人类受制于缓慢的生物进化,无法与之抗衡,终将被取代”。马斯克也有过“发展人工智能就像是召唤魔鬼”的言论,他说:“就像所有的神话中画着法阵捧着圣水的邪恶巫师一样,每个巫师都声称自己可以控制恶魔,但最终没有一个成功的。”

名人的担忧体现了时下这个社会流行且互相冲突的潮流:过去5年,人工智能得以快速发展,很多5年前或者多年前想象的事情现在已经发生了,从活跃在各种制造业工厂的机器人到大脑原型芯片TrueNorth,再到Siri、微软小冰等,人工智能已经陆续走进并改变着人们的生活,但机器越来越像人的同时也让它们的创造者深陷恐惧。

2014年3月,在麦克斯的倡导下,Skype的创始人之一扬·塔里安、哈佛大学统计学在读博士维克托维亚·克拉克弗纳、加州大学圣克鲁兹分校理论宇宙学教授安东尼·阿吉雷,以及拥有教育和哲学背景的波士顿大学在读博士米哈埃拉·契塔共同成立了FLI。

依托于波士顿地区丰富的高校资源,FLI吸引了来自各个高校的志愿者。志愿者和创始人们经常在一起席地而坐进行头脑风暴,讨论项目、组织活动。

“出于对人类未来的关心,来自不同领域的我们聚在了一起。不同的专业背景和兴趣能让我们更好地完成使命。”维克托维亚说。

彼时在商业上已经颇有成就的扬·塔里安为初创的机构注入了发展资金。而真正让媒体和公众关注到这个组织的,则是埃隆·马斯克。今年年初,马斯克向FLI提供了1000万美元的资助,用于AI安全的研究。

“我们应该主动出击”

去年10月,马斯克在麻省理工学院航空航天系的百年研讨会上与学生们交流,聊的话题很“未来”,计算机科学、人工智能、太空探索,还有火星殖民计划。有人问及他对人工智能的看法,这位科技狂人说:“我觉得我们应该非常小心人工智能。或许人工智能是我们所面临的最大的存在性威胁。我越来越倾向于应该有一些规范和监督,国家层面或者是国际层面的,从而保证我们不会做蠢事。”

被很多媒体引用的“召唤魔鬼”的言论就出自这场交流。麦克斯说他很欣赏马斯克的一个地方,就是他不仅说,而且真的会去做。

“马斯克关注人工智能的安全问题已经有一段时间了,这也促使他加入了CSER (存在风险研究中心)和FLI。”维克托维亚说,“今年年初我们组织了一场AI会议,达成了很多研究方向的共识,马斯克希望让这些研究能够落地。”

2015年1月2日至5日,在波多黎各的圣胡安,FLI组织了一场没有媒体参与的闭门会议,参会的有学术界和业界的AI从业者,还有经济、伦理和法律各界的专家。FLI希望这次会议能够为未来AI的发展和研究确定下方向,从而使其效益最大化,避免走入歧途。当时已是FLI科学顾问的马斯克也参与了这次会议。那场会议后,马斯克宣布向FLI资助1000万美元用于AI安全的研究。

在宣布资助不久后的一次对话中,麦克斯问马斯克:“为什么对人类的未来这么有兴趣?”先后创立了特斯拉、SpaceX的马斯克说这跟他小时候喜欢看科幻小说和哲学书籍有关,让他意识到,“我们应该做的是让生命在未来延续,尤其是有意识的生命。这样我们才能够更好地去理解宇宙的本质,达到更高的文明层次”。

在与麦克斯的对话中,马斯克认为,未来科技将会从五个层面对人类社会产生巨大影响—让生命多星球化、能源的可持续生产和使用、互联网的持续发展、对人类基因的重编码以及人工智能。马斯克创办的特斯拉和SpaceX,前者专注于新能源的使用,减少人类交通对石油类能源的依赖,后者作为一家私营太空运输公司,旨在为人类进入太空铺路。

在对人工智能的态度上,马斯克的立场显得矛盾。他认为,AI最大的好处在于能够使人们从很多无聊、繁重的工作和测试中解放出来,并突破一些人类智慧尚未解决和难以控制的问题,比如治疗癌症、老年疾病等。

同时,他也认为,AI与基因技术一样是“双面的”,可能带来混乱。“最好的方式是避免AI的负面影响出现,而不是等它出现之后再做出反应。有些AI的潜在威胁是很严重的。当风险很大的时候,我们应该主动出击而不是被动反应。”

“当时做特斯拉和SpaceX,成功的几率可能只有两成。”在马斯克看来,二者对人类社会都是一种长期的优化,不宜急功近利。同样的,在资助FLI做人工智能安全研究这件事上,他也看得很长远,对钱的问题并不太计较,“并不是每个人都需要做这些事情,只是确实需要有人去做。如果我看到这些领域没有人在做,(就会想)也许我可以在这些事情上做点什么。”

一切都是为了有益于人类

Skype的创始人扬·塔里安曾打过一个比方,“发展先进的人工智能就像发射火箭,第一要务是使加速度达到最大,一旦它开始增速的时候,就得去关注控制与引导的问题。”

FL I的创始人麦克斯并不是A I的反对派,不认为应该减缓人工智能的发展,但他希望调整人工智能的目标。这位来自麻省理工学院的教授告诉《博客天下》,发展人工智能的目标不应该是让机器更加聪明更加智能,而是让它们更加忠诚且更有益于人类。

“做生物的人,他们并不想做生物武器,他们只想去做药品之类的对人类有益的事情;做化学的一样,他们不希望去研发化学武器,他们只想创造新的材料去帮助人类。对人工智能来说也是一样的,研发他们的人在最开始就应该想清楚这些东西将会走向哪里。”麦克斯说。所以,FLI对参选项目的一个要求就是,“如何让AI更加有益于人类而不是简单地变得更加能干。”

在大方向的指引下,还有具体的研究重点。FLI根据前期调研以及会议成果发布了一份文件,详细介绍了AI安全研究的短期和长期研究重点。短期研究重点关注那些已经初步显现的A I的影响与威胁,长期研究重点则关注超级人工智能是否能实现。

在得到马斯克的资助后,FLI开始了针对AI未来研究项目的征集与选拔。此前麦克斯和FLI的另一位创始人安东尼·阿吉雷曾经运营过物理学领域的一个类似机构,他们对机构运营和项目管理有一定的经验,因此他们也为项目订立了一系列科学严谨的审批流程—在收到各个研究团队的提案后,FLI将组织相应领域内公认的学者教授或者业内人士组成专家评审团,对项目进行同行评审。当然,FLI会保证评审者和项目申请者互相不知道对方的信息。

评审标准包括项目主要研究者及其团队的资格审查,项目本身的价值、科学严谨性和创新性,在给定时间框架内研究的可行性等。最终37个项目通过了审核。

之后,FLI与硅谷社区基金会下属的一个捐赠人指导基金(DAF)合作确定每个项目分配多少钱。根据项目承接团队要求的资助金额,结合项目的影响力,DAF最终确定下分配的项目资金,并且后期负责与项目承担方在经费上的对接。

37个项目中包括32个具体的研究课题,1个人工智能战略研究中心的筹建以及4个教育与会议项目。FL I最初的希望是能够将马斯克的资助大致分在计算机科学(50%),政策(20%),法律、伦理和经济(15%)以及教育(15%)4个类目当中。后来根据申报项目的数量和质量,进行了相应的优化调整。

这些项目将获得为期3年的资助,大部分项目从今年9月份开始,项目承担者每年将给FLI提交报告汇报,FLI将组织相应的审核。

比失业更可怕的是失去尊严

牛津大学的尼克·博斯特罗姆教授拿到了FLI的150万美元的最高资助。

这笔经费将用于筹建人工智能战略研究中心。这一中心将由牛津大学和剑桥大学联合成立,专注于为政府、行业领导者等提供政策研究支持,从而降低人工智能发展的风险,使其效益最大化。

尼克是牛津大学的哲学教授,专注于存在风险和人类未来的研究,也是畅销书《超级智能:路径、危险、策略》一书的作者。尼克认为,人们有理由相信不受监管与约束的人工智能会带来相当大的危险,一方面是因为技术本身有了前所未有的能力,另一方面是因为政府的不负责任。像核裂变等高科技,政策走在了技术发展之后,使得这项技术的发展伴随着毁灭性的风险。为了避免这种状况发生,人工智能安全战略的研究必须走在超越人类的实用人工智能广泛实行之前。尼克希望战略研究中心的成果能够为全世界的政府和从事AI行业的人所用。

尼克本人更加关注A I的长期发展,包括超级人工智能一类的议题,但是人工智能战略研究中心建成后也会关注A I造成的短期问题,例如失业问题。对这一问题,他个人的看法比较乐观:“我个人觉得到目前为止,我们还没有看到人工智能技术的应用与早前的技术进步浪潮带来的改变有什么不同—一些工作会被淘汰,但新的工作也会出现。”

但并非所有人都这么乐观。“我认为未来20年间,人工智能带来的失业问题是最令人担忧的。”FIL的项目承担者之一,斯坦福大学博士迈克尔·韦伯告诉《博客天下》,“不管你是一个拿着高收入的律师,还是流水线上生产iPad的普通工人,当你的雇主发现使用机器或者软件成本更低时,你都有可能失业。”

上一篇回2015年8月第18期目录 下一篇 (方向键翻页,回车键返回目录)加入书签

© 2016 毕业论文网 > 马斯克资助的AI安全项目正在做什么?