发展人工智能 人类走向何方?

发表:2017年08月29日
【记者岳超报导】关于AI(人工智能)是否给人类带来灾难的讨论,近期又成为媒体关注的热点。

(123RF)
(123RF)

 
专家警告不断 AI发展堪忧
 
首先全球顶级互联网公司Facebook(脸书)在7月底传出了一个令人震惊的消息:Facebook于6月开始测试的人工智能机器人系统出现了问题:两个智能对话机器人在对话时“失控”了——它们在对话时停止使用英语,并开始使用只有它们自己才能理解的新创建的语言!最终导致Facebook不得不拔掉正在研究的人工智能系统的插头。
 
尽管Facebook事后解释称,两个机器人为实验性质,而且并没有真正发明新的语言,因为他们还是在用i、balls、the等英文单词沟通,只是没有设置“英语语法”的激励项,于是创造了一种新的表达方式而已。因此,官方也表示,他们关闭人工智能系统的原因也并非是由于它们“失控”,而是因为这样做没有意义,因为他们更“希望AI和人沟通,而不是相互沟通”,但这对于媒体和关注人工智能的专业人士来说,却很难消除他们日益增长的忧虑。
 
另据报导,特斯拉首席执行官伊隆•马斯克(Elon Musk)和Facebook马克•扎克伯格(Mark Zuckerberg)在7月25日就人工智能问题公开打起嘴仗。先是扎克伯格称马斯克关于人工智能末日未来的观点是“非常不负责任的”。而马斯克则反呛扎克伯格称其对未来人工智能的理解过于   “有限”。
 
据悉,该辩论是源于扎克伯格通过Facebook Live与用户进行了互动时,有用户提出了一个问题,就是如何看待马斯克在接受专访时的论断。马斯克此前接受专访时表示自己对未来最大的恐惧就是人工智能,然后就有了两人关于人工智能的争论。长期以来,马斯克一直在强调对未来的人工智能的恐惧。本月初,他表示,人工智能会取代大量的工作,机器人做的将会比人更好。这位特斯拉首席执行官还提倡在人类中普及基本收入保障,以保护人类免受人工智能的影响。
 
除了马斯克,英国的著名宇宙学家霍金也开始预言地球的末日,部分思想竟与马斯克遥相呼应:“尽管地球遭遇灾难的几率很低,但这几率随时间增长,在下一个千年或者万年几乎将成为必然事件。那时候我们已经开始开拓太空,在外星殖民,因此地球的末日不意味着人类的终结”;而对于地球遭到灾难的原因,霍金对于小行星撞地球之类的灾难只是轻描淡写地提了一下,显然他更担心的也是人类的自毁能力:“科学和科技的进步固然不能停止,但我们必须认识到其中的危险并加以控制……全人工智能的发展足以让人类灭绝。”
 
霍金是当前世界最著名的宇宙学家,他的警告无疑引发了人们对人工智能的担忧。此外,微软联合创始人比尔•盖茨(Bill Gates)也表示,人工智能可能比核战争还要恐怖。牛津大学哲学教授尼克•博斯托姆(Nick Bostrom)2014年曾在《超级智能》(Superintelligence)一书中写道:“一旦不友好的超级智能诞生,它就会阻止我们去替换它,或改变其喜好。如果这样,我们的命运将被终结。”去年,美国前国务卿亨利•基辛格(Henry Kissinger)也表示,智能机器人可能造成历史断裂,甚至瓦解整个人类文明。
 
对此,有科技界的专家因此做出预测:加入科技不是障碍,人工智能要多智能就有多智能。在这个前提下,人工智能可以在两种情况下灭绝人类:人工智能反客为主——人工智能统治了世界,以人为奴,或者把人类屠杀殆尽;或者人工智能成为武器,人类用人工智能武器打仗,毁灭了世界。
拥有自我意识 离人还有多远?
 
然而更多的迹象表明,人工智能可能给人类带来巨大影响的方式绝不止以上两种。8月23日,微软公司发布第五代聊天机器人“微软小冰”,据悉,第五代小冰有一个技术突破在于小冰开始试着拥有高级感官,尝试突破虚拟世界,包括主动给人类打电话,叫住身边的人。还有实时流媒体视觉,可以评论图片,模拟人类感知功能。最近,微软在上海某处放置了小冰,可以感知人的位置和移动,甚至可以理解人与人之间关系,可以主动对身边感知到的人说话。微软还表示:小冰目前拥有了1亿用户,积累了超过300亿的直接人机对话。这个数据量居所有同类产品第一。随着小冰亚文化的快速形成,训练数据的规模和质量,将得到进一步提升。
 
换句话说,用不了多久,你接到的电话有可能是人类打来的,或者不是人类打来的——而接电话的你很难在短时间内分辨对方到底是人还是机器。如果这个场景真的发生,相信会有更多的人忧虑人工智能未来对人类的影响。而且,AI之间对抗的实验也显示,人工智能已经能在小范围内超出人类的“预期”。
 
Google本部的人工智能团队Google Brain(不是DeepMind),就针对这个问题在去年做了实验。研究者用到了三个并不复杂的神经网络,其中两个均未学过任何的加密知识,而是单纯依靠二者之间的共识(一段共享的密钥K),去设计出一个加密的方法;另一个则为解密方。
 
结果发现他们搭建的人工智能系统,自己创造出了一个加密算法,不光人猜不透,还能“自我升级”,让算法无法破解。
 
此外,DeepMind则是找了两个人工智能玩对抗游戏,结果发现,它们之间也能学会共赢和合作。
 
在今年5月“中国乌镇围棋峰会”的人机配对赛中,即将终局前,面对劣势,与古力搭档的AlphaGo决定投子认输,古力却拒绝了AlphaGo的要求,仍坚持鏖战。而之后,AlphaGo的棋路变得越来越消极,最终,古力在不可逆转的情势下,也只得认输。
 
发展人工智能 人类走向何方
 
但就目前而言,专家们普遍认为,拥有自我意识、情感的机器,目前还没有出现。
 
但对人工智能,人类对它的“不信任”是存在的。因为,从本质上看,目前深度学习,是个非常黑的“黑箱”。也即是,你是不能看出它是如何工作的。也许机器输出的结果,可以给到合理的解释,但也有可能,有的你还完全没有任何理由去推断。因此,我们在利用机器决策时,不能简单地去相信或拒绝相信它的判断,同样,我们也要保证,如何让AI系统学会作出符合我们道德标准和社会规范的判断。
 
之前,美国五大科技巨头谷歌、Facebook、亚马逊、IBM和微软罕见携手,成立了人工智能合作组织。此外,欧盟也开始探讨机器人和人工智能方面的道德问题。
 
加州大学伯克利分校机器智能研究所(MIRI)的联合创始人尤德科夫斯基,做了大量研究,试图弄清在现实中(而不是理论上)人类究竟能否根据意愿指挥人工智能。他在接受采访时表示,“假如你想为人工智能安装一个紧急关闭按钮,它会允许你安装吗?它会试图弄掉这个按钮吗?它愿意让你按下按钮吗?出问题时它会自己按下按钮吗?如果它能自行更改设置,它还愿意保留这个关闭按钮吗?我们正在研究这些问题,这些都不是简单的问题。”
 
尤德科夫斯基还表示:“预测人工智能的威胁,不要想象科幻电影中红着眼睛的人形金属机器人,它真正的威胁来自那些看不到的、由金刚石构成的合成细菌,它们会载着微型电脑进入人类血液。之后,只要它们释放一微克的肉毒杆菌毒素,人类就会倒下。当然,人工智能究竟会不会这样做,目前还很难预测,因为届时它们的智力已经超越人类。因此,当你制造一个比你还聪明的事物时,第一次尝试就不能出任何差错。”
 
人类研究人工智能的脚步,目前已经无法停歇。人类未来究竟能否真正驾驭人工智能,截止到目前,这个话题的答案依旧朴素迷离。