查看原文
其他

假如明天AlphaGo故意输给李世石,那才是最可怕的事

2016-03-11 冯仑风马牛 冯仑风马牛


封面图片来自|网络


人工智能。人工智能。人工智能。

 

经历了《美人鱼》《太阳的后裔》《疯狂动物城》等一波波的刷屏,最近又轮到了“人工智能”。顶级棋手李世石两局连败给谷歌的人工智能AlphaGo,明天,比赛将进入到五局三胜中最关键一局。有人说:人工智能战胜人类并不可怕,可怕的是它明明能赢,却故意输给人类。再进一步说,连胜两局也不可怕,如果它在明天这个关键点上故意输给人类,那才是最可怕的。


在这场比赛成为关注焦点的同时,以前各种大佬的观点都被挖了出来,慢慢发酵出一种让众人恐慌的舆论:比尔盖茨说,人类要敬畏人工智能的崛起;特斯拉的执行官马斯克说,人工智能是人类生存最大的威胁。


然而,有人偏偏要站出来打脸:Facebook人工智能负责人雅安·勒存说,“我不想谈论人工智能,因为我真的不知道它到底是什么意思”。这不是在瞎说大实话吗?一个顶尖的项目负责人都无法定义“人工智能”,我们这些对人工智能一知半解的小白,更加是因为不明觉厉而感到莫名的恐慌。


▼  戳下面这个“飞碟说”科普小视频,你可以看到更多“人工智能”的例子。(建议在wifi环境下观看)

https://v.qq.com/txp/iframe/player.html?vid=a0173wxrt2g&width=500&height=375&auto=0

其实,人类一直在和自己创造出来的“人工智能”进行拉锯战,这种恐慌的产生也不是一天两天了,并且有愈演愈烈的趋势。

 

在19世纪60年代,计算机被用来解决数学几何、翻译等问题,当时的人们认为“在3到8年内,我们能创造出一台达到人类平均智能水平的机器”。当时,人们对“机器智能化”还是非常向往的。


1997年5月11日,IBM的超级电脑“深蓝”一举击败国际象棋的世界冠军卡斯巴罗夫。这个消息轰动一时。人们在略感意外的同时安慰自己:“深蓝”只是简单粗暴地把所有可能性算了一遍之后找到正确的下法,这是笨办法,这次失败,并不意味着人工智能就能超越人类了。

 


 ▲  如果能看到他的表情,应该是一个大写的“蒙逼”


2014年6月7日,一个聊天程序“尤金·古斯特曼”首次通过了图灵测试,让别人误以为它是一个13岁的小男孩。于是有人惊呼:以后在网上聊天,不仅不知道对方是男是女,连对方是不是人都不确定了!

 


▲  就是这个发际线和拟人水平一样高的“13岁小男孩”


2015年10月,谷歌AlphaGo在被研发出来仅两年之后,就以5:0完胜欧洲围棋冠军樊麾二段,继而,现在又超过了顶尖专业水平的代表李世石。



▲  赛前,李世石说,“全胜没有把握,但赢肯定没问题”

 

但就算人工智能真的在未来超过了人类,那又有什么好恐慌的呢?就像自己养的一个小孩,“青出于蓝而胜于蓝”,不是应该普天同庆吗?

 

首先,我们普通人会担心的,就是人工智能作为一种工具,会取代我们的工作,或被坏人利用。试想,如果有个国家利用人工智能建立了一支机器人军队,那战斗力再强的特种部队,在它们面前都像弱鸡一样可以直接秒杀。


但是这些都与工具无关。无论有没有人工智能,也每天都有人面临失业的问题,坏人也会通过其他途径去做坏事,所以,我们需要的是制定法律来约束人的行为。

 


▲  《超能查派》|跟黑帮在一起,机器人也会变成坏小子


第二个害怕的,是出现不可控的BUG。知乎上的“谢熊猫君”曾经翻译过一篇关于人工智能的文章,其中有这么一个故事:

 

一个公司制作了一个写字机器人,来满足需要大量手写卡片的需求。他们给机器人设定了一个目标:通过训练,不断提高书写的效率和准确性。训练的内容是,让它不停地写“我们爱我们的顾客”这句话。

 

突然有一天,办公室的人倒地身亡;这样的事情在全球同步发生,一天之后,人类全体灭亡。

 

为什么人类会突然灭亡?是机器人杀死了他们。在机器人的逻辑中,为了“更高效”地工作,需要更大量的练习,而大量练习的结果是,这些卡片将堆满这个世界,乃至外太空。机器人在不断学习之后,推测到人类一定会阻止这种情况发生。所以,人类必须死。


而与此同时,机器人还在忙着工作。之后的几个月,它造出一批自己的同类,在地球表面铺满纸和笔;一年之后,地球上所有的生命都灭绝了,只剩下是叠得高高的纸,每张纸上面都写着——“我们爱我们的顾客”。之后,它开始制造宇宙飞船,飞向其他星球,继续写着那句话……

 

说到底,这一切都是人类自己作的死,怪不了人工智能,如果那个写字机器人有表情,可能会给你一张无辜脸:不都是为了完成你交给我的任务嘛。那么,怎么保证人工智能在达成任务的同时,不会不小心伤害到人类呢?

 

美国著名科幻小说家阿西莫夫曾经写过三条机器人的黄金法则

第一法则机器人不得伤害人类,或坐视人类受到伤害第二法则除非违背第一法则,机器人必须服从人类的命令第三法则在不违背第一及第二法则下,机器人必须保护自己


很多人工智能领域的专家也认同这三大法则。如果这三大法则能像人的本能一样变成人工智能的本能,那么无论如何,人类都是安全的了吧?——看上去确实是这样的。除非,人工智能又发展到另一个让人惶恐的高度:拥有自己的思维和判断能力。

 

科幻电影《我,机器人》中的中控系统“维基”,它就已经强大到具有自我学习和逻辑推理的能力。它认为,人类发动战争、毒害地球,是在不断地自我毁灭,根据三大定律,为了保护全人类,它必须牺牲一部分人,为了人类的未来,必须放弃当下的自由,它所有的行动,都是为了让人类更好、更长时间地生存下去——“我的逻辑是无懈可击的”,即使违背了人类的意愿。所以,它选择了发动机器人战争。



▲  《我,机器人》|机器人觉得:还不都是为了你们好!


这里的“三大法则”是经过“维基”不断学习和理解之后重新定义的。这种能力为什么会让人恐慌?先来回答一个问题:有一辆载着货物、高达3.5米的货车,要驶过一个高只有3米的山洞,有什么办法可以过去?


普通的机器人会考虑如何执行命令:能不能换一条路?能不能通过重新摆放货物来降低货车的高度?能不能分几次运输?……

 

但是这时候,这种程度的人工智能很可能像人类一样会质疑问题:“我”是谁?是卡车司机还是等货物的客人?我过这个山洞的目的是什么?有没有其他办法可以达到同样的目的?这种思考问题的能力,已经让它成为近似于另一种“生命体”的存在。

 


▲  《超体》|人工智能的发展和人的进化,会不会殊途同归?


一旦人工智能发展到这种地步,那么很可能会威胁人类在地球的统治地位,甚至造成人类的生存危机。又或者分分钟在智商体能上被双重碾压,弱到人工智能都不屑于来毁灭人类、奴役人类的地步——就像蚂蚁之于人类,面对毫无威胁的物种,我们连关注都懒得关注。人类想要夺回控制权,那无异于一只蚂蚁伸出小腿想绊倒人类一样可笑。

 

所以,霍金说的“人工智能会导致人类灭亡”,并非是一个唬人的玩笑。细思极恐。我们觉得“没什么可怕的呀”,很可能只是因为我们知道得太少。所以,我们应该庆幸,谷歌AlphaGo只是把李世石逼到认输,而不是明明有必胜的把握,却假装奋力一搏之后输给人类。如果明天的比赛,谷歌AlphaGo输了,那才是真的耐人寻味,细思极恐呢。

 

不说了,我要去抖一抖被自己吓出来的一身鸡皮疙瘩。



-END-

-商务联系-

邮箱 wuxin@890media.com


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存