查看原文
其他

AlphaGo对李世乭,计算机科学家怎么看?

2016-03-08 Calo 科学人

北京时间3月9日中午12点,Google DeepMind开发的围棋AI "AlphaGo"将在韩国首尔挑战职业九段棋手李世乭。这场人脑对电脑的大战谁将胜出?不同的战果又会如何影响人工智能的后续发展?对于这些问题,围观群众早已是众说纷纭。

明天中午,这场注定成为经典的人机对弈就会打响头炮。图片来源:am1170theanswer.com

一个多月前,DeepMind在顶尖学术杂志《自然》上发表重磅论文,宣布AlphaGo以5:0的胜绩击败欧洲围棋冠军、职业二段樊麾。全球因此哗然:在围棋这个“人类最后的智力骄傲”上,人工智能也能攻城拔寨了吗?东方的棋手表示淡定。面对剑指首尔的AlphaGo,李世乭表示“至少这次有信心赢”。中国“棋圣”聂卫平更是力挺李世乭,认为他很可能5-0取胜。至于备受瞩目的围棋天才少年柯洁,也在接受科学人采访时表示:“我觉得我去下的话,也非常有信心能战胜这个‘阿法狗’。”

人脑对阵电脑,计算机科学家们怎么看?首战前夕,果壳网科学人跟周志华、史蒂夫·弗伯(Steve Furber)和凯文·柯伦(Kevin Curran)三位科学家聊了聊这牵动人心的AlphaGo。

周志华是南京大学计算机系教授,美国人工智能协会会士、IEEE会士。最近中国亚马逊计算机类最畅销书《机器学习》的作者。作为南京大学机器学习与数据挖掘研究所 (LAMDA)的所长,他主要从事人工智能、机器学习、数据挖掘、模式识别等多个领域的研究工作。

史蒂夫·弗伯是英国曼彻斯特大学计算机科学教授,IEEE会士。弗伯曾是BBC微型计算机和ARM 32位RISC处理器的首席设计师,目前则在著名的“欧盟人脑计划”(Human Brain Project)中担任神经形态计算系统项目的负责人。

凯文·柯伦是曼彻斯特大学的计算机科学教授,IEEE高级会员。他担纲多个“欧盟框架计划”科研项目,在计算机网络系统领域贡献突出。

这三位计算机科学家术业有专攻,谈到AlphaGo接下来一周的表现,他们也表达了各自不同的看法:

  AlphaGo能不能赢?


科学人:AlphaGo马上就将与韩国职业九段李世乭对弈5局。作为AI方面的专家,你们觉得谁会赢?

周志华:就目前看到的技术信息而言,我认为机器达不到人类顶尖高手水平。比分会是1:4或者0:5。

凯文·柯伦:这次赛果很难预测。尽管AlphaGo的算法此前确实打败过欧洲顶级棋手,但李世乭的技术水平还要高得多。我个人期待AlphaGo在五番棋赛中至少能赢得一局,但即使这次没能击败李世乭,我也完全相信AlphaGo在不久的将来就能打败他。机器学习技术只会越来越进步,AlphaGo的研发人员也会将这些经验用在系统优化中。

史蒂夫·弗伯:在我看来,就算这次AlphaGo赢不了,下次它也会赢。

科学人:AlphaGo如果战胜李世乭,对人工智能的意义是否更胜于深蓝打赢卡斯帕罗夫?

凯文·柯伦:我认为是的。国际象棋的走法是有限的,因此计算机要算出正确的排列组合只是个时间问题。但由于围棋的可能性远远多于国际象棋,用传统的AI算法,比如暴力算法(brute-force)解决是近乎不可能的。在国际象棋的任一回合中,平均有35种可能的走法,但对拥有19x19棋盘的围棋来说,每一步都有250种走法,这250种走法中,每一步接下来又有250种可能的新走法,以此类推,围棋的走法多如恒河沙数。这就是为什么AlphaGo要采用混合型机器学习技术,将树搜索和深度学习结合起来——它的深度学习要通过既记忆人类下棋步法、又与自己对弈数百万次的过程才能实现,以此来学习致胜走法。

史蒂夫·弗伯:无可否认,这次对决是意义重大的,因为对于计算机来说,围棋比国际象棋要难得多。然而,至少在西方,国际象棋一直代表着智力挑战的最高水平,因此大众对于AlphaGo围棋比赛的关注度可能反不及当年的深蓝。

周志华:电脑围棋如果真能做到人类顶尖棋手的水平,而不是仅靠心理因素赢,技术上肯定有实质性突破,这会比深蓝的胜利更有意义。但这个仅靠这样的比赛是难以判断的,尤其是李世乭的棋风是电脑围棋最喜欢的对手类型。如果放出来到网上,让职业高手们都可以去跟它下,如果过一段时间之后,职业高手们仍认为它达到了顶尖水准,那才能确认。


计算机科学家周志华认为Alpha还不足以在比赛中击败李世乭。

科学人:像AlphaGo这样的人工智能,在决策方式上与人类的差别在哪?

周志华:我们还并不知道人类是如何决策的。

史蒂夫·弗伯:鉴于我们尚未解开人类思考之谜,我认为目前还没有足够理据来回答这个问题。我们目前能够确定的计算机与人脑之间的最大区别,在于计算机可以快速处理简单任务,而人脑可以低速处理复杂任务。

凯文·柯伦:我觉得两者最大的区别在于目前AI决策的应用有限。人类能够辨认并区分现实世界中的事物、明确地理解对话内容,并且基本能在现实生活中长期维持运作而不“出错”。但最优秀的AI也只能在理想的应用情境中实现以上功能的一部分。

打个比方,物体识别系统依靠针对识别对象预设好的特征配对资料库进行识别,因而也就依赖于正确解读图案的外部传感器信号。可这些信号通过二维相机传感器解读而来,而这一过程常常会出现分类识别错误。

同理,依赖于成熟AI技术的自然语言处理系统以及语音识别系统,也同样有可能遭遇人类在对话时不会遇到的问题。尽管所有这些功能性的AI系统每年都在取得巨大的进步,但它们也凸显着人类智慧与机器智能之间的差别。

  深层神经网络,其实并不神秘


科学人:一个成功的AI应当模拟人的思考方式吗?还是应当开辟一条新的路线?

周志华:做一个成功的飞行器,一定要模拟鸟的飞行方式吗?

凯文·柯伦:人工智能这个术语本身就是“仿人类智慧”的意思,它的核心应用正包括模仿并试图超越人类智慧。为此,目前最高级别的算法和程序都在模仿我们所知有限的大脑神经通路的工作方式。在未来,我们有可能另辟蹊径——设计出与我们认识中的智能运作方式不尽相同的方法来复制人类智慧。但在那之前,最有效的人工智能似乎仍是对人类思考方式的初步模仿。

史蒂夫·弗伯:一个问题在于,目前我们对“人类是如何思考的”还没有一个完整的认识。一旦我们有了全面的认识,AI就可能受人类思维模式的启发——但它并不会盲目照搬人类思维,就就好像飞机也有双翼,但不会像小鸟一样拍打双翼才能飞翔。我目前的研究重点是构建一个更接近大脑运作模式的机器,以此更好地理解人类智慧。不过,这还有很长的路要走!

从历史上来看,AI总是从接近生物性的地方开始模拟,然后利用工程优化实现分化。最新的例子是深度神经网络(Deep Networks),它代表着神经网络算法的回归,而且第一次成为了表现最好的机器学习算法!这些网路继而又形成不同分支,以适应实现一些重要的商业应用。

致力于在电脑中构建“人脑”的史蒂夫·弗伯。图片来源:hexus.net

科学人:深层神经网络是一个“黑箱”吗?

史蒂夫·弗伯:深层神经网络利用设置好的网络结构进行统计分析而获得学习能力,这只和接收处理的数据量有关,并没有什么神秘的。

凯文·柯伦:神经网络在某些方面可被视为“黑箱,但我们可以通过许多方式,对设置了合适限定条件、且功能有限的任务进行测试和验证,这个“黑箱”并不是深不可测的。当然,通过机器学习技巧作出的决策总会包含一些未知因素,因为在形成输出信息的过程中,任意决策点的各种输入信息和操作历史都有可能是未知的。

周志华:技术上我们所说的“黑箱”和普通人理解的“黑箱”可能不太一样。技术上来说,神经网络学习到的东西是蕴涵在其连接权和阈值中,不是显式的,这就是我们所谓的“黑箱”。这个方面,现在已经有一些研究,能够把神经网络学到的东西在一定程度上“显式”表现出来。

但普通人所理解的“黑箱”,可能是指神经网络能学到设计者所没有预期的“超智能”的东西。这个是没有的。机器学习是一门科学,学习模型都有理论上下限,使用了什么技术,能达到什么能力,都是有数的。就像人们造出来飞机,一定知道再怎么发展它也不会和真鸟在一起生小鸟。

科学人:AlphaGo能通过“强化学习”(reinforcement learning)策略进行自我对弈来提高围棋水平,这种提高会达到某个上限而使得学习无法进行下去吗?

周志华:通过“自我对弈”来提升,从技术上来看,实际上是让两个学习模型互相提供“伪标记样本”来进行提高性能。理论上已经证明,这种做法奏效的关键,是两个模型都不错,而且有足够大的“差异”。要注意的是,当模型性能提升以后,其差异会显著下降,到了一定程度必然会使性能无法继续通过这种机制提升。其上限取决于高质量“有标记”样本(相当于真实李世乭水平棋手的棋局)的数量。

凯文·柯伦:我认为不会。我们没有理由相信技术会有极限,特别是在AlphaGo这样的特定领域。诚然,如果我们讨论的是模拟或替代人类智能的人工智能,那我们可以说极限的确存在,因为可能性是近乎无限多的。但强化学习技巧已被证实优于许多领域正在应用的机器学习技术。

史蒂夫·弗伯:虽然深度学习目前已经实现了许多强大功能,但它仍然比不上人脑的战略规划能力。要想在各方面超越人类,AI还有很多东西要向人类智能学习。
 

  AI对人类不是威胁


科学人:人们时常能听到“AI再过多少年就将在某某方面赶超人类”这样的预言通常是怎么估算的?

史蒂夫·弗伯:在成为现实之前,所有这样的预言都只是猜。要知道,如今的计算机对十位数数字的叠加运算速度都已经达到人类的数十亿倍了。

周志华:我也不知道他们是如何估算的。

凯文·柯伦:我觉得这些预言一部分来源于科幻小说和好莱坞电影。这类预言最有力的支撑之一莫过于数学家弗诺·文奇(Vernor Vinge)于1983年提出的“技术奇点”。我一直很喜欢这种假说,它确实是一种合乎逻辑的推测。

凯文·柯伦表示科幻作品中的AI总是炫酷华丽,但生活中的AI其实低调得很。图片来源:plus.google.com

科学人:说到“奇点”,伊隆·马斯克和斯蒂芬·霍金都曾提出过“AI威胁论”,你们对这种观点有什么看法?

史蒂夫·弗伯:我是个奇点怀疑者——我认为,“智能”并不是一个通过测试反馈就能放大提升的单一物理参数。所以我并不认为AI对于人类是一个威胁。至于超乎人类的智能会是什么样的?我也不知道。

凯文·柯伦:提到AI,人们往往会想到它最“华丽帅气”的形象,比如经典科幻电影《银翼杀手》里能与人类沟通的人形机器人。可现实生活中的AI其实都比较低调务实:从飞机的自动驾驶到赛格威平衡车中陀螺仪的传感与方向维持功能,AI软件实际上是在各种现代科技的支持下运行的。任何需要制定“快速模糊”的决策的地方,往往都能看到AI的身影。

事实上,连谷歌一个简单检索功能都包含了AI模块——它的语言、语音、翻译以及视觉处理功能都是基于机器学习或AI技术。我觉得如今的AI远远未能企及这种技术发展所能达到的极限,而我也不认为AI将会统治世界。在我看来,高级的AI应该是能够在各方面为人类提供服务与益处的,就算需要承担一定的风险,那也是非常值得的。

周志华:对这个问题,请允许我引述深度学习——就是目前被媒体宣传得似乎无所不能的那个深度学习——国际上公认的三大带头人之一,Facebook人工智能实验室负责人Yann LeCun 的话:有些人是因为对人工智能的原理不理解而导致恐惧,有些人是为了个人名望而宣扬人工智能威胁论,有些人则是为了商业的利益推动人工智能威胁论。

科学人:下棋的本质也还是“解决”问题,更高级的AI是否可能触类旁通,甚至从事“创造”?

周志华:首先要给出一个严格的定义——什么是“创造”?例如对对联,写诗,作画这些算不算创造?如果算,那么机器在这些方面已经可以比大多数人强了。我的意思不是说机器真的会“创造”,而是说,在科学地讨论一件事之前,我们先要有一个明确的定义,例如什么是“创造”。否则没法有效讨论,因为相同的词汇可能在指代不同的东西。

史蒂夫·弗伯:现实生活中那些更加宽泛的问题——比如设计无人驾驶车辆——远不及围棋或国际象棋这样的封闭式问题易于理解。在这些现实应用上,我们几乎肯定不能只靠概率分布推算问题的解决方案,而必须开发新的技术。同时我们也得接受机器有时也会犯错——正如人类一样。

凯文·柯伦:如今的AI能够复制人类智慧能力的某些特定层面,计算机也已经能在有限的领域中解决很多问题。尽管AI实际解决问题的过程比较复杂,它的基本原理却非常简单:首先,AI需要通过传感器或人工输入搜集关于待解决问题的各种事实信息,然后在信息对比中储存数据,并分辨哪些是关键的、有意义的信息。计算机会运行各种可能发生的情景,然后通过收集到的信息预测出哪种方案最有可能成功。

当然,计算机仅能解决它的编程所针对的问题,并不拥有举一反三的分析能力——在很多人看来,这也许就是“技术奇点”一直仍未出现的原因。

科学人:如果有一天AlphaGo不下棋了,它的算法还能用来做些什么别的吗?

周志华: 算法本身未必能直接拿去用,但算法机理是可以的。

史蒂夫·弗伯:目前,深层学习已经被广泛运用于图像分类和语音识别(包括基于语义的语言翻译)等机器学习应用。AlphaGo只是深度学习在围棋领域的一个应用。

凯文·柯伦:AlphaGo可以应用在许多领域,包括解决对抗性问题,或者应用到一些能被视作竞赛的、策略起到重大影响的领域,包括商业、战争或金融交易。

短期内,它可以在智能手机助手等领域得到应用;长远来看,它可能将能够帮助科学家处理诸如气候模拟、医疗保障和疾病分析等难题,甚至帮助科学家研发出反应更加敏捷的机器人,使机器人对于环境的反应更加智能化。

最后,由于AlphaGo可以处理大量数据,并且能更快地为科学家带来有助于科研突破的深刻洞见,AlphaGo可能推进科研进度,与科学家携手合作,投入有希望产出研究硕果的领域。

(编辑:wuou,stellasun;排版:Calo)

感谢电气电子工程师学会(IEEE)对本文的贡献。



本文来自果壳网,谢绝转载

如有需要请联系sns@guokr.com

科学人
科研最新进展,学术最新动态,顶级学者的思考和见解。长按二维码关注科学人(微信号:scientific_guokr)。

点击“阅读原文”,听听围棋国手的看法


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存