闲话当下的人工智能

围棋人机大战,AlphaGo能以4:1战胜李世乭,这出乎我的意料,众所周知高端围棋的战术难度之大,很多时候如何下一步棋,各路高手都有不同意见,战略选择以及取舍之类很主观、感情的判断,如今居然被冰冷冷的电脑用算术方式解决了。简单比喻,原本讲究技术与艺术相结合的博弈游戏,到如今只剩下技术派炫耀赢棋的实力,怎不让人唏嘘感叹?

AlphaGo是赢了,但我们仍旧可以说AlphaGo并不懂围棋。都说这棋盘之上可见人品,故围棋也称手谈。这不同心性的人有不同的走棋风格。当今AlphaGo追求唯胜走法,说好听是不拘一格,说难听点就如李开复所言,AlphaGo大局虽强,但其实它根本不知道什么叫大局。

无怪乎AlphaGo之父、DeepMind联合创始人德米斯-哈萨比斯表示,人工智能的下一步目标是让计算机自己学棋。也就是说,下个版本的AlphaGo将从零开始,不接受人类的灌输的特定知识。这有助于AlphaGo形成自我棋风,但也不能保证AlphaGo一定会懂得围棋。照说,能赢李世乭的机器不懂围棋,是很奇怪的一件事。但这背后牵扯了意识的本质问题。

人类现在创造的人工智能,都是被用于特定领域解决针对性问题。即便AlphaGo可以自我学习,也仅限学下围棋罢了。这说明所谓人工智能,本质上仍只是工具,是一种按照人类定义各种规则、进行加减乘除比较计算然后给出指定结果的高级工具,它再怎么高级也只是死的工具。须知我们心中理想的智慧,应该是有通用性,能触类旁通,并具备极强可塑性,目前看来,这真正意义上的人工智能距离咱仍比较遥远。

另外,现在表现比较好的人工智能都用了神经网络技术不断强化训练过,通常情况下做识别、判断都有很不错的正确率,但在意料不到的对抗样本面前也会表现的很蠢。这所谓的对抗样本,就是针对正常情况,正常的数据做了一些有针对性的、极为细微的变化。就好比在一张猫的照片上加了一根毛,这种变化对人来说可以忽略不计,但机器遇到了这种有针对性的对抗样本,立刻会犯错认为那照片不是猫,而是马。对抗样本是所有以神经网络技术构建出来的人工智能共同的BUG,目前还难以避免。

而且,目前的人工智能遇到对抗样本犯错,就是揭露了上文所说的一个深刻的问题,即,你以为机器被训练出来做这一件事,它就是这领域的专家,其实,它并非真的懂,或则说,它所认识的这件事的眼光,跟人是完全不同的。如此说来,李世乭第四局那所谓神一般的妙手,可能正好是构建出了AlphaGo棋盘识别的对抗样本,李世乭这一手明明极好破,可AlphaGo硬是犯傻连错好几步,以至于输掉了整局棋。

最后,假如机器真的学会像人一样看待所有的事物了,便不会犯下遇到对抗样本这样愚蠢的错误,那它还是机器么?而具有高速运算,精确无比的机器,又需要像人一样看待所有事物么?

觉得好可以点个赞!
(3个赞)
Loading...