
第二节 今天的人工智能还不能做什么——人工智能的局限
2018年10月,采用生成式对抗网络技术(GAN)创作的肖像画“Edmond Belamy”在纽约佳士得拍卖行卖出43万美元的高价,如图2-7所示。

图2-7 肖像画“Edmond Belamy”[11]
不难看出,该作品虽然绘制的是肖像,但人脸细节模糊不清,背景也并不是十分协调。如果是一位人类画家创作的作品,他还可以解释自己的灵感来源和主要遵从的流派为何。然而,采用人工智能技术作画,我们很难还原系统究竟经过怎样的决策过程选择了这样创作一幅作品。相较于人类对艺术产品的需求,目前人工智能的能力还十分有限。
从人工智能系统的运作结果来看,人工智能系统与人们期待的“强人工智能”或“通用型人工智能”相比,仍有以下的局限。
一、不具备常识
人的常识,是极其有趣的,又往往是只可意会、不可言传的东西。常识,我们可以理解为普通知识,即一个生活在社会中的心智健全的成年人所应该具备的基本知识,包括生存技能、基本劳作技能、基础的自然科学和人文社会科学知识等。
常识是人类无须特别学习就能具备的认知、理解和判断能力。我们在生活中经常会用“符合常识”或“违背常识”来判断一件事的对错。但是在这一类判断中,我们都无法说出为什么会是这样判断的。也就是说,在我们头脑中都有一些几乎被所有人认可的东西,无须仔细思考就能直接使用的知识、经验或方法。
拿物理现象来说,如果懂得力学定律,便可以用符合逻辑的方式,全面理解这个世界。但是,人类似乎生来就具有另一种更加神奇的能力,即使不借助逻辑和理论知识,也可以完成某些相当成功的决策或推理。
深度学习大师约书亚·本吉奥举例说:“即使两岁的孩童也能理解直观的物理过程,例如丢出的物体会下落,人类并不需要有意识地知道任何物理学就能预测这些物理过程,但机器做不到这一点。”
例如,在自动驾驶汽车上,计算机需要靠学习已知路况来积累经验。当自动驾驶汽车遇到难以判断或从来没见过的危险时,计算机仍然很难正确处理和应对。目前为止,世界各地自动驾驶车辆发生的事故,部分原因是自动驾驶系统误判了路上物体的大小、速度和性质。
二、缺乏抽象能力和自我意识
抽象能力,就是在思维活动中通过对事物整体性的科学分析,把自己认为的事物本质方面、主要方面提取出来,舍弃非本质、非主要的东西,从而形成概念和范畴的思维能力。
目前的深度学习技术,几乎都需要大量的训练样本来让计算机完成学习过程。可人类,哪怕是小孩子在学习新知识时,通常只需要两三个样本。其中最重要的差别,就是抽象能力的不同。
例如,当一个小孩看到第一辆汽车时,他的大脑中就会将汽车抽象为一个盒子装在四个轮子上的组合,并将这个抽象后的构型印在脑子里。当下次再看到外观差别很大的汽车时,这个小孩仍可以毫不费力地认出那是一辆汽车。
但计算机还很难实现这一点。在人工智能界,少样本学习、无监督学习方向的科研工作,目前的进展还很有限。
此外,自我意识,是指人对自身的身心活动的觉察,即自己对自己的认识,具体包括认识自己的生理状况(如身高、体重、体态等)、心理特征(如兴趣、能力、气质、性格等)以及自己与他人的关系等(如自己与周围人们相处的关系、自己在集体中的位置与作用)。
缺乏自我意识的机器人只能按照人类设定的任务,执行帮助人类打理家务、修整花园、打扫街道、开采矿石、操作机器、建造房屋等具体指令,但在工作之外的其他时间只能呆坐在电源旁充电,或者与其他机器人交换数据。没有自我意识的机器人与人类之间,仍是属于工具和使用者之间的关系。
三、完成艺术相关的工作困难
现在不少人工智能可以完成诗歌、散文和绘画作品的创作,但稍微仔细阅读便可发现,这些创作离人类的感情和意识还有很远的距离。如2016年,上海波森数据科技有限公司推出的智能作诗机器人“编诗姬”,虽然能够在3秒内就作出一首五言诗或七言诗,但意境不足,很难称为一首好诗。日本公立函馆未来大学松原仁教授团队利用人工智能创作的小说能够通过日本“星新一”文学奖比赛的初审,但润色加工仍需要人类完成。本章开头引用的百度大脑的诗作,同样很难让人体会到精妙之处。
就书法作品而言,阿里云人工智能ET(人工智能系统)可以为员工写春联,其写出来的春联如行云流水,堪比书法家。但是机器写出来的字,却不能代替人类的书法。我们在欣赏书法家的书法作品时可以发现,同一个人在不同的情感背景下写出来的字就有很大的差异。如苏轼的书法,在作者不同的生活背景下,表现出来的意境也不同。《黄州寒食诗帖》是他被贬到黄州时的作品,因为当时的生活艰苦,环境恶劣,作者心情郁闷,他写出来的书法作品也有相应的反映:整体上起伏不平,字形大小对比悬殊,给人们带来强烈的视觉冲击。人类书法能体现作者的各种情怀,这些是人工智能无法模仿的。
在美术绘画方面,机器人可以掌握色彩平衡的规律,但是真正的美感却并不只限于色彩平衡。艺术创作是独立、纯粹的审美创作活动,画家创作都是从社会生活中寻找灵感,不是简单的复制生活,这也是艺术家不可被替代的原因。
专栏2-3 人脸合成的困境
图2-8是人工智能公司Indico Data Solution与Facebook的科学家们使用计算机合成的一系列人脸。乍一看效果还不错,每张人脸都可以算作有模有样,但放大后就会看出这个合成技术存在明显的问题。

图2-8 计算机合成人脸[12]
显然,部分人脸合成中出现了一些问题,脸型、五官和整体的比例出现了问题。这是目前人工智能合成人脸中的主要挑战之一。尽管部分人脸与正常人脸相比偏差并没有很大,但人类还是能够明显感知区别,如图2-9所示。这或许可以用“恐怖谷”理论加以解释。“恐怖谷”理论指出,当一个物体的特征非常接近人类时,它身上存在的异于人类的部分就会被无限放大,引起人们的反感。本节开始部分的肖像画可能也存在这个问题,但在艺术作品中人们可能已经见怪不怪了。

图2-9 计算机合成人脸的失败作品
四、缺乏人文关怀
人工智能不太容易能捕捉到情感的信号。尽管机器有很多类似的工作来识别人的情感、文本中的情感信息等,但是离机器可以帮助人类做心理辅导,还有很长的一段距离。
例如,护理机器人的出现,在某些方面确实改善了老年人面临的一些生活难题。但纯粹依靠科技是不能解决老年人的孤独问题的。近些年来,日本应对老龄化问题的主要研发方向是“机器人养老”。Cyberdyne公司生产制造的HAL机器人就是一个典型的例子。但是机器人照顾老年人的实际效果并不尽如人意,老年人更渴望由人类来照顾。机器人尽管能帮助老年人做很多事情,但机器人只是劳动的替代者,而不是精神问题的解决者。面对老年人可能更需要的是解决人际交流问题,机器人在这方面却无能为力。
人工智能在应用上会有如上的问题,可能与其基本性质有关。第一节中我们曾讨论过,人工智能系统受到计算机系统的影响。硬件、数据、算法、算力等因素都可能对其产生影响。
人工智能硬件与算力问题一直是影响人工智能的重要问题。早期的人工智能,科学家使用电子管计算机,计算能力比较有限,因而更为简单直接、不需要大量运算的符号主义方式就受到欢迎。近些年来由于CPU和GPU等芯片的算力大幅提升,对算力要求巨大的深度神经网络算法才得以实现。直至今日,算力仍然是制约人工智能发展的重要因素。
中国的人工智能企业采购了大量的先进的人工智能计算芯片。例如,商汤科技仅采购英伟达(NVIDIA)Tesla计算芯片的开销就接近10亿元人民币。目前,诸如华为、阿里巴巴这样的企业不断研发算力更高的人工智能芯片,阿里巴巴平头哥公司的“含光-800”AI推理芯片和华为海思公司的“昇腾910”AI芯片是其中的优秀代表。
人工智能算法的局限主要体现在其受数据质量影响表现出的脆弱性。如果人工智能系统在训练时没有考虑到应用场景中的全部问题,那么在实际应用中,可能因为数据的一些缺陷和噪声造成结果的不可靠。例如,科学家们曾将用于训练的图片去除了一些像素点,采用图像识别的人工智能系统训练,其结果就不太可靠。
数据问题对人工智能系统的影响与其对社会的影响同样重大,特别是可能发生个人隐私泄漏等严重问题,本章最后一节将对这些问题进行探究。