下载安卓APP箭头
箭头给我发消息

客服QQ:3315713922

AlphaGo的技术能否带来适应真实世界的人工智能?

作者:课课家教育     来源: http://www.kokojia.com点击数:790发布时间: 2017-08-29 16:00:54

标签: 服务器大数据互联网

软考,您想通过吗?一次通过才是硬道理

  人工智能的这一波热潮毫无疑问是由深度学习引发的,自吴恩达等人 2011 年发表「识别猫」研究后,深度学习及其引发的技术已经在图像识别、游戏等任务中超越人类,并让机器学习技术的应用带入人们的生活。这种 AlphaGo 背后的技术是否是未来人工智能的方向?Fabio Ciucci 给出了他的看法。

AlphaGo的技术能否带来适应真实世界的人工智能?_互联网_课课家

  现在每一个人都在学习,或者正打算学习深度学习(DL),它是目前人工智能诸多流派中唯一兴起的一个。各个年龄阶段的数十万人学习着免费和收费的深度学习课程。太多的创业公司和产品的命名以「深度」开头,深度学习已然成了一个流行语,但其真正使用实际上很少。绝大多数人忽略了深度学习只占机器学习领域的 1%,而机器学习又只占到了人工智能领域的 1%。余下的 99% 则被用来处理实践中的绝大多数任务。一个深度学习专家无法与人工智能专家划上等号。

  深度学习并不是人工智能的同义词。谷歌、Facebook 等巨头公司宣传最多的人工智能工具主要是或者仅仅是深度学习,因此大众误以为所有的人工智能突破都(将)由深度学习实现。真实情况并非如此。决策树比如 XGBoost 不会成为头条,但却在很多 Kaggle 表格数据竞赛中低调地击败了深度学习。媒体暗示 AlphaGo 的成功全部归于深度学习,但实际上它是蒙特卡洛树搜索+深度学习,这表明深度学习单枪匹马很难取胜。很多强化学习的任务通过神经进化的 NEAT 而不是反向传播得到解决。人工智能领域存在着「深度误传」(deep misinformation)。

  我并不是说深度学习没有解决问题:它令人印象深刻。树和其他算法并没有完胜深度学习,某些任务上深度学习无法被取代,但是我希望未来一些非深度学习系统可被(重新)发现以击败深度学习,并解决了目前无法解释的黑箱问题。同样我也希望读到有关「灾难性遗忘」的深度学习文章,它是指在学习新知识时快速遗忘先前已学习知识的倾向,并且需要每天对抗「过拟合」。关于「智能」:深度学习只是简单地相信给到的训练数据,而不管什么是真与假,现实与想象,公平与不公。人类也会误信假新闻,但只是在某种程度上,甚至孩童都知道电影是虚构的、不真实的。

     20 年前,每个人都在学习 HTML,这个手动写网页的标记语言当时被认为足以成就一个亿万富翁。我学习每一项看起来有用的技术,如 HTML、手机 app 和深度学习,并且邀请其他人一些学习。事实上,你一生中不是只学习一次技术。1995 年 HTML 开始过时,无法满足需求,取而代之的是 CSS、Javascript服务器语言。同样地,深度学习有一天也会过时。大多数流行的手机 APP 根本用不到 HTML,那么,谁又会知道未来的人工智能 APP 用不用得到深度学习呢?

  实际上,深度学习是 1980 年代的技术,比 HTML 还老:由于有了更多的训练数据,1970 年代的「带有隐藏层的神经网络」获得新生,重新命名为深度学习之后被大肆炒作。1992 年我扼要地查看了神经网络以及分形分析(fractal)和细胞自动机的源代码。正如绝大多数人一样,当时我并没有选择深度学习,只是把它当作毫无实际价值的学术数学难题。相反,我聚焦于视频游戏的 3D 技术,因为它可以即刻获得结果;后来我又开始关注互联网等。但是我们都错了,深度学习借助大数据可以大有作为。2015 年 Deep Dream 简直令我着迷,接着是 GANs 等。但是,深度学习并不是人类可以创造的人工智能科技的终点。

  数十年来,「古老」的深度学习技术已被广泛研究和更新以更准确地解决更多任务,但是没有一个深度学习网络(卷积、RNN、RNN + LSTM、GANs 等)可以解释其自身的决策。无疑深度学习还会解决更多的问题,取代更多的工作,但不太可能解决所有的问题,或者保持惊人的进步以自我解决黑箱问题或者为之正名。

  哲学家柏拉图与亚里士多德:深度学习无法理解他们

  未来人工智能应探索其他的新方法,或者已存在却被忽视的方法,而不仅仅是深度学习。深度学习的一个局限是把数据中最常遇见的内容作为真理,把统计学上较稀少的东西看作假的。深度学习的公正性并非来自其自身,而是人类筛选和准备的数据。深度学习可以阅读并翻译文本,但不是以人类的方式。如果使用超过 100 本书训练深度学习模型:40 本书告诉仇恨、战争、死亡和摧毁如何是坏的,60 本书告诉希特勒的纳粹思想是好的,那么该模型最终会成为 100% 的纳粹!

  深度学习靠自己永远无法明白为什么杀害犹太人、同性恋以及残疾人是错误的,如果在训练数据集中纳粹主义是最流行的观点。难怪深度学习无法解释其自身决策,除了「我(深度学习)读到最多的是「纳粹主义是正确的」,因此它应该是正确的」。深度学习将会学习并模仿最具缺陷的逻辑,包括恐怖主义。甚至孩童可以自己明白电影中那个家伙是坏人,但是深度学习做不到,除非人类首先明确教导它。深度学习中有些东西很酷,比如带有反向传播的梯度下降、自定义深度学习硬件;但这多是统计学和几何学的,很可能不会出现在 2037 年的人工智能时代。

  对很多任务来说,深度学习 AI 正在或者将会变的违法。收集 28 个欧洲国家公民数据的人或公司应在 2018 年 5 月 25 日起遵循《一般数据保护条例》(GDPR),届时欧洲的一些 APP 将被禁止使用深度学习,这导致初创公司拼命寻找深度学习的替代方案,否则将面临罚款的危险。罚款金额为全球营收的 4%,包括美国部分。关于自动化决策的 GDPR 要求深度学习具有解释其决策的能力,防止基于种族、观点等的歧视的发生。类似于 GDPR 的法律已在全球广泛制定,这只是时间问题。《美国公平信用报告法》要求披露所有对消费者信用评分产生不利影响的因素,数量上限是 4 个。深度学习的因素可谓海量,而不仅仅是 4 个,如何将其简化为 4 个呢?人工智能,正如比特币 ICO,开始忽视法规,但是法律与惩罚一直会在。

  采取更多相关决策而不是区分一张图像是否是猫,或者在自拍的哪部分添加兔耳的深度学习系统将会被非深度学习系统取代。人工智能必须是负责任的,可以使用简单、合法有效的语言向法官和用户解释其输出结果,这与深度学习大不相同。深度学习的复杂性,对法官和用户来说就像是魔术,是一种法律风险,而不是一个很酷的未来。深度学习将会建议或警示人类,比如从医疗图像中检测疾病,并获得医生的验证,但这是部分的自动化,缺乏细节。我们将向因为人工智能而被拒绝并寻求解释的人们(工作、贷款被拒绝等)诉说什么呢?

  法律包含「解释权」,比如,为什么工作或贷款被拒绝。深度学习给出了非自然(合法)语言解释的结果。深度学习的代码容易获得,却不为法官或用户所接受,因为即使最好的数学家或其他算法也无法搞明白它,将模型简化成可以理解的语言。即使由人类做出最后的决策,人工智能也应给出详细的理由。没有人知道如何修改深度学习以给出简单的人类可理解的解释,因此深度学习不可能做到顺从。这一问题同样影响到了若干个其他人工智能和机器学习算法,但不像深度学习那么严重。比如,如果决策树被提升或集成,它也会不可解释。但是未来,新的或者重新发现的已解决了黑箱问题的人工智能,将会在常规决策方面取代深度学习和人类。

  在 GDPR 的情况中,只有人类可以拒绝一个应用:人工智能可自动化积极的结果;如果它拒绝了一项贷款、工作等,就应该将这项任务交给人类来处理这些消极的结果。但是在拒绝的情况中,人类将不会从基于深度学习的人工智能中获得帮助或解释,他们不知道深度学习的逻辑是否正确。他们不得不自己从头检查数据,以决定是否最终拒绝。风险在于为了节约时间和成本,人类会做出假的解释,并盲目接受人工智能的认可。安全起见,对于接受和拒绝,你都要有充足的理由,无论 GDPR 中说了什么。非深度学习的 AI 系统把所有决策的解释提供给用户、法官和支持人员,将最终被人类采用,用于做出完全和部分的自动化决策。

  在法律和深度学习之前,解释性已经是一个大问题。在反垄断案例中,谷歌等公司被质问为什么是这个产品而不是其他产品出现在搜索结果中,这也是深度学习出现之前的事:很多其他的算法同样以疯狂的方式混合算法以得到结果,因此没有人类可以轻易地推论出决策原因。法官被告知工程师并不了解详情,线性代数的页面被当作证据。这无法善终:在特定的法律存在之前,多个案例承担着数十亿美元的罚款,甚至收到变更系统的警告。用户的集体诉讼根据商店、银行的自动决策单元自动拒绝工作、贷款、退款等,正越来越普遍。无法解释意味着没有防卫、被罚款以及一场品牌公关灾难。

  对大部分人来说,「人工智能」是科幻电影《人工智能》(AI)中能够给出聪明解读的 AI,电影中人类可以快速决定自己是否同意,这样易于进行法律验证(legal validation)。大多数听说过「AI-first」或「使用 AI」公司的人,包括法官和撰写《一般数据保护条例》(GDPR)等法律的人,期待 AI 像电影中一样,即使被法院传召,也能够捍卫自己的决定,这令用户和法官都印象深刻。但是,与期待不同,我们得到的是无法解释的「深度学习人工智能」,这些人工智能即使在能够解决的问题上也不经常得到使用,因为其缺乏可解释性。深度学习不会节省成本,也不会取代那些需要敏锐的自动决策的工作。即使在人类必须作出最终决策的情况下,工具 AI 解释自己的建议也比 AI 不给出缘由就做出回应要更加可取。可解释的 AI 一旦被(重新)发现,将会更加安全、合法、廉价、快速,取代深度学习和人类。深度学习在 20 世纪 60 到 80 年代发明,2010 年以来重新被发现;或许未来可解释的 AI 的基础也已经被某些研究者描述出来,但是由于不是深度学习,所以可能在几十年内都没人关心和开发,直到它们被重新发现和炒热。

  关于自动决策的 GDPR 也需要防范根据种族、意见、健康状况等产生的歧视。但是使用用户生成的数据(如社交媒体和新闻,不指真实的数据,如医疗或财政记录)训练的深度学习模型通常暗含邪恶的偏见。如前所述,深度学习可以读取大量文本和数据,并模仿其内容,但无法理解内容。深度学习只相信它在数据中频繁看到的事物、底层模式和趋势,因此它会放大人类社会的偏见和问题。数据显示被逮捕的黑人比白人多,那么一旦有人犯罪,深度学习将首先怀疑黑人;数据显示公司董事会董事中男性比例高于女性,则深度学习将在招聘中更倾向于男性应聘者。

  深度学习决策会比训练数据的平均样本包含更深刻的偏见,如种族歧视、性别歧视。这个问题在所有的机器学习算法中都有发生,但是深度学习模型是其中最难测试、检测、控制和调整的。这个问题很难解决,这引起很多深度学习实验突然取消,从聊天机器人变得纳粹化、充满仇恨,到美图软件中给黑人照片美白。

  深度学习是一个神经网络,你无法单独编辑每个答案的输出结果。

  你无法通过在训练之后添加补丁,来修复一个带有偏见、种族和性别歧视的深度学习模型。深度学习是一个神经网络,与其他 AI 方法不同,你无法编辑某个答案,而是必须使用全新的、完全公正的、稀有的数据对该网络进行重新训练。深度学习可以在不理解的情况下模仿数据中的内容:它不会否定任何数据,不会发现社会上的偏见,而只是「学习所有数据」。你应该雇佣一个人类员工,专门创建假的完美、公正的数据。但是,由人类专家编辑创建海量无偏见数据的成本仅为了训练深度学习模型,又怎么可以说用 AI 取代人类呢!此外,即使你已经训练出真正公正的深度学习模型,你也无法向法官或用户证明其决策的公正性,因为它无法提供解释。

  深度学习的重要性应该降低,用于没有法律风险的非商业 app 或游戏。当可解释的 AI 变得流行,深度学习将会像磁带一样被抛弃。在游戏中输给机器人的人类不太可能说服法官对 AI 公司罚款,因为你无法解释 AI 是怎么赢的。不满 FaceApp 把自己的自拍照修的更老、更年轻,或者换了性别的人也不太可能说服法官对 FaceApp 罚款,因为你无法解释 AI 是如何决定新面孔的。在医疗图像中进行疾病检测是一项安全的深度学习应用,前提是用户在服药之前先向人类医生寻求确认。

  合法的深度学习市场非常有限:在决策结果造成财政、健康上的区别,或者存在歧视性,而深度学习无法理解决策是否公正以及为什么公正的时候,法官可以处罚。那么自动驾驶呢?似乎在艺术、游戏或高级幽默以外的领域使用深度学习都有法律风险。现有的非深度学习方法可以取代深度学习,新方法也会被(重新)发现,因此 AI 的发展将会顺利进行。尤其是每个人研究(并投资)AI 和机器学习科学领域中的所有新旧算法,而不只是深度学习:这也是成为「人工智能专家」的唯一路径。

  深度学习除了正在「非法」用于很多可解任务以外,它也不能被用于解决以下一系列问题:那些需要抽象推理来找出数据中哪些是公平,哪些是不公平的任务,那些需要解释其中的逻辑,并自行作出决定的任务。即使对于那些不需要解释的任务来说,深度学习看起来是最好的系统(如图像识别),但是也不如人类自己那样具有稳定性。你可以轻而易举地使用对抗样本来让深度学习系统出错:为一张猫的图片加入一些特殊的噪点,机器就会把它误认为其他不相关的东西,而人类绝不会犯错。如果街边的路牌被对抗样本黑掉了,现在的自动驾驶汽车将不再安全。新一代的人工智能系统必须克服这个问题——它也将取代深度学习。

  著名深度学习库 Keras 作者 François Chollet 曾在一篇名为《深度学习的限制》的文章中说到:「深度学习唯一真正能成功做到的是使用几何变换,在给定大量人类标注数据的情况下将空间 X 映射到空间 Y 的能力。」这些空间拥有多维,不仅仅是三维的,这就是深度学习可以模仿毕加索风格作画、在德州扑克中 Bluff,以及在其他一些方面里展示创造力的原因。但是对于外行人来说,这也许意味着:深度学习模型可以被训练成拥有识别猫的能力,但本身不知道什么是猫;可以是一个种族主义者,但不知道什么是种族主义。深度学习可以识别猫、具有种族主义,并赢得很多游戏,这看起来是令人瞩目的进步,但深度学习无法解释为什么图中的动物是猫,也无法定义种族主义。

  在《深度学习的未来》中,Keras 的作者描述了一种只有「几何模块」的全新深度学习系统,它应该与尚未出现的「算法模块」和「元学习器」相关。这种方式可以显著增加可以解决问题的类型与数量,但因为深度学习模块的存在,这种方式仍然无法解释决策的机制。这就像我们不能用言语解释大脑中计算出的某些感觉或图像。人类可以解释自己的想法,但这种解释过于简单化,不甚准确。机器的算法却总被要求完全准确。有一些专家正在开发完全不包含深度学习的全新人工智能系统,但他们缺乏支持:现在所有人都只投资深度学习,而这个风潮还将持续一段时间。没有人知道下一个人工智能浪潮将会是关于什么的,但看起来不会是深度学习 2.0。

  深度学习正处于过热状态,因为只有与深度学习软/硬件相关的人正在不断讨论它。你可曾见过任何「自然智能」专家,如心理学家和哲学家支持过深度学习?

  如果你不太了解人工智能,或者还没有时间来学习,我认为你可以等待下一代人工智能系统的兴起,直接跳过深度学习 1.0 时代。如果你有这方面的需求,我建议你深入了解整个人工智能及机器学习领域的知识——而不仅仅是深度学习。在人工智能成为火热概念的今天,我们更需要冷静的思考。