让AI与人类的价值观保持一致,怎么就这么难?

科技行者 閱讀 3777 2021-2-4 14:19
分享至
微信掃一掃,打開網頁後點擊屏幕右上角分享按鈕

让AI与人类的价值观保持一致,怎么就这么难?

经过六十年的研发,让AI系统在目标、意图与价值观层面与人类保持统一,仍是个遥不可及的目标。

几十年以来,我们一直在努力按自己的形象开发出人工智能。在此期间,我们也始终致力于创造一种既像人类一样睿智、又像人类一样愚蠢的机器。

但经过六十年的研发,让AI系统在目标、意图与价值观层面与人类保持统一,仍是个遥不可及的目标。AI几乎已经在各个主要领域达到与人类智能相近、甚至更高的水平,但又总是在最核心的范畴内有所欠缺。正是这种欠缺,导致AI技术无法成为我们所期望的、真正拥有更改及行事逻辑的智能主体。

程序员兼研究员Brian Christian在最新著作《机器学习与人类价值观之间的一致性问题》(The Alignment Problem: Machine Learning and Human Value)当中,讨论了我们该怎样确保AI模型能够捕捉到“我们的规范与价值观,理解我们的意思或意图,并据此做出优先级判断”这一现实挑战。近年来,随着机器学习应用范围的逐步推广,在实际领域中做出错误决策很可能带来灾难性的后果。正是这样的背景,让Christian提出的问题变得愈发紧迫。

根据Christian所述,“随着机器学习系统的日益普及与功能的逐步增强,我们开始变得像「新手巫师」——我们掌握着一种具有自主性的力量,我们似乎可以用指令引导这种力量,但如果指示不够准确或不够完整,就有可能引发某些可怕且超出意料的后果。”

在书中,Christian全面描述了人工智能的现状以及整个发展历程,同时探讨了现有AI创建方法的种种缺陷。

下面来看书中的几大要点。

让AI与人类的价值观保持一致,怎么就这么难?

机器学习:将输入映射至输出

在AI研究的前几十年中,符号系统在解决以往涉及逻辑推理的复杂问题时,取得了举世瞩目的成就。然而,这类系统反而很难解决人类儿童就能处理的小问题——例如检测物体、识别人脸、理解声音与语音。此外,这类系统的可扩展性也比较差,往往需要大量人工介入以建立明确的规则与知识定义。

最近,全世界对机器学习与深度学习的关注开始快速增长,同时也推动着计算机视觉、语音识别与自然语言处理等领域(传统符号AI无法处理的领域)的迅猛发展。机器学习算法可以跟随数据量与计算资源同步扩展,借此带来了人工智能的黄金十年。

但问题在于,机器学习算法的效果虽然相当突出,但本质却仍然简陋——将观察结果通过复杂的数学函数与结果映射起来。因此,机器学习的质量将直接由数据质量决定,而且会在实际应用并接触到与训练数据不符的真实素材时,产生严重的性能下降。

在书中,Christian列举了一系列实例,阐述机器学习算法遭遇的各种尴尬、甚至具有危害性的破坏。以Google Photos分类算法为例,该算法会将皮肤黝黑的人标记为大猩猩。问题不在算法本身,而在于所使用的训练数据。如果谷歌能够在数据集中纳入更多皮肤黝黑的素材,完全可以避免这个问题。

Christian写道,“当然,从理论上讲,这类系统可以从一组示例中学到任何知识。但这也意味着AI系统的理解方式完全受示例左右。”

更糟糕的是,机器学习模型无法分辨对错,也无法做出道德决策。机器学习模型的训练数据中存在的任何问题,通常都会以极细微、甚至根本无法察觉的方式反映在模型行为当中。例如,Amazon于2018年关闭了用于做出雇用决策的机器学习工具,因为其决策结果明显歧视女性。很明显,AI的创造者并不希望根据性别来选择候选人,但由于模型训练使用的数据来自Amazon公司的过往记录,因此反映出了其用人方面的某些倾向。

这还只是机器学习模型偏见问题中的冰山一角。正是由于存在这些问题,由于机器学习模型会盲目根据我们以往的行为总结经验,才让我们无法充分信任这类工具。

Christian写道,“对真实世界建模相对简单,但模型在付诸使用后总会出现种种变化,甚至反过来改变这个世界。目前大部分机器学习模型在设计当中存在一种广泛假设,即模型本身不会改变其建模所依据的现实。但这种假设几乎完全站不住脚。实际上,草率部署这类模型很可能会产生反馈循环,导致我们越来越难以将其扳回正轨。”

对于数据收集、模式查找以及将模式转化为行动等层面,人类智能应该发挥更大的作用。机器学习的现实挑战已经证明,我们对于数据乃至机器学习的很多假设性认识完全是错的。

Christian警告称,“我们需要作出批判性思考……除了重视训练数据的来源,还应重视系统中作为基本事实的标签来源。人们认为的基本事实,往往并不是基本事实。”

让AI与人类的价值观保持一致,怎么就这么难?

强化学习:奖励最大化

强化学习同样帮助研究人员实现了非凡的成就,使得AI能够在复杂的电子游戏中击败人类冠军。

过去十年以来,作为AI技术的另一大分支,强化学习同样获得了广泛关注。强化学习要求为模型提供问题空间加奖励函数规则,之后就由模型自主探索整个空间,找出能够实现奖励最大化的方法。

Christian写道,“强化学习……帮助我们一步步探索着智能的普遍、甚至是最本质的定义。如果说John McCarthy提出的「智能是实现真实目标的能力中的计算部分」的说法真实可靠,那么强化学习相当于提供了一套惊人的通用型工具箱。它的核心机理就是在一次又一次试错当中,摸索出新时代下一切人工智能方案的共通基础。”

强化学习确实在雅达利游戏、围棋、《星际争霸2》以及DOTA 2等游戏中表现出色,并在机器人技术领域得到广泛应用。但成功的背后人们也开始意识到,单纯追求外部奖励并不能完全体现智能的运作方式。

一方面,强化学习模型需要漫长的训练周期才能得出简单的判断能力。因此,这方面研究成为极少数掌握无穷资源的科技巨头的专利。另外,强化学习系统的适用性也非常有限——能够在《星际争霸2》中击败人类世界冠军的系统,却无法在其他类似的游戏中触类旁通。强化学习代理也更倾向于通过无止境的循环,以牺牲长期目标的方式追求最简单的奖励最大化路径。以赛车游戏AI为例,它经常会陷入不断收集奖励物品的死循环,却总是赢不下整场比赛。

Christian认为,“消除这种与外部奖励的硬性联系,可能才是构建通用型AI的诀窍所在。因为与雅达利游戏不同,真实生活并不会为我们的每种行为预先设定明确的实时反馈。当然,我们有父母、有老师,他们可以及时纠正我们的拼写、发音和行为模式。但是,这些并不是人生的全部,我们的生活不可能由权威所全面掌控。我们需要根据自己的观点与立场做出判断,这也正是人类族群得以存续发展的根本前提。”

Christian还建议,不妨根据强化学习的原理反其道而行之,“结合预期行为考虑如何构建环境奖励,引导模型一步步掌握行为模式。这就像是面对美食评论家做出一份份食物,思考如何才能获得对方的肯定。”

让AI与人类的价值观保持一致,怎么就这么难?

AI有必要模仿人类吗?

在书中,Christian还讨论了开发AI代理的意义——让这些代理模仿人类行为,真的有意义吗?自动驾驶汽车就是典型实例,代理会通过观察人类司机学习如何驾驶车辆。

模仿确实可以创造奇迹,特别善于处理规则及标签不够明确的问题。但是,模仿也会继承人类智能中的欠缺。人类在年轻时往往通过模仿与死记硬背学习大量知识,但模仿只是我们发展出智能行为的多种机制之一。在观察他人的行为时,我们会根据自己的限制、意图、目标、需求以及价值观调整出适合自己的处理方式。

Christian写道,“如果模仿对象比我们更快、更强壮、身材更高大,那我们就没办法完美模仿他们。这时候一味坚持模仿,只会影响我们解决问题的能力。”

诚然,AI系统确实通过观察并预测我们的行为,尝试以模仿的方式提供帮助。但很明显,AI系统并不像人类这样受到种种约束与限制,因此会导致其误解我们的意图,甚至放大我们的某些不良习惯,最终将负面影响扩散到我们生活中的方方面面。

Christian写道,“我们的数字管家正密切关注我们的私人生活与公共生活,审视着我们好的一面与坏的一面,但却并不清楚这些因素到底有何区别、有何联系。AI系统好似生活在一处诡异而复杂的山谷:能够从我们的行为中推理出复杂的人类欲望模型,但却无法理解这些欲望从何而来。它们努力思考接下来该做什么,但不了解我们想要什么、又是怎样成长为我们自己。”

未来在哪里?

机器学习的进步表明,我们在创造思想机器方面已经取得了一定成就。但是,机器学习带来的挑战与影响,也再次提醒我们应该正视理解人类智能这一前提性难题。

AI科学家与研究人员正探索多种不同方法,希望克服这些障碍,打造出让人类只受益、不受害的AI系统。而在达成这项目标之前,我们需要谨慎行事,不可贸然为这类系统赋予过多权限。

Christian最后警告称,“着眼于当下,最危险的行为就是在机器学习领域找到一种看似合理的模型、急于宣告研究成功——这可能会给整个社会带来灾难性的后果。”

btcfans公众号

微信掃描關注公眾號,及時掌握新動向

來源鏈接
免責聲明:
2.本文版權歸屬原作所有,僅代表作者本人觀點,不代表比特範的觀點或立場
2.本文版權歸屬原作所有,僅代表作者本人觀點,不代表比特範的觀點或立場
標籤: AI
上一篇:阿里拍卖平台拍卖2100余台比特币“矿机” 下一篇:杜均回归火币三个月:不只是负责币价

相關資訊