人工智能会取代人类主宰战场吗?从ChatGPT看人工智能的军事应用

奔跑财经 閱讀 36278 2023-4-13 10:17
分享至
微信掃一掃,打開網頁後點擊屏幕右上角分享按鈕

今年3月中旬,聊天机器人程序ChatGPT推出了最新版本GPT-4,可支持多元的输入输出形式,使其具备了更强的专业学习能力。作为一种基于人工智能(以下简称AI)技术的聊天程序,ChatGPT一经推出,便引起社会各界广泛关注。甚至有人惊呼,AI将取代人类主宰战场。ChatGPT究竟会给军事领域带来哪些变革?AI是否会超越人类?带着这些问题,本文从ChatGPT入手,为读者梳理出一条AI大致的军事应用脉络。

ChatGPT的潜在军事价值

ChatGPT受到关注的重要原因是引入了新技术RLHF。所谓RLHF,就是通过人类的反馈来优化模型算法,使AI模型的输出结果和人类的常识、认知、价值观趋于一致。简单来说,就是跟过去的AI模型相比,ChatGPT“更像人类”了。这种“像”主要体现在自然语言处理方面,即语义分析和文本生成。语义分析方面,用户的任何问题基本都能够得到有效回应,不像过去很多时候“驴唇不对马嘴”;文本处理方面,任何问题的答案都看起来逻辑通顺、意思明确、文笔流畅。应该说,这堪称自然语言处理领域的重大突破。

这一技术显然可以应用于军事领域。平时,基于ChatGPT技术的情报整编系统可针对互联网上的海量信息,作为虚拟助手帮助分析人员开展数据分析,以提高情报分析效能,挖掘潜在的高价值情报。战时,基于ChatGPT技术的情报整编系统可将大量战场情报自动整合为战场态势综合报告,以减轻情报人员工作负担,提高作战人员在快节奏战场中的情报分析和方案筹划能力。

ChatGPT还可用于实施认知对抗。信息化智能化时代,各国数字化程度普遍较高,这意味着民众之间的信息交流、观点传播、情绪感染的速度更快,也就意味着开展认知攻防的空间更大。ChatGPT强大的自然语言处理能力,可以用来快速分析舆情,提取有价值信息,或制造虚假言论,干扰民众情绪;还可通过运用微妙而复杂的认知攻防战术,诱导、欺骗乃至操纵目标国民众认知,达到破坏其政府形象、改变其民众立场,乃至分化社会、颠覆政权的目的,实现“不战而屈人之兵”。

据悉,ChatGPT使用的自然语言处理技术,正是美军联合全域指挥控制概念中重点研发的技术。2020年7月1日,美国兰德公司空军项目组发布《现代战争中的联合全域指挥控制——识别和开发AI应用的分析框架》报告。该报告认为,AI技术可分为6类,自然语言处理类技术作为其中之一,在“联合全域指挥控制”中有明确的应用——可用于从语音和文本中提取情报,并将相关信息发送给分队指挥官乃至单兵,以提醒他们潜在的冲突或机会。

“数据是深度愚蠢的”

ChatGPT火爆的关键原因之一是“更像人类”,然而,“更像人类”不等于“趋近人类智能”。ChatGPT仅仅代表AI的新高度,但它还是AI,仍存在着天然缺陷。

目前,主流AI模拟的都是大脑的“模式识别”功能,即在“感知”到外部信号刺激时,能迅速分辨出其性质特点。最初,科学家打算通过“制定规则”的方式来实现这一功能,但很快发现行不通。比如,很难用规则来定义一个人。这是因为,人的相貌、身材、行为等特点无法用明确而统一的规则来描述,更不可能转换为计算机语言。现实中,我们看到一个人就能迅速识别出来,并没有利用任何规则,而是通过大脑的“模式识别”功能来瞬间完成的。

这一识别过程为科学家提供了启示:第一,大脑是一个强大的模式识别器,其识别功能可以通过训练得到提高;第二,大脑的识别能力不是按照各种逻辑和规则进行的,而是一种“自动化”的行为;第三,大脑由数百亿个神经元组成,大脑计算不是基于明确规则的计算,而是基于神经元的计算。

这正是目前主流AI的底层逻辑——对大脑运行机制的模拟。基于这一逻辑,科学家开发了各类基于神经网络算法的神经网络模型,并取得了良好效果。其基本原理是:这些模型都由输入层、隐藏层和输出层三部分组成;从输入层输入图像等信息,经过隐藏层的自动化处理,再从输出层输出结果;模型内部包含大量“神经元”,每个“神经元”都有单独的参数;如果输出结果与输入信息存在误差,模型则反过来自动修改各个“神经元”的参数;这样输入一次,跟正确答案对比一次,把各个参数修改一次,就相当于完成了一次训练。随着训练次数越来越多,模型参数的调整幅度越来越小,逐渐达到相对稳定的数值。此时,这个神经网络就算成型了。

这就是目前主流的神经网络算法,ChatGPT也同样如此。不同之处在于,一般AI模型只有百万级训练数据和参数,而ChatGPT拥有3000亿单词的语料数据和1750亿个参数。前者是“喂给”程序的训练数据,后者则基于训练数据提升ChatGPT这个模型对世界的理解。这就是ChatGPT看起来“更聪明”的主要原因。但ChatGPT只是“大力出奇迹”,其原理与过去的AI模型并没有本质区别。

了解了AI的基本原理,我们会发现AI存在两个天然缺陷。第一,AI本身并不理解“它自己在做什么”。AI模型就是一堆神经网络的参数,这些参数没有任何具体意义。AI只负责输出结果,并不能解释输入与输出之间的逻辑关系。第二,AI的“行为”是由训练数据决定的。训练AI的数据量越大,AI的能力就越强。但数据再多,也只能代表“经验丰富”,一旦遇到意外情况,就会发生功能紊乱。可以说,AI就是用大量数据“喂”出来的,它的表现完全取决于数据。

因此,跟人类智能相比,AI既没有真正的理解能力,又过于依赖训练数据,以至于计算机科学家和哲学家朱迪亚·珀尔有一句名言:“数据是深度愚蠢的”。

AI原理带来的战争启示

尽管AI存在天然缺陷,但并不妨碍它成为优秀的“参谋”和助手。截至目前,AI在军事领域的应用范围正在不断扩大,越来越多的AI作战应用正在或已经成为现实。

如侦察感知领域,一些发达国家军队的超视距雷达,正在使用AI对各种类型的空中目标进行快速标记和个体识别,目前已经实现了对无人机等小型目标的自动探测与识别。无人作战领域,美国国防部高级研究计划局正在实施一系列计划,致力于研究无人机、自主水面无人艇和水下潜航器以及陆基移动无人平台的组群使用,以实现相应的作战目的。此外,AI技术还渗透到指挥控制、训练模拟、后勤保障等领域,并逐渐发挥出日益重要的作用。

深入思考AI的特点原理和发展路径,会发现其中蕴含着一些关于战争的启示:

第一,技术深度决定战术高度。毫无疑问,AI时代战术的“技术含量”将越来越高,而“战术高度”很大程度上将取决于对AI技术的认识深度。2019年,比利时鲁汶大学的研究团队发明了一种可以骗过AI识别的彩色图形——只要把一张A4大小的特殊图形打印出来贴在身上,AI就不会把实验者当作“人”。循着这个思路会发现,只要找到AI的数据识别漏洞,就能够利用数据的“愚蠢”,骗过对方的侦察感知功能,进而发展出相应的对抗战术。但能否通过技术手段发现AI漏洞,是此类战术奏效与否的关键和前提。换句话说,对AI技术的研究深度将在很大程度上决定战术能够发挥的高度。

第二,打破常规是对抗AI的关键。目前AI的所有能力都在人类的认知边界内。如ChatGPT看似无所不知,但它能够提供的所有答案都是在人类已知的信息库中检索整合得出的。即使跟过去“不一样”,ChatGPT也只是通过内容整合“重组已知”,而非在观点和思想层面“发现未知”。或者说,AI的最大优势是“熟悉套路”和“优选方案”,劣势则是难以“打破常规”,更不能“无中生有”。这意味着,AI并不能从已知推导出未知,创新将是人类的最大优势。这进一步意味着,人类指挥员通过深度思考、逻辑推理进而打破常规、创新战法的能力无可取代,也必将是未来战场上应对“AI指挥员”的制胜利器。

第三,主宰战场的依然是人类而非AI。基于目前的计算机技术,AI发展存在天花板。其理论依据是“哥德尔不完备定理”。这一定理简单来说,就是“可数系统都是不完备的,其中某些问题永远无法在系统本身的层面得到解决”。根据这一原理,基于当前计算机技术的AI,可能永远无法超越人类。因为计算机系统本质是可数的,而人的意识是不可数的。例如,计算机所有的输入和输出,都必须用有限的数字来描述。比如圆周率。计算机里没有真正的圆周率,小数点后只能输入一个有限位的近似小数,到一定长度必须停下来。只要停下来,参与运算的这个圆周率就不是真正的π。而真实世界与计算机模拟的数字世界是不同的。真实世界是不可数的,圆周率π、自然常数e都可以无穷无尽地计算下去。AI运行于数字世界,人类则生活在实数宇宙。用基于目前计算机技术的AI来模拟人类智能,就像用语言系统来描述人类感觉——语言是可数的,而感觉是不可数的,所以有些感受“只可意会,不可言传”。由此可推导出,在真正的技术“奇点”到来之前,AI只能不断逼近人类智能,但永远无法超越。人类仍将是战场的最高主宰。

btcfans公众号

微信掃描關注公眾號,及時掌握新動向

免責聲明:
2.本文版權歸屬原作所有,僅代表作者本人觀點,不代表比特範的觀點或立場
2.本文版權歸屬原作所有,僅代表作者本人觀點,不代表比特範的觀點或立場
上一篇:CZ 表示他预计会有更多资金转移到香港 下一篇:Euler Finance 在黑客退回资金后开启赎回

相關資訊