您现在的位置:首页 > 国际资讯 > 正文

为什么人工智能会导致核战争风险增加

更新时间:2018-05-15 10:35:18  |  来源: 尚道社会研究所

人造智能能否颠覆1945年以来使得世界免于核战争的核威慑概念?人工智能的惊人进步,加上无人驾驶飞机、卫星和其他传感器的增加,增加了各国可能发现他国核武器的可能性,也增加了各国可以威胁消灭其他国家的核武器的可能性。因此这加剧了局势紧张的可能性。
 
冷战初期以来,人们一直担心电脑会被错误地或恶意地引导人类走向濒临核灭绝的边缘。

危险可能很快就会成为现实,比小说更危险。人工智能惊人的进步,创造了可以学习和思考的机器,引发了世界主要核大国之间的新一轮军备竞赛。这不是好莱坞大片中的杀手机器人。人工智能使得计算机挑战核威慑的基本规则,并导致人类做出毁灭性的决定。
 
“这不仅仅是一个电影场景,” RAND的一位工程师Andrew Lohn表示,他对人工智能的研究包括:使用它来寻找无人机、识别鲸鱼电话,并预测NBA比赛的结果。“如果我们不小心,相对简单的事情就会引发紧张局势,并将我们带到危险的地步。”

 
“导弹袭击”。

要理解智能电脑如何能够增加核战争的风险,你必须了解一些关于冷战为什么一直没有升级为热核战争的原因。有许多理论可以解释这个问题,但“相互确保摧毁”一直是其基石。用最简单的话来说,这意味着:如果你打我,我也会打你。在核武器发挥作用的情况下,这种反击可能会摧毁整个城市,双方都不愿承担风险。

自动化的系统不需要通过杀人来破坏两国之间的稳定。这更有可能导致灾难性的战争。
这个理论导致了一些违反常识的结论。原来,双方都能够在遭受第一次打击中幸存下来,并且能够进行反击,那么情况就是稳定的。这样,任何一方都不会冒先动手的风险。然而,在人工智能的情况下,如果一方失去了反击的能力,或者认为自己可能会失去这种能力,那么情况会变得更加危险和不确定。它可能会通过制造新武器来恢复其优势,或者它可能会决定在它受到攻击之前尽早先发制人。

这就是人工智能的真正危险所在。电脑可以扫描数千张照片,寻找人眼无法看到的图案。可以想象,一个更加先进的无人机系统,可以对卫星数据进行细致的整理,甚至是对社交媒体进行细致的整理,以便知道对手的武器和防御工事的全貌,并不需要太多的想象力。

 人工智能如何影响核战争的风险?

 
一个可以在任何地方看到一切隐私的系统,都可能使对手相信,自己很容易受到第一次核打击的威胁。人工智能可能让对手失去反击的能力。因此,对手会不得不寻找新的方法,通过任何必要的手段,发明更佳先进的军事设施,以防止自己被消灭。这条道路更接近核战争。
“自动化的系统不需要通过杀人就可以破坏两国之间的战略稳定性,并且更有可能发生灾难性战争,” 兰德研究所副研究员,核安全专家Edward Geist说,他是新文章的作者之一。“新的人工智能能力可能会让人们认为,如果他们犹豫不决,那么就会失去信心,这可能会让他们更加敏锐地触动手指。在这一点上,人工智能仍然会引发战争。
 
"
虚惊"

电脑现在可以自己教自己,不断自我学习。他们的神经网络模仿大脑的结构。最近,一台计算机在象棋游戏中击败了世界上最厉害的玩家之一。这是第一次,但是计算机表现得非常出色。以至于这位象棋大师站起来,离开了房间,15分钟后才能进行下一步行动。

俄罗斯最近宣布了一项水下末日无人机的计划,该无人机的弹头足以使一座大城市蒸发。

这种超级智能的军事潜力,并未被世界主要核大国所忽视。美国试验了可以追踪敌方潜艇数千英里的自动艇。中国已经展示了“群体智能”算法,大大提高了无人机性能。俄罗斯最近宣布了一项可以引导自己穿越海洋的末日无人机的计划,以提供足以抹平大城市的核弹头。

无论谁赢得人工智能战争,俄罗斯总统弗拉基米尔普京都说:“都将成为世界的统治者。” 特斯拉创始人伊隆马斯克有不同的看法:他警告说,各国对人工智能优势的追逐,是第三次世界大战爆发的最可能原因。
 
研究人员总结说,下一代人工智能将具有破坏核安全基础的“重大潜力”。现在是进行国际对话的时候了。

在这种技术进步的时代,保持核和平需要每个核电的合作。这将需要新的全球制度和协议; 竞争国之间新的谅解; 以及新的技术、外交和军事保障措施。

未来的人工智能系统有可能被证明是非常可靠的,或者非常冷酷理性的,以至于它将阻止核末日的到来。毕竟,犯错的是人。一台没有错误、没有压力、没有个人偏见的机器,可以给我们带来原子时代从未有过的稳定水平。

研究人员总结说,这一时刻还很遥远,但从现在开始的那几年,将是特别危险的。拥有核武器的国家变得更多,各国对AI的依赖增加,特别是在技术成熟之前,可能导致灾难性的错误估计。而在那时,一名上夜班的工作人员,可能来不及阻止战争机器。

斯坦尼斯拉夫彼得罗夫在核灾难中的故事使得新一代人注意到引发深刻且潜在不稳定的技术变革的责任。2017年去世的彼得罗夫曾说:“我们比电脑更聪明,”他说。“我们创造了它们。”

 

未来可能会持有什么 - 三种观点


兰德研究人员召集了一些人工智能和核战略的顶级专家参加了一系列研讨会。他们要求专家们想象2040年的核武器系统的状况,并探讨人工智能将会导致更稳定,还是会破坏稳定?
 

观点一 AI技术真有那么厉害吗?


许多人工智能专家怀疑,这项技术是否真的在核战争的决策中可以发挥重要作用。它必须克服其被黑客攻击的脆弱性,以非同寻常的方式制纠正错误。否则AI就无法有效发挥作用。
 

透视二 AI导致核威胁将上升


但是,核武器分析家回应说,人工智能系统不需要水平太高,就可以导致核紧张局势升高。对手只需要考虑它并做出相应的回应。结果将是核武器竞争对手之间竞争和不信任的新时代。
 

透视三 AI可以阻止和战争


一些专家表示,希望人工智能有朝一日可以变得如此可靠,以避免核战争的威胁。例如,它可用于追踪核武器的发展,并确保各国遵守不扩散协议。或者它可以拯救人类免受核对峙时犯下的错误,避免不好的决定。正如一位专家所说,未来的人工智能可能会得出结论,就像1983年的电影“战争游戏”中的电脑那样,核战争中唯一的胜利举动就是不发挥作用。
 

(本文来源:Foreign Policy杂志)