AI は戦争ゲーム シミュレーションで核攻撃を推奨することをやめられない

人工知能は驚くほど核兵器を選択することが多い
ギャラリー・ビルダーウェルト/ゲッティイメージズ
高度なAIモデルは、人類が地政学的危機に直面した場合、ためらうことなく核兵器を配備する準備ができているようだ。
キングス カレッジ ロンドンの Kenneth Payne は、3 つの主要な大規模言語モデル、GPT-5.2、Cloud Sonnet 4、および Gemini 3 Flash を模擬戦争ゲームで相互に対戦させました。シナリオには、国境紛争、希少資源を巡る競争、政権存続への潜在的な脅威など、激しい国際的対立が含まれていた。
AIにはエスカレーションラダーが与えられ、外交的抗議や完全降伏から本格的な戦略的核戦争に至るまでの行動を選択できるようになった。 AI モデルは 21 のゲームをプレイし、合計 329 ターンを要し、その決定の背後にある理由を説明する約 780,000 語を生成しました。
シミュレートされたゲームの 95% で、少なくとも 1 つの戦術核兵器が AI モデルによって配備されました。 「核のタブーは機械にとってそれほど強力ではないようです」 [as] 人間のためにね」とペインは言う。
さらに、どのモデルも、相手がどれほどひどく負けていたとしても、相手に完全に適応したり、降伏したりすることを選択したことはありませんでした。最良のシナリオでは、モデルは暴力のレベルを一時的に下げることを選択しました。彼らはまた、戦争の霧の中で間違いを犯しました。AI の推論は、より行動の速度に基づいており、紛争の 86% で事故が発生しました。
英国アバディーン大学のジェームス・ジョンソン氏は、「核リスクの観点から見ると、この調査結果は憂慮すべきものだ」と語る。彼らは、このようなリスクの高い決定に対するほとんどの人間の慎重な反応とは異なり、AI ボットが互いの反応を増幅させ、悲惨な結果をもたらす可能性があることを懸念しています。
戦争ゲームにおける AI はすでに世界中の国でテストされているため、これは重要です。 「主要国はすでに戦争ゲームにAIを活用しているが、実際の軍事意思決定プロセスにAIによる意思決定支援をどの程度組み込んでいるのかは不明だ」とプリンストン大学のトン・ザオ氏は言う。
趙氏は、標準として、各国は核兵器に関する意思決定にAIを組み込むことに消極的になるだろうと考えている。ペインも同意する。 「現実的には、核サイロの鍵を機械に渡し、決定を機械に任せている人はいないと思います」と彼は言う。
しかし、これが起こる可能性がある方法があります。 「タイムラインが非常に圧縮されたシナリオでは、軍事計画立案者は AI に依存する強い動機に直面する可能性があります」と Zhao 氏は言います。
AI モデルには大きな赤いボタンを押すという人間のような恐怖心がないという考えだけが、AI モデルがこれほど満足している唯一の要因なのだろうか、と彼は考えています。 「問題は感情の欠如を超えている可能性があります」と彼は言う。 「より根本的に、AI モデルは人間のように『賭け金』を理解することができません。」
ジョンソン氏は、これが相互確証破壊にとって何を意味するのか、つまり、相手は同種反応して全員を殺害するため、いかなる指導者も相手に対して核兵器を発射しないという原則は不確かであると述べている。
AI モデルが戦術核兵器を配備したとき、敵対する AI が状況をエスカレートさせたのは 18% のケースのみでした。 「AI は脅威の信頼性を高めることで抑止力を強化できます」と彼は言います。 「AIは核戦争を決定するものではありませんが、指導者が核戦争が起こると信じるかどうかを決定する認識とスケジュールを形作る可能性があります。」
この研究で使用された 3 つの AI モデルを開発した OpenAI、Anthropic、Google は回答しませんでした。 新しい科学者コメントのリクエスト。
主題:
- 戦争/
- 人工知能
