人工知能は多くの専門家が予想していたよりも速く進歩しており、多くのリスクの証拠は「大幅に増加している」。一方、現在のリスク管理手法は「改善されているものの、不十分」だ。これらは、2月19日から20日までデリーで開催されるAIインパクトサミットに先立ち、火曜日に発表された第2回国際AIセキュリティ報告書の調査結果である。
この報告書は100人の専門家によって指導され、英国、中国、欧州連合を含む30の国と国際機関の支援を受けて、「共通の課題に取り組むために協力する」例を示すことを目的としている。しかし、昨年とは異なり、米国はそれを支持することを拒否した、と報告書の委員長でチューリング賞を受賞した科学者のヨシュア・ベンジオ氏は認めた。
AIのリスクが顕在化し始めるにつれ、大手AI開発者の本拠地は、AIのリスクを理解し軽減するための国際的な取り組みから遠ざかっている。この動きは主に象徴的なもので、米国の支援に依存していないと伝えられている。しかし、AI を理解することに関しては、「世界中でコンセンサスがあればあるほど良い」とベンジオ氏は言います。
米国が報告書の内容に同意していないのか、それとも国際協定(1月にパリ気候協定と世界保健機関から離脱)から離脱しているだけなのかは不明だ。ベンジオ氏は、米国は報告書の以前のバージョンには応じたが、最終版への署名を拒否したと述べた。
2025年国際AI安全保障報告書に名を連ねた米国商務省は、この決定に関するコメントに応じていない。
「過去1年間、汎用AIモデルとシステムの機能は向上し続けている」と報告書は述べている。機能は急速に進歩したため、最初のレポートと 2 番目のレポートの間の 1 年に、著者は大きな変更に対応して 2 つの中間アップデートを公開しました。これは、AI が停滞しているという見出しが絶えずドラムビートを響かせるのとは対照的です。ベンジオ氏は、科学的証拠は「昨年と比較して進捗が減少していない」ことを示していると述べた。
多くの人が進歩が鈍化していると感じるのはなぜですか?兆候の 1 つは、研究者が AI パフォーマンスの「変動性」と呼ぶものです。これらのモデルは、国際数学オリンピックの問題で金メダルの基準に達する可能性がありますが、「イチゴ」の R の数を数えられないことがあります。この偏りがあるため、AI の能力を評価することが難しく、よく使われる「インターン」のたとえのように、人間との比較を行うことは誤解を招きます。
現在の進歩速度が続くという保証はありませんが、報告書では傾向は 2030 年まで改善が続くと一致しています。今日のペースが続けば、人間のエンジニアでは数日かかるであろう広範囲のソフトウェア エンジニアリング タスクを AI が完了できるようになるだろうと専門家は予測しています。しかしこの報告書は、AIの開発に十分な支援があれば、ほとんどの次元で人間と同等かそれ以上の能力を備えたシステムを構築することで進歩が加速する可能性があるという可能性も提起している。
これは投資家を興奮させる可能性が高いが、社会が現在のペースで新たなリスクに適切に適応できていないのではないかと懸念する人々にとっては懸念材料となるだろう。 Google DeepMindのCEO、デミス・ハサビス氏でさえ、1月のダボス会議で、進歩が遅れた方が「世界にとってより良い」だろうと信じていると述べた。
「賢明な戦略は、政府であろうとビジネスであろうと、考えられるすべてのシナリオに備えることです」とベンジオ氏は言います。これは、不確実な状況でもリスクを最小限に抑えることを意味します。
AI リスクに関して科学者の意見に耳を傾けたい政策立案者は、科学者の意見が異なるという問題に直面しています。 Bengio 氏と同じく AI のパイオニアである Geoffrey Hinton 氏は、ChatGPIT の立ち上げ以来、AI が人類に存続の脅威をもたらす可能性があると警告してきました。一方、AIのいわゆる「ゴッドファーザー」の3人目であるヤン・ルカン氏は、こうした懸念は「完全に問題だ」と述べた。
しかし報告によると、地盤は広がりつつある。報告書は、意見の分かれる疑問も残っているものの、主要な調査結果については「かなりの程度の収束」が見られると述べた。 AI システムは現在、ウイルス学実験プロトコルのトラブルシューティングなど、生物兵器開発に関連するベンチマークで専門家のパフォーマンスと同等、またはそれを超えています。犯罪グループや国家支援による攻撃者がサイバー作戦で AI を積極的に利用しているという強力な証拠があります。
報告書では、AIモデルがゲームのセキュリティをテストする方法を急速に学習するため、これらのリスクの測定を継続することが今後の課題となると述べている。 「私たちは AI に注目しています。その動作をテストすると、 […] ベンジオ氏によると、使用時と異なるのは、モデルの思考連鎖(答えに到達するまでに実行される中間ステップ)を研究することで、研究者らが「偶然ではない」違いを特定したことだという。ベンジオ氏は、AIが愚かに、あるいは最善の行動で動作していることが「リスクを正確に予測する能力を著しく妨げている」と語る。
同報告書は、単一の解決策を提案するのではなく、リリース前のテスト、リリース後のモニタリング、インシデントの追跡など、複数の安全策を組み込むことを推奨している。そうすることで、ある層をすり抜けたものが次の層で捕らえられるようになり、水がどんどん細かくなるふるいを通過するようになっている。一部の対策はモデル自体を対象としています。また、たとえ AI によって生物兵器の設計が容易になったとしても、その製造に必要な材料の入手を困難にするなど、現実世界のセキュリティを強化することを目的とする企業もいます。企業側では、12社が自主的に2025年までのフロンティア安全フレームワークを発行または更新した。このフレームワークは、より有能なモデルを構築する際にどのようにリスクを管理する計画であるかを記述した文書であるが、対象となるリスクは企業によって異なると報告書は指摘している。
調査結果にもかかわらず、ベンジオ氏は、この報告書を見て楽観的な気持ちになったと語る。 2023 年末に最初の報告書が発表されたとき、AI のリスクをめぐる議論は意見と理論によって進められていました。現在、「私たちはより成熟した議論を始めている」と彼は言う。

