1
1
安全なテクノロジーに重点を置いて設立されたクラウド チャットボットを開発する AI 企業 Anthropic は、会社の競争力を維持するためにセキュリティへの取り組みを削減しているようです。
同社は火曜日、「責任あるスケーリング」ポリシーを変更したと発表した。これは、潜在的に危険で大規模なサイバー攻撃のような状況を引き起こす可能性のあるAIの開発を防ぐことを目的とした一連の自主ガイドラインである。
いつ 更新されたガイドライン Anthropicは、AIを開発する際には依然として「壊滅的なリスクが内在するという強力な議論」が必要であると述べているが、現在は「当社に重大な優位性があると確信するまで」のみ開発を遅らせるとしている。つまり、競合他社に対して優位性があると信じられない場合は開発を続けるということだ。
同社は、米国におけるAIの安全性に対する懸念が経済的潜在力を上回っているため、この措置に踏み切った、と述べた。
「過去3年間でAI機能は急速に進歩したにもかかわらず、AIの安全性に対する政府の取り組みはゆっくりと進んでいる」と同社は述べた。 ブログ投稿で述べた。
「政策環境はAIの競争力と経済発展を優先する方向に移行しているが、連邦レベルでは安全保障指向の議論はまだ有意義な勢いを増していない。」
Anthropicのセキュリティガイドラインの変更は、同社の技術をあらゆる合法的な軍事目的で使用することが許可されない限り、国防総省が同社との契約を撤回すると脅迫したことを受けて行われたが、Anthropicはガイドラインの変更は無関係だとしている。
AI 企業はこれまで、セキュリティを最優先にして自社を売り込んできました。
人間的だった 2021年設立 OpenAI の元従業員は、同社がセキュリティよりも開発を優先していることを懸念していました。 CEOのダリオ・アモデイ氏もAIのマイナスの可能性について懸念を表明している 大規模な人的破壊を含め、セキュリティがアンスロピックにとって「最高レベルの焦点」であり続けることを保証しました。 Fortune 誌の 12 月のインタビュー。

ブログ投稿では、同社のセキュリティ慣行は常に更新されるよう意図されており、今回の新たな反復により、レポートとセキュリティ目標を定期的に発行するという新たな取り組みにより、同社の「透明性と説明責任」が向上すると述べられている。
しかし、独立系研究団体AI Now Instituteの主任AI科学者ハイディ・カラフ氏は、Anthropicは安全第一の評判にもかかわらず、人的危害を防ぐ取り組みに関しては常に不十分だと語る。
カラフ氏は、アンスロピックは最初の安全保障政策から、壊滅的な出来事の可能性に重点を置いていたと語った。彼は、現在の AI テクノロジーによって引き起こされる危害の確率を計算するのではなく、チャットボットなどのありふれたエラーを計算します。
クラウドチャットボットは過去にあった 悪用 詐欺的なスキームやマルウェアを作成しようとする試み、そして最近では メキシコ政府のデータを盗むために使用 サイバーセキュリティ研究者によると。
彼女によれば、同社は現在、自社を売り込むために以前使用していた「セキュリティのベール」を脱いでいます。それが最善の利益にならないことが明らかになったからです。
「これは、彼らが営業を続けていることを示すための戦略的発表だ」とカラフ氏は語った。
人工知能技術の世界的な急速な進歩と展開の中で、連邦政府は数百万ドルを投資して、既存の 3 つの機関の頭脳を 1 つに統合し、今後の潜在的な脅威を監視できるようにしました。
この発表は、Anthropic、OpenAI、GoogleなどのトップAI企業間の熾烈な競争の最中に行われた。各社は競合するチャットボットを持ち、テクノロジーを統合するために企業や政府部門と有利な契約を結んでいる。
ドナルド・トランプ米大統領の政権もAI開発に本格的に取り組んでいることを示しており、実際にそうしている。 資金提供を停止すると脅迫される 業界におけるアメリカの支配を妨げる法律を制定する州から。
オタワ大学の情報法と政策のカナダ研究委員長であるテレサ・スカサ氏は、米国政府の規制を設けない姿勢により、企業がセキュリティを優先することが難しくなっていると述べ、「もし優先したとしても、後回しにされてしまうからだ」と述べた。
また、カナダを難しい立場に置くことになる、と彼女は言う。なぜなら、ここでの規制は米国に比べて国内のAI開発を後押ししたり、カナダ企業が国境の南に移転することを奨励する可能性があるからである。 少なくなります 自社のテクノロジーに対する制限。
「そして、現時点ではカナダではそんな余裕はないというのが理解だと思います。ですから、カナダのAI規制にそのような影響を与えていることがお分かりいただけると思います」とスカサ氏は語った。
カナダから来たからって彼女は言う 人工知能およびデータ法は 2025 年に失効しますカナダ政府は、米国と同様、包括的な AI 規制を導入しようとしていません。
Anthropic のセキュリティ ガイドラインの変更は、同社が国防総省からの圧力を受けていることを受けて行われた。
人間的な 米国国防総省と協定を締結しました 7月時点で最大2億米ドルと評価されたこの価格により、政府はその技術を軍事目的で使用することができるが、社内では許可されることになる。 使用ガイドライン – Anthropic には、顧客がチャットボット クラウドを含む自社製品をどのように使用できるか、使用できないかについて独自のルール セットがあります。
世界中でコラボレーションやつながりを実現するために AI チャットボットを利用する人が増えています。一方、新しい研究は、これらのチャットボットが人々の投票意図にも影響を与える可能性があることを示しています。研究の共著者で米国コーネル大学准教授のゴードン・ペニークック氏は、自身の研究について論じ、AIチャットボットが従来のテレビ広告とは違って潜在的な有権者にどのような影響を与えることができるかを説明している。
これらのガイドラインは、米国政府を含む誰もが、兵器の設計や開発を含むさまざまな目的で Anthropic の AI ツールを使用することを禁止しています。
しかし報道によると、ピート・ヘグセス米国防長官は火曜日の会議でアモデイ最高経営責任者(CEO)に最後通牒を突きつけ、金曜日まで同社に対し、軍が自社のAIツールをあらゆる合法的な軍事目的で使用することを許可しなければならない、さもなければ政府との契約を失う危険があると通告したという。
フロントバーナー21:47AIエージェントが職場を乗っ取るのか?
アンスロピック社は、政府との対立の中で、AIが単独で目標に向けて発砲できる自律型兵器システムや集団監視システムに自社の技術を使用することを政府が許可しないと述べた。
しかし国防総省当局者は メディアに語った この論争には自律型兵器や大規模監視におけるAI利用の可能性は含まれておらず、政府が常に法律に従っていることが強調されている。
アンスロピックは、責任ある規模拡大政策の更新と国防総省の要求は無関係であると述べている。 Anthropic によると、Hegseth の問題は、スケーリング ポリシーではなく、同社の使用ポリシーに起因しているとのことです。