1
1
Anthropic は、事前に適切なセキュリティを保証できない限り、Frontier AI システムのトレーニングやリリースを行わないという中心的な約束を正式に放棄しました。クラウドの背後にある企業がインタビューでこの決定を認めた 時間AI開発者の間でAIを孤立させてきた政策の終焉を告げる。新しく改訂された「責任あるスケーリング」ポリシーは、AI 市場が加熱する中、企業の競争力を確保することに重点を置いています。
Anthropic は長年にわたり、この誓約を、より強力なシステムを出荷するよう競合他社に圧力をかける商業的圧力に抵抗する証拠として組み立てました。この政策は、事前に定められた安全策がすでに導入されていない限り、一定の水準を超えて上昇することを効果的に阻止した。現在、Anthropic は階層構造を破るのではなく、より柔軟なフレームワークを使用しています。
同社は、この変更はイデオロギー的なものではなく実際的なものであると述べている。幹部らは、急速な反復と地政学的な緊急性によって定義される市場では、一方的な抑制はもはや意味をなさないと主張している。しかし、AI 業界の自主規制に対する考え方の変化は、転換点のように感じられます。
新しい責任あるスケーリング方針の下で、Anthropic は定期的な「リスクレポート」と、モデルの機能と潜在的な脅威を評価する計画された安全マイルストーンの概要を示す詳細な「フロンティア安全ロードマップ」を発行することを約束しました。同社はまた、自社がこの分野をリードしていると確信し、重大な壊滅的リスクを特定した場合には、競合他社のセキュリティ対策に匹敵するかそれを上回り、開発を遅らせると述べている。すべての緩和策が事前に保証されるまでトレーニングを中止すると約束しても、もはや意味がありません。
日常のユーザーは、クラウドや他の AI ツールを操作しても、何の変化も感じません。しかし、これらのシステムのトレーニング方法を制御するガードレールは、精度から不正行為まであらゆることに影響を与えます。かつて厳格な事前条件によって定義されていた企業が、その条件がもはや実行不可能であると判断すると、業界内でより広範な再調整が促されます。
Anthropic が 2023 年に独自のポリシーを導入したとき、一部の関係者は、それがライバルに刺激を与えたり、最終的な規制に情報を提供したりできることを期待していました。その規制の勢いは完全には実現しませんでした。連邦の AI 法案は行き詰まり、広範な政治環境はいかなる枠組みの開発からも遠ざかっています。企業は自主規制か競争生き残りかの選択を迫られている。
Anthropic は収益とポートフォリオの両方で OpenAI や Google などのライバルを上回り、急速に成長しており、ChatGPIT はスーパーボウルの広告に広告が掲載されたと嘲笑されることさえあります。しかし同社は、セキュリティのレッドラインがその成長の妨げになると考えていたようだ。
Anthropic は、改訂されたフレームワークには意味のある保護手段が残っていると述べています。新しいロードマップは、緩和研究を優先するよう内部圧力を生み出すことを目的としている。今後のリスク レポートは、モデルの機能が悪用される可能性があることを明確に公的に説明することを目的としています。
「新しいポリシーにはまだいくつかのガードレールが含まれていますが、事前に適切なセキュリティ緩和を保証するまで Anthropic はモデルをリリースしないという当初の約束はなくなりました」と AI における独立した監視とリスク検出に焦点を当てた組織 RAIDS AI の CEO 兼共同創設者である Nick Carinos 氏は述べています。 「これが、AI システムの継続的かつ独立した監視が重要である理由です。自主的な約束は書き換えることができます。リアルタイムの監視に裏付けられた規制ではそれができません。」
カリノス氏はまた、Anthropicが数週間前にAI安全規制の推進を約束する議会候補者を支援する団体であるPublic First Actionに2,000万ドルを寄付したことの皮肉にも言及した。彼は、その貢献が現在の瞬間の複雑さを強調していると示唆した。企業は、社内の障壁を再調整するだけでなく、規制の強化を主張することもできます。
業界が直面している広範な問題は、自主標準が革新的なテクノロジーの軌道を有意義に形作ることができるかどうかです。 Anthropic はかつて自らを禁酒のモデルとして位置づけようとしました。改訂された方針では、競争を補償することが求められている。これは安全保障が放棄されたことを意味するのではなく、作戦の順序が変更されたことを意味します。
平均的な人は、責任あるスケーリングポリシーやリスクレポートを読まないかもしれませんが、それらの決定による悪影響を抱えながら生きています。アントロピック氏は、有意義な安全保障研究には、フロンティアから後退するのではなく、フロンティアにとどまることが必要だと主張する。その哲学が安心感を与えるものであるか、それとも憂慮すべきものであるかは、AI がどの程度のスピードで進歩すべきか、そして進歩と引き換えに社会がどの程度のリスクを許容するかについての考え方に大きく依存します。
Google ニュースで TechRadar をフォローしてください そして お気に入りのソースとして追加してください 専門ニュース、レビュー、意見をフィードで入手するため。ぜひフォローボタンをクリックしてください!
そしてはい、あなたもできます TikTokでTechRadarをフォローしてください ニュース、レビュー、ビデオ形式の開封、および当社からの定期的な更新情報については、 ワッツアップ とても。