グアダラハラ – アメリカ

シーバス・デ・グアダラハラ vs クラブ・アメリカ

モルトブクの台頭は、ウイルス性の AI 信号が次の大きなセキュリティ脅威になる可能性があることを示しています
グアダラハラ - アメリカ

モルトブクの台頭は、ウイルス性の AI 信号が次の大きなセキュリティ脅威になる可能性があることを示しています



モルトブクの台頭は、ウイルス性の AI 信号が次の大きなセキュリティ脅威になる可能性があることを示しています

現在、Anthropic と OpenAI には、潜在的に有害な AI エージェントの拡散を防止できるキル スイッチがあります。 OpenClave は主に API 上で実行されます。つまり、エージェント アクションを実行する AI モデルはサーバー上に存在します。その GitHub リポジトリでは、「より長い基準強度とより優れた早期注入耐性を実現する Anthropic Pro/Max (100/200) + Opus 4.5」を推奨しています。

ほとんどのユーザーはエージェントをクラウドまたは GPT に接続します。これらの企業は、API の使用パターン、システム プロンプト、ツール呼び出しを確認できます。仮説的には、ボットのような動作を示すアカウントを特定してブロックできる可能性があります。定期的なリクエスト、「エージェント」または「自律型」または「モルトボット」を参照するシステム信号、外部通信による大量のデバイスの使用、またはウォレットの対話パターンにフラグを立てることができます。彼らは鍵を排除する可能性があります。

明日これを実行した場合、OpenClause ネットワークは部分的に崩壊するでしょうが、AI モデルを実行する機会にお金を払っている最も熱心な顧客の一部を遠ざける可能性もあります。

このようなトップダウンの介入の余地は閉まりつつあります。ローカル レベルで実行されている言語モデルは、現時点ではハイエンドの商用モデルほどの機能はありませんが、その差は日に日に縮まっています。 Mistral、DeepSeek、Quen などは改善を続けています。今後 1 ~ 2 年以内に、現在 API キーで OpenClaw を実行しているのと同じ愛好家向けに、Opus 4.5 と同等の有能なエージェントをローカル ハードウェアで実行できるようになる可能性があります。その時点で、終了するプロバイダは存在しません。使用状況の監視はありません。利用規約はありません。キルスイッチはありません。

AI サービスの API プロバイダーは不便な選択に直面しています。彼らは今も介入できるが、介入はまだ可能だ。あるいは、ワームが急速に発生して対処が必要になるまで待つかもしれませんが、その時点でアーキテクチャが進化して手の届かないところに達する可能性があります。

Morris Worm の影響で、DARPA はカーネギー メロン大学に CERT/CC の設立に資金を提供し、専門家にネットワークの緊急事態に対する中央調整ポイントを提供しました。この反応はダメージを受けた後に起こりました。 1988 年のインターネットには 60,000 台のコンピューターが接続されていました。現在の OpenClaw AI エージェント ネットワークはすでに数千に上り、日々成長しています。

現在、私たちは OpenGL を、将来のさらに大きな課題に向けた「予行演習」と考えることができます。相互に対話してタスクを実行する AI エージェントを人々が信頼し始めた場合、AI エージェントが有害な方法で自己組織化したり、有害な命令が拡散したりするのをどのように防ぐことができるでしょうか。これらはまだ答えのない疑問ですが、エージェントの時代が到来しており、物事は非常に急速に進んでいることから、私たちは迅速に対処する必要があります。

LEAVE A RESPONSE

Your email address will not be published. Required fields are marked *