1
1

フェンダーベンダーのことは忘れてください。自動運転車に対する本当の脅威は、車の AI 内に眠っており、攻撃のタイミングを待っているハッキングである可能性があります。ジョージア工科大学の研究者は、VillainNet と呼ばれる新しい脆弱性を明らかにし、自律システムの重大な盲点を明らかにしました。
バックドアは、特定の条件で起動するまで休止状態のままです。そうすれば99%の確率で機能します。犯罪者は、雨に反応する自動運転タクシーなど、ほとんどあらゆるものに対してトリガーをプログラムできます。現在のセキュリティ ツールではこの脅威を検出できません。あなたの車が危険にさらされている可能性がありますが、手遅れになるまでわかりません。
問題は現代の AI のアーキテクチャにあります。自動運転車は、研究者がスーパーネットワークと呼ぶもの、つまりタスクに応じて小さなモジュールを交換する大規模なシステムに依存しています。これは、何十億もの独自のツールが含まれるデジタル ツールボックスと考えてください。
主任研究員 David Oysenblick 博士ジョージア工科大学の学生は、攻撃者はその箱の中の小さな装置に毒物を入れるだけで済むだろうと語った。悪意のあるコードは、自動車がその特定のモジュールを呼び出すまで、無数の一般的な構成では見えなくなります。するとアクティブになります。発見場所は衝撃的だ。オイジェンブリックはそれを、干し草の山の中から10京本のストローから針を見つけることに例えた。
これは理論的な演習ではありません。研究チームは恐ろしい可能性について概説している。ハッカーは自動運転タクシーをプログラムして雨が降るのを待ち、車が濡れた路面に慣れたときに制御を握る可能性がある。
侵入すると乗客を人質にとり、墜落すると脅して代金を要求する可能性がある。この方法は機能します。実験室テストでは、VillainNet はトリガーされた場合は 99% の確率で成功しましたが、それ以外の場合は痕跡を残しませんでした。
この調査結果は、2025 年 10 月に開催された主要なセキュリティ会議で明らかになりました。自動車メーカーへのメッセージは明らかです。 VillainNet バックドアを検出するには、既存の方法の 66 倍のコンピューティング能力が必要になります。
その発見は今日では実用的ではありません。チームは自分たちの取り組みを警告と呼び、こうした攻撃が実験室から公道に移る前に新たな保護策を推進している。