米国防総省はAIスタートアップのアンソロピックを、米国の供給網にリスクをもたらすと判断した。5日に通知が行われたが、具体的なタイミングや方法は明らかではない。同社のソフトウェアが国防総省の機密クラウドで唯一稼働可能だったため、依存解消により双方に混乱が予測される。同社は法廷で争う方針を示している。国防総省は技術の合法的な使用を制限することで軍の安全を脅かすベンダーを許さないとの立場を堅持している。

今回の事態は、軍事と技術の交差点で生じる深刻な懸念を浮き彫りにしています。国防総省がアンソロピックをリスクと判断した点は、供給網の安全確保という観点で妥当な意思決定に映る一方、この決定には数々の矛盾が潜んでいると言えます。同社のAIシステムが「優れた能力」を持ち、国防総省の機密クラウドで唯一稼働可能だったにも関わらず、急激な排除が進む背景には、制度的透明性の不足が見え隠れします。
問題の本質は、公共と民間技術の接続における相互信頼の欠如と管理体制の揺らぎです。
解決策としてまず、サプライチェーンリスクの独立評価制度を創設し、技術の安全性を公正に評価するべきです。次に、軍と技術企業間の定期的な対話を通じ、事前にリスク対応を共有しやすい協議体制を構築することが不可欠です。そして、技術排除に至る決定プロセスを透明化し、関係者間の情報共有を義務化することで、急激な変化で生じる混乱を最小化すべきです。
このような制度改革により、供給網の安全確保と技術革新の両立という難題は、解消しうるもののはずです。そしてなにより、個々の技術が軍事的に必要不可欠であるならば、それを排除する決定が戦闘員たちの安全を脅かす結果につながる可能性を真剣に再考するべきです。
ネットからのコメント
1、国防総省は「AIの全機能を制限なく使わせろ」と要求していて、戦場でAIが「倫理規約により回答できません」と拒否することは、指揮系統への不当な介入であり、兵士を危険にさらす「欠陥品」という主張です。対してアンソロピックが拒否しているのは主に2点。
「自国民の大量監視」と「人間の判断を介さない自動殺傷兵器」への転用です。同社は今のAIはまだ誤作動のリスクがあり、制限しなければ誤射などのリスクを招くと制限の撤廃を拒否しています。単なる契約上の意見の相違を理由に、本来敵対国に用いるべき「供給網リスク」に認定して排除する政府の強硬姿勢は、あまりに感情的で近視眼的な判断に見えます。
2、これまでずっとClaudeを利用してきて、その性能に信頼を置いているからこその過剰な対応、なのでしょうね。アンソロピックがこれまでの協調路線から舵を切ったのはベネズエラの件でClaudeが使用されたから、という話ですが、今回のイランへの攻撃にもClaudeは使用されています。非機密の情報に関しては既にGeminiベースのGenAI.milが利用されていて、OpenAIが参入する、ということらしいです。それらのモデルを現在Claudeが担っている機密情報の扱いが出来るようにしていくとのことですが既にClaudeでの運用が現場に浸透しているからこそ激昂しているのでしょう。
Claude Coworkのリリースもあるかと思いますが、この一件でChatGPTからClaudeに乗り換える動きが加速しているそうで、米app storeではダウンロード数1位になったとか。
3、今回のイランや、先日のベネズエラでの軍事作戦でもAIが使われたと言われていますが、重要な判断を求めると「倫理上の問題」で回答を控えるケースがあり、現場の不満が爆発したという話も聞きます。民間向けに作られたAIの倫理制約と、軍事の現場で求められる判断には大きなギャップがあるのでしょう。だからこそ各国が「自国で制御できるAI」にこだわり始めている。AIはもはや便利なツールではなく、国家安全保障そのものになりつつあるのだと思います。
4、今回の指定が一般企業にどこまで影響を及ぼすか注視が必要ですね。もしサプライチェーンのどこかにアンソロピック社のAIが関係する成果物が含まれていたら連邦政府と取引できない、となると下請パートナーまで連鎖的にClaude Codeを納品物に使用しないことという条件がつくことになってインパクトが大きい。
引用元:https://news.yahoo.co.jp/articles/56231cd0c9fd0f5d55e2c1b0e926ce0c173cf0df,記事の削除・修正依頼などのご相談は、下記のメールアドレスまでお気軽にお問い合わせください。[email protected]