米国防総省と連携していたアンソロピック社が開発した生成AI「クロード」が、米軍のイラン攻撃に利用されていたことが1日までに明らかになりました。この利用は、同社が軍事へのAI使用拡大を拒否した直後、トランプ大統領が全ての連邦機関に対して同社の技術使用を禁止する指示を出した時期と重なっています。「クロード」は唯一、米軍の機密システムで使用され、中東を担当する米中央軍が情報分析や標的特定、戦闘シミュレーションに役立てていました。

今回の事件は新興技術が持つ潜在的リスクを浮き彫りにし、特にAIの軍事利用に関する倫理的問題を深刻化させています。この事実は、技術が政治的・軍事的利用にどれほど急速に追随するかを示しています。まず、企業の意志に反した技術利用が起きないようにするため、法的枠組みの再評価が必要です。さらに、AI技術の透明性を確保し、利用範囲を明確に定めることが急務です。
そして、国際的なAI利用規範を設定し、各国がこれに従うべきです。技術革新の勢いに乗じて暴走することなく、倫理と規範が技術の利用を導く時代でなければなりません。
ネットからのコメント
1、アンソロピックっていうアメリカの会社が作った「クロード」は、いわゆる会話型の生成AIなんだけど、ただ賢いだけじゃなくて「安全性」をすごく重視して設計されているのが特徴なんだよね。大量の文章を学習していて、長い文書でもまとめたり分析したりできる力があるし、質問に対して自然な文章で答えられる。特に面白いのは「Constitutional AI」という仕組みで、あらかじめ決めた原則に照らして自分の出力をチェックし、問題があれば修正する設計になっているところ。だから有害な内容を出さないよう工夫されているの。軍事利用が話題になっているけど、AI自体が攻撃するわけではなくて、情報整理や分析の支援が中心。結局はどう使うかが一番大きなポイントになる、そんな技術だと思う。
2、SNSでの世論誘導という不確実な認知戦にAIを用いた中国に対し、米軍が標的特定や戦闘シミュレーションという直接的な戦術レベルで生成AIを運用している事実は、技術統合における明確なフェーズの違いを示している。
実戦運用でのAIの高い費用対効果はすでに証明された。我々が避けるべきは、この現実から目を背け、議論を停滞させることだ。日本も防衛・情報統合基盤におけるAIの活用範囲を早急に定義し、高度な情報分析能力を実装するシステム改修へ直ちに着手すべきである。
3、正直、ちょっと怖い話だと思った。AIが戦場で直接引き金を引くわけじゃなくても、情報分析や標的選定に使われているなら、もう「便利なツール」の段階は越えている気がする。しかも企業側が軍事利用拡大を拒否していたと報じられている中での話なら、事実関係はきちんと説明してほしい。いつの時点で、どの範囲で使われていたのか。それだけでも印象はかなり変わる。AIは中立な技術だと言われるけれど、使い方次第で意味は全く変わる。便利さとリスクが同時に広がっていることを、改めて感じさせられるニュースだと思う。
4、いずれAI頭脳搭載のロボットが前線で戦うのも近いんじゃ無いですか?映画のターミネーターは現実味を帯びてくる。日本も殺傷能力武器の輸出云々を言ってる場合じゃないだろ、近隣反日国家も米国並みの兵器開発を行っていると考えるべき、民間企業任せの防衛装備品開発に頼らず、昔の工廠並の兵器開発、製造場所を儲けるべき、このままだと近隣反日国に対抗出来なく成ると思う。
引用元:https://news.yahoo.co.jp/articles/ec7129cb60ebf6454c14ef24d1afa3c595b1ee1d,記事の削除・修正依頼などのご相談は、下記のメールアドレスまでお気軽にお問い合わせください。[email protected]