概要
トランプ政権は2026年2月28日、政府機関でのClaude利用を禁止し、Anthropicをサプライチェーンリスクに指定しました。AnthropicのCEO Dario Amodei氏は「大量国内監視」「完全自律兵器」への利用を拒否したことが原因です。
出典: AP News / BBC — 2026-03-04
詳細
経緯
- 国防長官Pete Hegseth氏との会談: Anthropicに対しAI安全ガードの撤廃を要求
- 国防生産法の脅威: 協力を強制しようとしたが、Anthropicは拒否
- サプライチェーンリスク指定: 政府全体でのClaude利用禁止を発表
- 移行期間: トランプ大統領が6ヶ月の軍事アプリケーション移行期間を承認
Anthropicの立場
Amodei氏は以下の2点でClaudeの利用を拒否:
- 大量国内監視(Mass domestic surveillance)
- 完全自律兵器(Fully autonomous weapons)
「フロンティアAIシステムは、完全自律兵器を動かすほど信頼性が高くない。米国の戦闘員と民間人をリスクにさらす製品を、knowinglyに提供することはできない」— Dario Amodei
市場への影響
消費者の反応:
- Claudeアプリがアメリカのダウンロードランキングで初めてChatGPTを抜く
- App Storeで2位に浮上
- ChatGPTのアンインストールが295%増加(TechCrunch報道)
防衛産業の反応:
- Lockheed Martinなど防衛請負業者がClaude排除を進める見通し(CNBC報道)
- Palantirなど既存パートナーへの影響は不明
専門家の見解
ジョージメイソン大学のMissy Cummings教授(元海軍パイロット):
「彼が引き起こした混乱だ。AIの過剰な期待を煽った最大の会社が、今になって『待って、これらの技術を兵器に使うべきではない』と言い出している」
一方で、Cato InstituteのJennifer Huddleston氏は:
「政府に対して自社の倫理観とビジネス選択を貫いたことは称賛に値する」
個人開発者への示唆
民間利用への影響は現時点でなし。ただし、この事例はいくつかの示唆を含んでいます:
- AI企業の倫理的スタンスが消費者の選択に影響を与える時代
- 政府・軍事利用とコンシューマー市場の分離が進む可能性
- AI技術の信頼性(ハルシネーション問題)が軍事利用の障壁に
技術選定において、企業の倫理スタンスを考慮する開発者が増えるかもしれません。