<ニュース概要>
米国のAI企業Anthropicが、Pentagon(米国防総省)を相手取り訴訟を起こした。Pentagon側は「民間企業が政府のAI利用ポリシーを決めることはできない」と主張したのに対し、Anthropicは「自律型兵器や国民監視へのAI活用は認めない」と反発。交渉決裂後にPentagonが下した「サプライチェーンリスク」指定は国防省との取引を事実上禁ずる措置であり、Anthropicはこれをイデオロギー的報復だと訴えている。
<AI時代への考察>
生成AIの利用範囲が国家安全保障領域に踏み込む時代になり、開発会社は単なる技術提供者ではなくポリシーメーカーとしての姿勢を問われるようになった。AIの「使われ方」に責任を持つという姿勢は、企業ブランドの信頼性を担保する新たな要素になりつつある。
<管理部の視点から>
今回の件は、AI調達における「利用目的ポリシーの明確化」が、民間企業においても重要になることを示している。自社のAI利用ポリシーを策定しないまま導入を進めると、ベンダーとの摩擦や法的リスクを招く可能性がある。(※法務・内部監査的には、AI利用規程の整備状況の棚卸しを)
<出典>
出典:New York Times(2026年3月10日)
https://www.nytimes.com/2026/03/09/technology/anthropic-pentagon-lawsuit.html
