国防総省へのAI提供を巡り倫理と安全保障の議論が拡大
Googleが米国防総省にAI(人工知能)モデルを提供する契約を締結し、社内外で議論が広がっている。
契約は機密軍事作戦でのAI利用に関わり、従業員の反発に加え、欧州やアジアでも米国企業への依存を見直す動きが出ている。契約では、国防総省がGoogleの技術を「あらゆる合法的な政府目的」で評価・利用できるとされる。
2025年にはOpenAI、Google、Anthropicとそれぞれ最大2億ドル(約320億円)の契約が締結され、主要AI企業と国防当局の連携が進んでいる。OpenAIとAnthropicのソフトウェアは、機密ネットワーク上で通常の制限なしに利用できるようにしようと試みられた。
一方で、AIは人間の監視なしに自律兵器や大規模監視に使うべきではないとする安全策も盛り込まれた。ただし、Googleは合法的な政府利用を拒否する権利を持たないとされ、この点が懸念を招く。
560人以上の従業員がサンダー・ピチャイ(Sundar Pichai)CEO(最高経営責任者)宛てに公開書簡を送り、軍事用途への提供停止を要請した。2018年の「Project Maven」でも同様の反発が起き、同社は契約更新を見送っている。
海外で進む米国AI依存の見直し
欧州やアジアの政府は、米国政府と関係を深める企業との取引を再検討し、代替手段の確保を急いでいる。背景には、国外データでも米国当局がアクセス可能となるCLOUD法への懸念がある。
フランスは昨年、保健データをMicrosoft Azureから国内のScalewayへ移行すると発表。EUも主権的なデジタルソリューションを重視し、AI調達で欧州製品を優先する方針を掲げた。
ただし代替には課題も残る。ScalewayやOVHCloudは存在感を高めているが、AWSやAzure、Google Cloudの規模には及ばない。QwantとEcosiaの検索基盤も利用規模で差が大きい。
今回の契約は、AIの軍事利用に加え、CLOUD法や技術依存の問題を浮き彫りにした。各国は今後、性能だけでなく安全保障とデジタル主権を踏まえた選択を迫られる。
























