Anthropic(アントロピック)、中国AI企業によるClaudeへの大規模攻撃を主張

Anthropicが中国AI企業によるClaudeへの大規模攻撃を主張

Anthropic(アントロピック)は、中国のAI(人工知能)企業3社による、同社のClaude(クロード)モデルの機能を不正に抽出する大規模なキャンペーンを特定したと発表した。

同社によると、中国のAI企業DeepSeek(ディープシーク)、Moonshot AI(ムーンショットAI)、MiniMax(ミニマックス)の3社は2万4,000件以上の偽アカウントを作成し、自社モデルの学習用データを抽出するため、Claudeに1,600万件以上のプロンプトを送信。名指しされた企業は3社は、2万4,000件以上の偽アカウントを作成し、同社のクロードシステムからデータを盗用したという。

3社の研究機関は約2万4,000の不正アカウントを通じてClaudeと1,600万件以上のプロンプトを送信し、学習に再利用できる応答とパターンを収集していたという。DeepSeekは約15万件、Moonshot AIは340万件、MiniMaxは1,300万件以上のインタラクションを記録しており、アントロピックはこれを「戦術蒸留」と呼んでいるという。

同社は、蒸留を利用する外国の研究所が米国のモデル機能を軍事、諜報、監視システムに流用する可能性があると警告した。

一種の蒸留作業だった

同社は最新のブログでこの件についての詳細を明らかにしており、この活動は一種の蒸留作業と呼ばれるものであった。

これらの研究機関は“蒸留”、つまりより高性能なモデルの出力を用いてより小規模なモデルを学習させる手法を用いていた。この技術は最先端の研究機関が自社システムの軽量版を作成するために社内で広く利用されているが、今回のケースではClaudeの推論、コーディング、ツール使用能力を大規模に再現するために導入されたという。

DeepSeekは、推論タスクと詳細な段階的な説明の抽出に焦点を当てた15万回以上のやり取りを実行し、トレーニングデータを生成すると報告されている。Moonshotは、エージェントによる推論、コーディング、コンピューター使用をターゲットとした340万回以上のやり取りを実施。MiniMaxは1,300万回以上のやり取りを実施。Anthropicは、MiniMaxの活動中にその活動を検知し、新モデルのリリース後のトラフィックの変化を観察していた。

Anthropicが新行動検知システムを導入

同社は、違法な蒸留によって構築されたモデルには、サイバー攻撃や生物学的脅威といった分野での悪用を防ぐための安全対策が欠如している可能性があると警告している。

このような活動は、外国の研究機関が制限対象の機能を複製することを可能にすることで、米国の輸出管理を弱体化させる可能性があると主張している。同社は、こうしたキャンペーンに対抗するため、新しい行動検知システムを導入し、アカウント認証を強化する。業界関係者や当局と情報を共有するとともに、正規ユーザーへのサービス低下を招くことなく、データ抽出の効果を低減するための製品およびAPIレベルの安全対策を開発していると述べている。

 

ABOUTこの記事をかいた人

NEXT MONEY運営です。 「話題性・独自性・健全性」をモットーに情報発信しています。 読者の皆様が本当に望んでいる情報を 日々リサーチし「痒いところに手が届く」 そんなメディアを目指しています。