OpenAIがオーストリアでプライバシー侵害の申し立てを受けEU法違反の可能性

OpenAIがEU法違反の可能性

人気AI(人工知能)チャットサービス「ChatGPT」を開発したOpenAI社は、法令遵守とデータの正確性という課題に直面していることが明らかになった。

この問題により、オーストリアのウィーンを拠点とする非営利団体NOYB-the European Center for Digital Rights(NOYB欧州デジタル著作権センター)は、オーストリアDPA(Austrian Data Protection Authority:データ保護局)にOpenAIに対する苦情を申し立てた。

OpenAIのデータ収集は、規制機関やプライバシー擁護団体の間で懸念を呼んでおり、今回のNOYBの動きは、テクノロジーにおけるデータの倫理的利用をめぐる、より大きな議論を巻き起こす可能性がある。苦情の核心は、ChatGPTのデータ取り扱いにおける限界について、OpenAIが最近認めたことにある。OpenAIによると、AIモデルは個人について生成した情報の正確性を検証できず、データ入力の出所も開示できないとのことだ。

EUでは個人データの正確性が義務付けられている

2022年11月のChatGPTの発表に端を発したAIハイプの高まりの中で、このツールの広範な採用は重大な脆弱性を露呈している。

ChatGPTは、事実の正確さを保証する固有のメカニズムなしに、ユーザーのプロンプトに対する可能性の高い反応を予測することによって動作ができる。そのため、AIがデータを幻覚し、誤解を招きかねない、あるいは全くの虚偽の回答を捏造する事例が発生しており、このような不正確さは、文脈によっては取るに足らないものかもしれないが、個人データに関わる場合には重大なリスクをもたらす可能性が指摘されている。

EU(欧州連合)のGDPR(General Data Protection Regulation:一般データ保護規則)は、個人データの正確性を義務付け、個人に対して自分自身に関する誤った情報にアクセスし、修正する権利を認めている。実際、OpenAIの現在の機能は、これらの法的要件を下回っており、機密データを扱うAIの倫理的意味合いについての議論を巻き起こしており、NOYBのマールチェ・デ・グラーフ(Maartje de Graaf)データ保護弁護士は次のように述べている。

企業は現在、ChatGPTのようなチャットボットにEU法を遵守させることができないのは明らかです。システムが正確で透明性のある結果を出せなければ、個人に関するデータを生成するために使用することはできない。テクノロジーは法的要件に従わなければなりませんが、その逆はできません。


ヨーロッパのプライバシー団体より厳しい監視を受けるChatGPT

問題は技術的なハードルにとどまらず、より広範な規制上の課題にも及んでおり、ChatGPTを含むジェネレーティブAIツールは、その登場以来、ヨーロッパのプライバシー監視団から厳しい監視を受けてきた。

例えば…、イタリアのDPAは2023年初め、不正確であるとしてChatGPTによるデータ処理に制限を課したほか、欧州データ保護委員会は、このようなAIプラットフォームに関連するリスクを評価し、軽減するための協調的な取り組みを実施している。

同じ頃、OpenAIは、同じくOpenAIを率いるサム・アルトマン(Sam Altman)が共同設立したプロジェクトであるワールドコイン(Worldcoin)と戦略的提携を結ぶための話し合いをしている。しかし、OpenAIとWorldcoinの協業の可能性は、さらに法的・倫理的なジレンマをもたらす可能性がある。バイオメトリック・データの利用に対するWorldcoinのアプローチは、データのプライバシーと正確性を確保するというOpenAIの課題と交差している。