オーストラリア政府がAI禁止評価協議へ
オーストラリア政府は、特定の「高リスク」AI(人工知能)ツールを禁止すべきかどうかを決定することを目的とした、8週間の協議期間を開始した事が分かった。
この動きは、急速なAI開発に伴うリスクに対処するため、米国、EU(欧州連合)、中国を含む他の地域がとった同様の措置に続くものである。6月1日(木曜日)、エド・フーシク(Ed Husic)産業科学大臣は、公開審査のために 2 つの論文を発表。1 つは「Safe and Responsible AI in Australia(日本語訳:オーストラリアにおける安全で責任あるAI)」で、もう 1 つは国家科学技術評議会からの「Rapid Response Report: Generative AI(日本語訳:迅速な対応レポート: 生成 AI)」である。これらの文書は、7月26日まで開かれる協議期間に合わせて発表されたものとのこと。
協議ではAIなどを完全禁止すべきかどうかを直接問う
オーストラリア政府は、AIの安全かつ責任ある利用を促進するための戦略に関するフィードバックを求めており、自主的な倫理枠組み、特定の規制、または両方のアプローチの組み合わせなどの選択肢を検討している。
中でも注目されているのは、同協議では、特定の高リスクAIアプリケーションやテクノロジーを完全に禁止すべきかどうかを直接問うものであり、そのようなツールを特定する基準について意見を求めていることだ。包括的なディスカッションペーパーには、自動運転車を「高リスク」に分類し、医療患者記録を作成するための生成AIツールを「中リスク」に分類するAIモデルのリスクマトリクス草案が含まれている。この文書では、医学、工学、法律などの分野でのAI の積極的な応用と、ディープフェイクツール、フェイクニュースの生成、AIボットが自傷行為を助長した事例に関連する潜在的な危害の両方を強調している。
オーストラリア政府対AI
AIモデルのバイアスや、AIシステムによる幻覚として知られる無意味または誤った情報の生成に関する懸念もディスカッションペーパーで取り上げられている。オーストラリアにおけるAI導入は、国民の信頼レベルが低く、現段階では限定的であることを認めている。この論文では、例として他の法域で施行されているAI規制やイタリアのChatGPTの一時禁止についても言及している。
さらに、国家科学技術評議会の報告書は、ロボット工学とコンピュータービジョンにおけるオーストラリアの有利な能力を強調しているが、大規模な言語モデルなどの中核分野における相対的な弱点を指摘。これは、生成用AIリソースが主に米国に本拠を置く少数のテクノロジー企業に集中していることへの懸念を引き起こしており、オーストラリアに潜在的なリスクをもたらしている。同レポートでは、世界的なAI規制をさらに調査し、生成AIモデル例を示し、そのようなモデルが銀行や金融から公共サービス、教育、クリエイティブ産業に至るまでの分野に広範囲に影響を与える可能性が高いことを示唆している。