SECがブローカー向け新AI(人工知能)ルールを10月に導入予定

SECがAI新規制を導入へ

SEC(米国証券取引委員会)は、顧客とのコミュニケーションにAI(人工知能)を使用する証券会社に対する新たな規制を導入する予定であることが分かった。

AI技術に関連する利益相反に対処するのが目的で、規則は10月までに施行される予定だ。提案されている規制には、予測データ分析と機械学習が含まれるという。SECのゲイリー・ゲンスラー(Gary Gensler)委員長は、ブローカーの推奨事項と顧客の最善の利益との整合性について一貫して懸念を表明。金融専門家が使用する特定テクノロジーから生じる潜在的な利益相反についても強調した。同委員長は声明の中で、SECが技術、市場、ビジネスモデルの変化に合わせて業務を適応させることの重要性を強調した。

米国政府がAIが金融業界に与える影響を調査

メディアの注目は AI ツールに集中しているが、米国政府はこれらの新テクノロジーに対する包括的なアプローチをまだ確立していない。

日本語訳:
CFPBは、アルゴリズムによって計算される住宅評価に関するルールを提案しました。これは、「人工知能」として販売されているものを含む自動化されたシステムやモデルが法律を回避する手段として使用されないようにするために当社が講じている多くの措置の 1 つです。

国内有数の消費者監視団体であるロヒット・チョプラ(Rohit Chopra)氏は、AIを効果的に制御しなければ、金融業界での詐欺や差別の増加につながる可能性があると警告。SEC による半年ごとの規則作成の議題には、AI 仲介の使用を制限する提案が含まれている。この提案は、より多くのロボアドバイザーに資金管理者として登録させ、追加の規制を課すことを目的としている。さらに、SECは大手ブローカーに対し、顧客の準備金要件を毎週ではなく毎日計算するよう義務付けることを検討している。

ゲンスラー氏はAIの普及による金融危機の可能性を警告

のゲンスラー委員長は最近、企業によるAIの広範な利用が次の金融危機を引き起こす可能性について懸念を表明し、AI技術の利用によってもたらされる潜在的なシステミックリスクについて警告した。

ゲンスラー氏は、データアグリゲーターやAIプラットフォームへの依存により、金融システムが将来的に「脆弱性」になる可能性について懸念を表明したうえで、生成AIとして知られる単一の基礎レベルへの過度の依存に起因する可能性がある2027年の危機の可能性を強調した。企業が生産性向上の可能性を理由にこの技術を採用しているにもかかわらず、ゲンスラー氏を含む多くの政府関係者は生成AIに対して懐疑的な姿勢を維持。金融分野では、コンプライアンスや顧客デューデリジェンスなどのタスクを合理化するため、銀行やその他の機関によって人工知能が活用されてきた。しかし同委員長は、潜在的な効率性のメリットがあるとしても、AI システムを綿密に精査することの重要性を強調した。

高度AIの安全基準とライセンス

OpenAIのCEO、サム・アルトマン(Sam Altman)氏は議会に対し、高度AIの安全基準とライセンス要件を確立するよう求めている。

同氏は、AI システムでリスク管理がどのように処理されるかを理解することの重要性と、偏見のある意思決定の可能性を強調。さらに、米国の規制当局は、AIが設計者やトレーニングデータに存在するバイアスを意図せず増幅する可能性について繰り返し警告してきた。法執行機関は最近、融資、住宅、雇用の分野における AI の差別と偏見に対処することに取り組んでいる。小規模な管轄区域でも、AIテクノロジーの使用を規制する措置を講じている。

AIアドバイザリーボード設立を支援

これを踏まえ、グテーレス国連安全保障理事長は、さまざまな取り組みを効果的に準備するためのAI諮問委員会の創設への支持を強化した。

日本語訳:
アントニオ・グテーレス国連事務総長は月曜日、国際原子力機関のような国際的なAI監視機関の創設を求める一部のAI(人工知能)幹部らの提案を支持した。

グテーレス氏は、AIの懸念やデジタルプラットフォーム上の誤った情報に対処する必要性を強調したうえで、これらの問題に対処するための国際行動規範を提案。国連事務総長は、AIの憂慮すべき性質を認識しながらも、デジタル技術によって引き起こされている既存の害から注意をそらさないよう警告。同氏は、デジタル技術が私たちの世界にすでに与えている損害に対処し、軽減する必要性を強調している。

ABOUTこの記事をかいた人

NEXT MONEY運営です。 「話題性・独自性・健全性」をモットーに情報発信しています。 読者の皆様が本当に望んでいる情報を 日々リサーチし「痒いところに手が届く」 そんなメディアを目指しています。