OpenAIがGPT-4を発表
OpenAIは、最新AIモデルのアップデートである「GPT-4」のリリースを発表した事を発表したことが分かった。
OpenAI は、最新モデルの GPT-4 のリリースを発表。これは、有名な AIチャットボット ChatGPT が構築された既存のGPT-3.5の更新バージョンで、画像入力を受け入れ、テキスト出力を生成できるようになっている。最新モデルでは、テキストコンテンツからの入力に加えて、画像や写真を読み取ってテキスト出力を生でき、同社は、モデルがさまざまな専門的および学術的基準にわたって人間レベルで機能すると主張している。また、GPT-4ではテキストだけでなく画像の入力を受け付けており、テキスト出力を行なうマルチモーダルモデルとなっている。
GPT-4が画像を読み取るように
このAI企業は、同モデルが困難な問題をより正確に処理でき、これまで以上に革新的かつ創造的であると主張している。
テキストと画像入力を理解できるようになったものの、通信できる唯一の方法はテキストを介することである。また、OpenAIは、情報をでっち上げる傾向(※別名「幻覚」)や、有害で暴力的なコンテンツを生成する能力など、システムが以前の言語モデルと同じ問題の多くを引き続き抱えていることを警告している。OpenAI は、カジュアルな会話では、GPT-3とGPT-4の違いは微妙であることが判明する可能性があることを指摘しているが、タスクの複雑さが重要なしきい値に達すると、コアの違いが明らかになり、それがGPT-4の出番である。より信頼性が高く、創造的で、「GPT-3よりもはるかに微妙な指示を処理できる」ようにする。
許可されていないコンテンツへの対応や、ChatGPT開始以来、開発者が直面している強い批判について話している間、チームは次のように述べている。
私たちはGPT-4をより安全でより整合性のあるものにするために6カ月を費やしました。内部評価によると、GPT-4は許可されていないコンテンツのリクエストに応答する可能性が82%低く、事実に基づく応答を生成する可能性はGPT-3.5よりも40%高くなります。
GPT-4は変装して登場
ひょんなことから OpenAI によって、新世代の言語モデルがずっと見え隠れしていたことが明らかになり、注目されている。
Microsoftは、OpenAIと共同作成したAI(人工知能)チャットボット「Bing Chat」がGPT-4で実行されていることを明らかにしている。他の初期のユーザーには、GPT-4を使用して商用ビジネスウェブサイトをスキャンし、要約をカスタマーサポートスタッフに中継するStripeや、GPT-4を新しい言語学習サブスクリプション層に統合したDuolingoなどがある。OpenAI のプレミアムカスタマーは、ChatGPT Plusを介してGPT-4に即座にアクセスでき、開発者は待機リストに参加した時点でAPIにアクセスできる。