OpenAIは、12日間にわたり、新プロジェクトや新機能を発表してきた。その最終日に、今年初めにリリースされた推論モデル「o1」の後継モデルとなる「o3」を発表した。「o3」には、標準モデルの「o3」と、特定のタスクに特化して微調整された小型モデル「o3-mini」がある。
OpenAIは、o3が特定の条件下において、AGI(汎用人工知能)に近づいているという主張もしている。
なぜ「o3」なのか?
o1の後継モデルであれば「o2」となるはずだが、商標の問題が原因で「o3」という名称になったようだ。OpenAIはイギリスの通信事業者O2との競合を避けるためにo2をスキップしたとのことだ。ラグビーのイングランド代表のジャージーの胸のスポンサーになっている会社だ。
o3の能力
o3は、従来のAIモデルとは異なり、事実確認を効果的に行うことで、従来のモデルが陥りがちな落とし穴を回避することができるという。ハルシネーションが減ると言うことなのだろう。今の生成AI の最大の問題だから対策をしているということのようだ。だが、この事実確認プロセスにはある程度の遅延が発生し、o3はo1と同様に、一般的な非推論モデルに比べて解答に到達するまでに数秒から数分長くかかる。しかし、その分、物理学、科学、数学などの分野において、より信頼性の高い結果を得られると言う。
o3は、OpenAIが「プライベート思考連鎖」と呼ぶプロセスを通じて、応答する前に「思考」するための強化学習によって訓練されているそうだ。このモデルは、タスクを推論し、事前に計画を立て、解決策を見つけ出すことができる。準備をして、作業にかかるというしっかり者のようだ。
o3は、プロンプトが与えられると、応答する前に一時停止し、関連するプロンプトを検討し、その推論を説明する。そして、最終的に最も正確と思われる応答を生成するのだそうだ。これも慎重な姿勢でよろしい。
さらに、o3では、o1にはなかった推論時間を「調整」する機能が追加されたと言う。モデルは、低、中、高の計算量(つまり思考時間)に設定することができる。計算量が高いほど、o3はタスクでより良いパフォーマンスを発揮するそうだ。使う方も、安全なやり方を選べるので、重要な作業には安全策を取れる。
OpenAIは、o3がAGIに近づいていると主張している。AGIとは、人間ができるあらゆるタスクを実行できるAIだ。だが、これらの主張は割り引いて考える必要があるだろう。これらはOpenAIの内部評価によるものにすぎない。また、OpenAIも特定の領域においてという注釈をつけている。将来的には、AGIが実現するにしても、機械が人間と同じ能力を持つのは、まだ先だろう。単純な作業や計算だけではなく、全体的な推論能力は人間が現時点では優れている。と思いたい。