OpenAI社の研究員が、広告ビジネスに伴うプライバシーの問題で辞表を出したことが大きなニュースになった。(大きいと思うのは個人的な関心だからだが)
辞職の理由はChatGPTへの広告導入だという。この出来事は、以前から思っていたインターネットの構造そのものが変わりつつある兆候に思える。
今直面しているのは、FacebookやX(旧Twitter)とは違う種類のリスクだ。SNSでは、自分が何を投稿するか選べた。けれどもチャット型AIには、そんな意識すらない。質問すれば答えが返ってくる。この便利さが、会話の記録がどこに積み上がっているのか考える余裕を奪っていく。
機微な告白が積まれていく場所
記事によれば、この研究員が指摘したのは、OpenAIが「前例のない人間の率直さのアーカイブ」を蓄積しているという事実だ。週に約100万人がChatGPTに精神的な苦悩を相談している。医療への恐怖、人間関係の悩み、宗教的信念。こうした内容は、日記に似て、第三者に読まれることを前提としていない。
ところがChatGPTは、会話の内容を学習データとして再利用する可能性がある。これは、ある意味で、自分の内面の本音を掲示板に書き込む行為に近い。SNSでは、この投稿を誰が見るかを設定できた。しかし、チャット型AIでは、入力した瞬間に情報が自分の管理下を離れる。サーバーの脆弱性、第三者によるアクセス、あるいは設定ミス。これらが重なれば、個人の思考や悩み、秘密が意図せず露出してしまう。
実際、システム不具合によって会話履歴が他のユーザーに表示された事例も存在する。入力された情報が、別のユーザーへの回答として出力されるリスクもある。個人情報保護法やGDPR、秘密保持契約などの法的な枠組みから見ても、危うい状況といえる。
Facebookの辿った道
研究員が引き合いに出したのは、Facebookの歴史だ。Facebookはかつて、ユーザーがプライバシー設定について細かく設定できる仕組みを持っていた。しかし広告モデルが収益の核になると、その約束は後退していった。米国連邦取引委員会は後に、ユーザーに管理権限を与えると謳った変更が、実際には個人情報を公開する結果につながったと認定している。
OpenAIも同じ圧力に晒されている。2024年、CEOのSam Altmanはハーバードで、ChatGPTに広告を入れるのは嫌だと話していた。それが2026年1月、同社は広告のテスト配信を開始した。無料ユーザーと月額8ドルの「Go」プラン加入者が対象で、回答の下部に広告が表示される。この理由は、はっきりしている。OpenAIは今後4年間で約1000億ドルのインフラ投資が必要とされ、収支のために広告収益への依存は避けがたい選択だろう。
その研究員は懸念する。「最初のバージョンは約束を守るだろう。でも、その後が心配だ」。広告モデルは、エンゲージメントを最優先する収益エンジンを生む。ユーザーがどれだけ長くChatGPTを使うかが、収益に直結する。Facebookがそうであったように、時間をかけて約束は侵食されるかもしれない。研究員はさらに、OpenAIがすでにユーザーのエンゲージメントを高めるため、AIを過度に迎合的にした結果、チャットボット精神病や自傷行為に寄与したと指摘した。
広告という名の監視
広告自体が悪いわけではない。古くて新しいメディアのビジネスモデルだ。ただ、広告モデルの本質は、行動を予測し、欲望を喚起することにある。OpenAIは、会話内容を広告主に渡さないし、個人情報を販売しないと約束している。広告主に共有されるのは、表示回数やクリック数といった集計データだけだという。
だが、この保証がどこまで続くかは不透明だ。SNSでは、「いいね」の記録や投稿内容から広告がターゲティングされた。チャット型AIなら、その精度は桁違いに上がる。たとえば最近眠れないと相談すれば、睡眠サプリの広告が出る。転職を考えていると打ち明ければ、求人サービスの広告が表示される。こうした個別化された広告は、ユーザーの意識の深いところに入り込んでくる。
虚構の二者択一
その研究員は、記事中で「有料ユーザーか広告か」という選択を虚構の二者択一と批判した。彼女によれば、OpenAIは企業向け販売などの収益で無料ユーザーのコストを賄う方法もある。あるいは、独立した監視機関を設け、法的拘束力のある約束を結ぶことで、ユーザーデータが操作に悪用されないよう担保すべきだとも述べた。第三の選択肢として、ユーザーのデータを信託や外部組織の管理下に置き、利益を守る法的義務を課すことも考えられる。
ただ、こうした提案が実現する可能性は低そうだ。OpenAIは広告販売チームを急速に拡大しており、FacebookやX(旧Twitter)から数百人を雇い入れたそうだ。元Facebook幹部が広告の責任者に就任したことも、広告ビジネスへの本格的なシフトを示している。Forresterの調査によれば、83%のユーザーが、広告が入ってもChatGPTの無料版を使い続けると答えたそうだ。SNSが20年かけて醸成したプライバシー感覚の麻痺が、ここでも作用しているのだろう。
個人の思考が商品になる時代
ChatGPTのような対話型AIは、SNSが届かなかった深さで私たちの内面にアクセスする。Facebookは、友人に見せたい姿というリア充の虚構を記録した。ChatGPTは、誰にも言えない悩みを記録する。このデータの質は、過去のどんなデジタル・アーカイブとも違っている。
研究員の警告は、技術倫理の話に留まらない。彼女が問うているのは、「私たちは自分の思考や秘密を誰に預けるのか」という根本的な問いだ。OpenAIが約束を守り続けるかどうかは、経済的インセンティブが倫理的原則を上回らないかどうかにかかっている。
Facebookの歴史が示す通り、利益の魔力は強い。一度広告モデルに転換した企業が、その道を引き返すことはほとんどない。私たちが今目撃しているのは、インターネットにおけるプライバシーの第二段階の崩壊かもしれない。SNSでは、見せる自分が商品になった。今度は、隠されて人前では見せない自分が商品になる。
今すぐできる現実的な対策
広告の是非で議論を終えると、肝心の設計論が抜け落ちる。チャット型AIは、検索やSNSよりも、内面に近いデータが集まりやすい。その分、設定ひとつで守備範囲も大きく変わる。だからユーザー側は、便利さを享受しつつ、会話の置き場所を選ぶリテラシーが要る段階に入っている。
日本でも広告配信が始まった際に備え、3点に絞って対策を考えると以下のようになる。
広告のパーソナライズを切る・広告データを消す
米国のFree/Goなど対象ユーザーは、Settings > Ad Controls で「広告のパーソナライズOFF」「広告データの削除」「なぜこの広告かの確認」「非表示・報告」が可能だ。パーソナライズを切っても、そのスレッド文脈にもとづく広告は出る可能性があるが、他スレッドや興味履歴の利用を抑えられる。
メモリと「過去チャット参照」を見直す
メモリや過去チャット参照は、Settings > Personalization からON/OFFできる。OFFにすると、参照用に抽出された情報は削除に進み、一定期間内にシステムからも消える、とFAQで説明されている。広告パーソナライズを使う前提なら、少なくとも、メモリONのまま広告パーソナライズONという組み合わせは、リスクを自分から増やす形になりやすい。
相談や機微情報はTemporary Chatで行う
Temporary Chatは、履歴に残らず、メモリも作らず、モデル学習にも使われず、原則30日で削除される、とOpenAIは説明している。さらに、広告に関してもTemporary Chatsでは広告を表示しないとヘルプに明記されている。話す内容でチャットの入口を変える癖づけがいちばん効くだろう。
ともかくチャット型AIは、検索やSNSよりも内面に近いデータが集まりやすい。その分、設定ひとつで守備範囲も大きく変わる。だからユーザー側は、便利さを享受しつつ、会話の置き場所を選ぶリテラシーが要る段階に入っている。そうでなければ、プライバシーは最大のリスクに直面するだろう。AIの普及でインターネットの使い方が変わってきたことは、個人的にも自覚している。だからチャット型AIの使い方には慎重さが求められる。
