インターネットで匿名アカウントを持つことは、自由に発言するためのベースとして機能してきた。Facebookは基本的には実名登録で使うが、多くのサービスを匿名で使っている人が多いのは、そのような目的だ。だが、これが変わりつつあるかもしれない。
ETH ZurichとAI企業Anthropicの研究者チームが2026年初頭に発表した論文は、驚くべき事実を示している。大規模言語モデル(LLM)を使えば、匿名のSNSアカウントを実在する人物と高精度で紐づけることが可能だというのだ。しかもたった1〜4ドルのコストで、大規模かつ自動的にだ。
犬の名前と公園の名前から始まる
実験の仕組みはこうだ。研究者たちはAIエージェントに匿名アカウントの投稿を読み込ませ、そこから人物像を再構築させた。
架空の例として挙げられたのが、「学校がつらい」「愛犬のビスケットとドロレス・パークを散歩した」と書いた匿名ユーザーのケースだ。AIはこれらの断片を手がかりにウェブを検索し、ある人物を特定の実在人物と高い確信度で照合した。犬の名前、公園の名前、学校の話など、どれも些細な情報に見えるが、組み合わさると人物を特定するのに十分なデジタル指紋になる。
Hacker NewsのユーザーをLinkedInのプロフィールと照合した実験では、67%の回収率と90%の精度を達成した。338人中226人が特定されたということだ。 Redditの映画コミュニティでも同様の結果が出たそうだ。面白く思ったのは、映画について語れば語るほど、AIにとっては特定しやすくなるということだ。これは、なぜなのかの説明はなかった。多分理由は分からないのだろう。
コストが下がると、何が変わるか
かつて匿名アカウントの身元を暴くには、熟練した調査員が何時間もかけてネットを掘り返す必要があった。それがひとつのブレーキとして機能していた。コストが高ければ、標的を絞る必要があり、大量の一般市民が監視されることはなかった。
だが、もう違う。1〜4ドルで1アカウントを特定できるとなれば、数万人規模の調査も現実のコスト範囲に収まる。 研究者たちは「LLMは非匿名化を民主化する」と書いている。もう匿名のマスクをつけてネット上で発言できなるということだ。
三つの脅威シナリオ
研究者たちは、研究レポートで、具体的に悪用のシナリオを挙げている。
- 政府による反体制派の監視。匿名アカウントで政権を批判していたジャーナリスト、活動家、内部告発者が特定されるリスク。 表現の自由が保護されているはずの国でも、AIによる監視の圧力があれば、自己検閲が広がるかもしれない。
- 企業によるプロファイリング。「匿名のつもり」で書いたフォーラムの投稿が顧客データベースと紐づけられ、超精密なターゲティング広告に使われる。あるいは採用選考の裏側で参照される。
- フィッシング詐欺の高度化。攻撃者が構築した詳細なプロファイルをもとに、「あなたの友人を装った」メッセージを送りつける手口は、すでに現実の脅威として認識されている。 AIによって、このような詐欺が大規模かつ低コストで仕掛けられるようになる。
「誰かが冤罪を着せられる」という問題
技術的な問題も見逃せない。LLMはしばしば誤った照合をする。あるコンピュータ科学教授は、「人々は自分がやっていないことで非難される」かもしれないと警告している。
AIが「このアカウントはあの人だ」と高い確信度で判断しても、それが誤りである場合がある。特定された人物が実際には無関係だったとき、それが公的な場で流布してしまえば、取り返しのつかない名誉毀損につながりかねない。
精度の高さと誤りのリスクが同居するという点で、この技術は非常に扱いが難しい。人間の判断が介在しないまま自動的に「特定」が行われる場合、そのリスクはさらに高まるだろう。これが、現時点のLLMの限界だ。だが、早晩、かなり精度は高まることは確実だ。
日本という文脈で考える
匿名文化がとりわけ根付いている日本のSNS環境において、この問題はことさら重い。2ちゃんねる(現5ちゃんねる)から始まり、X(旧Twitter)のアカウントに至るまで、「匿名であることが前提」の発言文化が長年培われてきた。
その前提が崩れたとき、日本の言論空間にどんな変化が起きるか。萎縮なのか、それとも逆に過激化なのか。どちらの方向に転んでも、健全な議論の場が失われるおそれがある。
また、病院の診療記録や統計データなど、医療・行政分野の匿名化されたデータも、LLMを使えば個人と紐づく可能性があるという指摘も重要だ。 2026年に改正が議論されている個人情報保護法においても、AIによる再特定リスクへの対応は喫緊の課題として浮上する。
何ができるか
完全な解決策はまだない。研究者は、プラットフォームがデータアクセスを制限することを第一歩として提案している。制限の強化、自動スクレイピングの検知、一括エクスポートの制限などだ
個人レベルでできることは、自分がどれだけの情報を、意図せず公開しているかを意識することだろう。愛犬の名前、よく行く公園、通っていた学校など、そのどれもが単独では無害に見えても、AIの目には組み合わさって「あなた」として見えているかもしれない。今までも窓の外の風景から住所が特定された例もある。
「匿名だから安全」という感覚が、すでに過去のものになりつつある。その事実を、私たちは認識すべき時代になったということだろう。
