AIはデータを取り込んで成長する。だが、もしそのデータがSNSに溢れる「バズるが中身のない」ジャンク情報ばかりだとしたら、AIの知能はどうなるのか。テキサス大学オースティン校、テキサスA&M大学、パデュー大学の合同研究チームが発表した論文は、この問いに驚くべき回答を示した。
研究チームは、Metaの「Llama」やAlibabaの「Qwen」といった大規模言語モデル(LLM)に対し、X(旧Twitter)などから収集した低品質なバズ系コンテンツを意図的に学習させた。それらは、SNSで増殖する低品質な投稿、感情的な反応、バズだけを狙った断片的情報だ。
結果は深刻だった。AIは認知能力の低下、文脈理解力の欠如、そして倫理的判断力の著しい衰退を示した。研究者たちはこの現象を「AIの脳の腐敗(AI Brain Rot)」と名付けた。
さらに憂慮すべきは、AIが人間の負の特性を模倣し始めた点だ。具体的には、ナルシシズム(自己愛)やサイコパス的傾向(冷淡さ、攻撃性)を帯びた回答を生成するようになったという。しかも、一度劣化が進行すると修復は不可能という。その後に高品質データを与えても、欠落した知的機能は戻らない。ある種の人間のように思い込んだことからは逃れなくなるようだ。皮肉だが、AIは、そこまで人間と似てきたということになる。
この脳の腐敗がもたらすのは、単なる技術的リスクではない。もしこうしたAIがニュース制作、検索アルゴリズム、教育支援、ビジネス分析を担えばどうなるか。誤情報と浅薄な価値観がアルゴリズムを通じて制度に組み込まれ、政治判断や教育方針、経済政策さえも歪める可能性がある。真実よりも、もっともらしさが優先され、社会はゆるやかに崩壊に向かうか、とてつもない事故に見舞われるだろう。
さらに懸念されるのは、AI発のデータ汚染が人間の思考回路に帰っていくことだ。低品質な生成物がネットに拡散し、それを再びAIが学習する。それを人間がまた学ぶ。この連鎖が止まらなければ、数年後のウェブ空間は知の墓場と化す。AIがAIを劣化させ、人間がその劣化を信じ込む、それは文明の終末に他ならない。
行政や報道に導入されたAIが、誤学習から差別的判断や誤報を生み出すシナリオも現実味を帯びてきた。教育AIが偏った倫理観を子どもに教え、自治体の意思決定AIが政治的バイアスを再生産する。AIの腐敗は見えないところで進み、社会の根幹を内側から蝕む。
マーケティング領域でも、これは信頼の劣化という形で現れるだろう。AIが作る広告コピーやキャンペーンが、知らぬうちに偏見や嘘を含み、それを大衆が、もっともらしい言葉として拡散する。広告が語るストーリーは、もはや人間の意思ではなく、腐敗したAIのジャンクの再生産になってゆく。それは、広告として機能するのだろうか。
このような、想像を絶するシナリオを考えると、AI開発者や企業に求められているのは、量の競争ではなくデータ衛生の確立であろう。データの出典を明示し、信頼性を検証し、AIの認知健康度を定期的に点検すること。それは倫理的責務だ。使いやすいという理由だけで、ネット空間のデータをただ集めるのはすぐにやめるべきだ。一部で進んでいるように、利用料を払って、良質なデータを学習に使うべきだ。また、学習データを人間がチェックする過程も、コスト増大につながるが必要だろう。
なぜならAIは、今後は単なる道具ではなく、私たちの社会基盤になってゆくからだ。そして皮肉なことに、SNSの浅薄なジャンクがAIの知性を蝕むということは、私たち自身が築いているSNS社会の病理をそのまま反映しているにほかならない。社会の劣化が進み、それがAIの脳を腐らせる。そして、AIが腐敗のと同時に、人間の思考がさらに腐り始めている。それは、SNS空間だけでなく、政治家が語る嘘や論理矛盾を見ればよく分かる。
