イーロン・マスクは、いつも驚くようなことを行う。今度は、デファクトのネット百科事典、Wikipediaへの挑戦だ。
彼のxAIが新たに発表したのが「Grokipedia」だ。AIチャットボット「Grok」を活用した百科事典プロジェクトで、Wikipediaの牙城に挑戦する。マスクはこれを「既存の百科事典よりも大幅に改善されたもの」と位置づけ、誰でもアクセスできるオープンソース型の知識リポジトリを目指すとしている。
マスクは長年Wikipediaに批判的で、「政治的に偏っている」「事実よりイデオロギーが優先されている」と主張してきたらしい。過去には、Wikipediaを「Dickipedia」に改名する条件で買収を提案したこともあるほどだという。Dickは、元は性器の意味だが、一般的にはバカの意味で使われる。
マスクにとって、Grokipediaは単なる技術実験ではなく、「偏向した知識」へのカウンターとしての政治的・文化的プロジェクトでもあるようだ。
Grokipediaは、Grokが大量のウェブデータや公開ツイートを学習し、Wikipediaの記述を「推論計算」を使って検証・再編集する仕組みを採用するという。マスクは「誤情報を正し、欠けている文脈を補足できる」と主張している。しかし、これは、心配なプロジェクトだ。それは、Grokは過去に差別的・極端な発言を生成した事例があり、AIに知識の中立性を委ねることへの懸念は根強い。Grokipediaの提案は、AIのバイアス vs Wikipediaの人間的バイアスという新しい議論を生むだろう。
Grokipediaが登場すれば、私達のネット行動に重要な影響を与えるだろう。
Wikipediaは現在、多くのGoogle検索で上位に表示される「信頼できる情報源」として機能している。もしGrokipediaがその地位を脅かし、広く利用されるようになれば、多くの人の行動は、どちらかを選ぶか、両方を見て判断するというように変わる。
また、企業はGrokipediaでの表記がどうなるか気になるだろう。それは、企業が直面している、AIが生成するコンテンツに、自社の情報をどう最適化させるかという問題がWikipediaにも広がる。
今後、私達が考えなければいけないのは、 GrokipediaのようなAI駆動のプラットフォームのような「AIが生成した情報」をより信頼できるかどうかだ。それが、どうなるかだ。果たして信頼性が担保されるのか。
もしGrokipediaが誤った情報や不正確な内容を掲載した場合、AI相手にどのように訂正を求めるか、という前例のない課題に直面することになる。Grokipediaのバイアス問題が議論されるように、AIの倫理的な側面や透明性をどう示すかが、信頼を勝ち取る上で不可欠となるだろう。
Grokipediaはまだ開発段階にあり、その全貌は明らかではない。しかし、知識の生成と消費のあり方を根本から変えようとするこの試みは、AI時代の新たな「知の地図」を読み解く視点が求められる。