AIのリスク

by Shogo

Open AIのサム・アルトマンCEOがアメリカ上院の公聴会でAIの危険性とその規制の必要について証言した。その証言の中で、AIが問題があった場合には、その問題はかなり悪い方向に行く可能性がある。そうならないように、規制の面で政府と協力したいと述べた。

昨年11月にOpen AIが、ChatGPTを一般に公開して以来、話題は全てAIばかりになってしまった。もはやブロックチェーンもNFTもメタバースもあまり語る人もいなくなってしまった。もはやオワコンに近づいたと言ってもいいかもしれない。

Twitterの創業者ジャック・ドーシーの最初のTweetがブームの際には3億円で落札されたが、それが再び売り出された時は落札価格は300万円になってしまった。これは直接AIの話題の盛り上がりとは関係ないのかもしれないが、NFTの盛り上がりはどこかへ消えてしまっている。

一方、AIについてはChatGPTが公開後2ヶ月で1億人のユーザを獲得して大きな話題となった。その後、ユーザー数は公開されていないが、かなりの希望になっているものと推測する。3月には、高性能のGTP-4が有料で公開され、APIも使えることからビジネスでの実用化も始まっている。Open AIのパートナーのMicrosoftも。ブラウザのBingにChatGPTを組み込んで、自由に使えるようになっている。

対抗してGoogleもAIチャットボットのBardを3月に限定されたユーザに公開し、5月からは一般のユーザも使えるようになった。今は多分、これらのAIチャットボットは10億人単位で使われているはずだ。

上院の証言の中でアルトマンCEOは、AIの技術は一部の雇用を破壊するかもしれないが、新たな雇用も生み出すと述べている。これは実際その通りだ。文章の要約や定型文の作成、コンピュータコード作成など決まった業務を行うのであれば、これほど便利なものがない。問題は、チャット型のAIを検索がわりに使うことだ。

GoogleのBardも使ってみたが、文章やウエブサイトのポイントの要約など、非常に早く簡単に、しかも普通の日本語でできる。音声認識を組み合わせれば、会議の議事録などもすぐにできてしまうであろう。

問題は、このようなAIチャットボットを全能の神のように考えて、それに検索など情報収集で依存してしまうことだ。

ChatGPTにしてもBardにしても世界中にある何百兆と言うウェブサイトを読み込んで、その情報から文章を生成しているだけだ。そこには何の判断も感情もない。

ウェブ上に溢れているヘイトスピーチや誤情報も、まるで幼稚園児のように信じ込んで、それを元にして間違った情報を生成することがある。だから、検索がわりに使ってはいけないのだ。

文章を生成する能力は優れたものがあり、また世界中の様々な文章から学んでいるので、一見もっともらしい嘘をつく。だから、1つのツールとしてその限界と能力を知って使うべきものなのだろう。

ChatGPTが出てきたときに、昔読んだフレデリック・ブラウンの小説を思い出した。それは遥か未来に、科学技術の発展して人類が多くの星に進出した時代の話だ。その時に多くの星にあるコンピューターをつないで、1つの巨大な、ネットワークされたコンピュータを生み出した。そして、人類がそのコンピューターに最初に聞いた質問は、「神は存在するか」だった。それに対して、ネットワーク化されたコンピューターは、「もはや存在する」と答えたと言う話だ。

しかしながら、現時点のAIには、神はおろか、まだ幼稚園児にもあるような判断能力はない。持たせるかどうかが、まさにアルトマンCEOが言ったことだ。全能の神にすることはできるのかもしれない。だが、それは危険なので、あくまでも機能を限定して、その範囲内で使うべきものだということだ。非常に使いやすい、なんでもしてくれるボールペンだと思えば良い。

そもそも人間には、世界中のウエブを読み込んで学習する能力はない。それは、AIに任せて人間にしかできないことをすべきだろう。考えて判断するのは人間で、AIは指示されたように自動で書いてくれるボールペンとすべきということをアルトマンCEOが言ったのだと思う。

関連記事

You may also like

Leave a Comment

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください