人工知能(AI)のリスクについて、ChatGPTの急速な普及に伴って多くの議論が起こっている。イタリアは、3月に、ChatGPTの開発元のOpenAIが、ユーザから違法に個人データを収集していること、そして未成年者が違法なデータに接触することを防ぐための年齢確認システムを設けていなかったことを理由としてChatGPTの利用
を禁止した。その後、OpenAIがChatGPTの仕様を変更して、イタリア当局の求めに応じたために4月から利用が再開されている。
アメリカでは連邦取引委員会(FTC)が、ChatGPTについての調査を開始した。具体的には、OpenAIに質問票を送り、その中で、OpenAI が、ChatGPTにどのようなデータを使って学習させているか、そして個人データの取り扱いについて、どのような配慮がなされているのかなど、数十の質問が含まれているそうだ。
いよいよ、アメリカでもAIの規制について動き出したようだ。OpenAIのサム・アルトマンCEOは、5月の議会の公聴会で、AI業界が急速に成長していることを受けて、何らかの規制が必要だと発言している。規制を検討しようと動きは確実にあるようだ。
OpenAIのChatGPTの成功を受けて、無数の生成AIツールが登場している。これらの生成AIツールが必ずしも正しい回答しないと言う事はよく知られている。それ以外の具体的なリスクについては、個人情報、漏洩のリスクを除けば、現時点では私にはよく分からない。
考えられる事は、AIが学習のためのデータを収集する際に、人種・性差などの偏見を読み込んでしまい、そのAIに様々な決定が委ねられた場合に、その偏見で判断してしまうことが考えられる。また、AIに決定を委ねることは、決定プロセスがブラックボックス化し、その決定についての監視が難しくなることも考えられる。
これ以外にもAIを悪用したディープフェイクなどの偽情報の拡散も考えられるが、これは技術の悪用であって、AI自体の問題ではない。さらに最近よく聞かれる。AIが仕事を奪うと言う意見もある。AIによって様々な仕事が効率化し、それを行っていた人員が不要になる可能性は十分に考えられる。しかしこれも新しい技術が登場した際に起こることで、これは避けては通れない。そのような議論は、ラッダイト運動のようなことになる。逆にAIを活用するような新しい仕事が生まれてくるので、失われる職場との相殺にならないにせよ、全てがマイナスになると言うわけでもない。
そもそも、すべての技術は、リスクが伴う。しかしながら、交通事故を起こす可能性があるからといって、車の運転を止める事は無い。リスクがあるから、交通規則を定め、車の安全性の高める努力を行っている。これは、車の場合には、ある程度リスクの大きさが想定されからだ。AIの場合とは違っている。AIが機能するウェブは、地球全体に張りめぐらされて、ありとあらゆる場所や機器につながっている。AIが暴走した場合に、どこでどのようなことが起きるかわからない。リスクの大きさが想定できないと言う意味では、AIは原子力に似ているかもしれない。だからこそ規制が必要だと言うアルトマンCEOの発言はそういうことなのだろう。
しかし、一方で、ChatGPTなどの言語生成AIツールにしても画像生成AIツールにしても様々な便益をもたらすことは確実だ。多くの仕事は簡単に済ますことができ、今まで専門家以外に作れなかったような画像や動画が簡単に誰でも作れると言うことができる。これは鉛筆からワープロになった以上の大きな進歩だ。
だが、実のところ現時点では何がリスクがわかっていないところが問題なのだろう。
FTCが送った質問票の内容は、よくわからない。ChatGPTの学習の方法や、個人情報の保護についての問題など、実は大した事では無いかもしれない。そういう意味では、何がリスクなのかわからないことが現時点のリスクと言っても良い。
しかし、これが日本のように、たかだか数百件のミスで、マイナンバーの精度そのものがダメだと言うようなスーパーホワイト社会では、そのような事は許されないのかもしれない。世の中を変えるためには、多少のリスクを許容することも必要だと考えるがどうだろうか。