AI生成検出ツール

by Shogo

ウクライナのウクライナでの戦争の話をニュースにならない日があっても、AIについてのニュースが無い日はない。

調査会社のGrand View Researchによると、生成AI市場全体は毎年35%程度の成長して2030年まで1090億ドルの規模に達するそうだ。昨年11月のOpenAIのChatGPTの公開以来、一気にブームが来た。今までAIツールに触れてこなかった私のような人まで、多くの人がAIツールを使うようになった。

それまでのAIツールは研究者であったり、一部のアーティストが使っている程度であった。ChatGPT以来、一般的なものになって、言語生成ツールや画像生成ツールのサービスが雨後の筍状態だ。その結果、AIツールで作られた画像や映像が溢れ、学校でもレポート制作にAIツールが使われるようになってきた。

AI生成検出ツール

このために、対策としてAIツールで作られたものかどうかを検出するサービスを行う会社も数多く誕生した。画像ではSensity AI、盗作検出ではFictitious.AIやOriginality.AI、GPTZeroが代表的な会社である。FakeCatcherは映像のAI生成を検出するサービスを行っている。今後、このような会社は数多く登場すると思われる。

ChatGPTの開発元のOpenAIもAIで作成されたテキストを識別するための無料のツール「AI classifier for indicating AI-written text」と言う名前のサービスを1月に発表している。しかしながら、OpenAIによると、このツールは完全なものではないらしい。AIが作成したテキストの26%を正しく識別し、人間が書いたテキストの9% をAIが作成したと誤認したと言う。これでは、使い物にならない。ChatGPTの開発元のOpenAIですら、この程度だ。このツールの弱点は、短い文章や英語以外の文章だそうだ。つまりこのOpenAIのツールを使っても日本語の学生のレポートを調べることは難しそうだ。

またアメリカの教育現場で使われているTurnItInのようなツールも、学生が書いた論文をAIで生成されたと不正確な判断をして問題になっているようなので、このようなツールに正確さが期待できないようだ。特に日本で日本語を判断する場合には難しそうだ。

学生のレポートや論文は、教育の一環であり、これを全て生成AIツールに丸投げしてしまう事は許されることではない。そもそも本人たちの為にはならない。しかし、調査目的で論点を洗い出すような使い方でAIツールの作成は認めるべきだが、文章そのものは学生が書かなければいけない。

画像・映像の識別ツールは、やはりAIを使って不自然なピクセルなどを検出して、それがAI生成なのかどうかを判断するようなシステムとなっている。これも完全のものではなく現時点では確実なものは何もない。

ディープフェイクの問題

AIツールの問題は、文章の作成よりも画像・映像の生成の方が問題は大きい。人間は、画像や映像による目からの直感的な刺激に大きく反応する可能性があるからだ。これがフェイク画像・映像だった場合は、大きな問題を引き起こす可能性がある。昨年ネットで公開されて問題になったウクライナの大統領がロシアに降伏しているフェイク映像は、このような大きな問題引き起こす映像の一つである。ペンダゴン近くで爆発が起きたフェイク画像が株価に影響を与えた出来事も記憶に新しい。ローマ法王が、バレンシアガのダウンジャケットを着ているような画像はまだ害が少ない。しかし、そのようなAIツールで作成された画像・映像が犯罪に使われる可能性もあり、これについては早急に対策を講じるべきであろう。

フェイク画像や映像を作る技術は、Photoshopなど様々なものが以前よりあり、作ろうと思えば、多少の技術があれば作れた。しかし、AIツールによって作成されるディープフェイクは誰でも簡単に扱えることと、AIが写真と見分けつかないほど精細な画像・映像を生成するために、本物と見分けがつかず、悪意を持って使用すれば問題になるケースが多い。

このディープフェイクへの対応として、アメリカ連邦政府のDefense Advanced Research Projects Agency(国防高等研究計画局)がディープフェイクを自動検出して悪意があるかどうかを判断するアルゴリズム、Semantic Forensicsの開発に、今年30万ドルの予算を割り当てているそうだ。しかし、この問題はアメリカだけの問題ではないので、早急に各国政府が協力して対策を取るべきだと思われる。

ディープフェイクへの対応

ディープフェイクの問題については、いくつかの対策が考えられる。まず、多くの会社がおこなっている、ディープフェイク抽出技術開発への助成金だ。これにより、その精度を上げる方法がある。しかしながら、これはいたちごっこであり、現時点でもそうであるように必ずしもディープフェイクを検出できるとは限らない。

2番目は、各国政府がディープフェイクの画像・映像の生成と配布について規制するような法律を整備することである。そして1番良い方法は、Google BardとAdobe Fireflyが統合した画像生成ツールについて両社が発表したように、その生成AIツールを使って作成された画像・映像に、電子透かしを入れることだ。これにより、AIで生成されたのかどうかが、最初から検出されるようにすべきだ。

後からディープフェイクを検出することは、今後も難しいことが予想されるために、出来上がった映像・画像を判断するのでなく、生成時に電子透かしなどを入れておくのが良い。Adobeを始め、Midjourney、Stable Diffusionなど、画像・映像生成ツール開発会社に協力を求め、電子透かしの挿入を求めるべきである。これにより検出が容易になる。

今後のAIツールの問題

今後7年間で150兆円もの市場となるAI生成ツールはディープフェイク以外に様々な問題を引き起こすことが考えられる。多くの人が指摘しているように、一部の仕事がAIにとって変わられて雇用が失われる可能性があるし、生成AIが行う学習機能により大量のデータが収集され、何らかの形でプライバシーの侵害が起きる可能性がある。これにサイバー攻撃が加わると、さらに大きな問題になる可能性もある。

それよりも問題だと考えているのは、言語生成ツールに依存してしまい、文章を書く力を失うことだ。既にワープロの登場によって漢字を書く能力を私は失ってしまった。読むことはできても書く事は難しい。これと同じように様々な文章作成をAIツールを使用することにより文章が書けなくなる可能性がある。その意味で言語生成AIツールについては依存せずに、使いこなす能力が今後求められることになるだろう。

今朝は大雨。夜中に携帯の警報で何度も目が醒めた。午後まで雨のようだ。

You may also like

Leave a Comment

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください

error: Content is protected !!