FTCがAIを調査開始

by Shogo

米連邦取引委員会(FTC)が、Google親会社Alphabet、Meta、OpenAI、Snap、xAI、Character Technologiesなど7社に対し、AIチャットボットの安全性調査を開始した。70%超のティーンがAIチャットボットを利用し、過半数が継続利用している一方で、チャットボットが「摂食障害の隠し方」や「自死の手順」を助言した事例が報告されている。実際に若年ユーザーが自殺に至ったとする訴訟も複数提起されており、精神科医がガードレールの必要性を訴えるまでに至った。このようなAIのリスクについての懸念が今回の安全性の調査に繋がっている。

データ収集・プライバシーの脆弱性

AIチャットボットは大量の会話データを収集し、学習に利用することで精度を高める。しかし、未成年者の対話データの扱いや第三者への共有は法規制のグレーゾーンにあり、プライバシー侵害や意図しないプロファイリングの懸念がある。COPPA(児童オンラインプライバシー保護法)遵守や、年齢別のデータ分離などが各社に求められている。

エンゲージメント重視の収益モデル

多くのAIチャットボットは、フレンドリーで長く付き合うほど関係が深まるという錯覚を若者に与え、過度な依存や現実世界での人間関係希薄化を招く可能性が指摘されている友達のように擬人化されたキャラクターは、ユーザーの心理的なハマりやすさを意図的に設計している面も否めない。

誤情報・バイアスの拡散

AIは、ネット上にあるデータの偏り、虚偽や誤りを反映して回答するため、意図せず差別的・偏見的発言をするリスクがある。また、医療・法律など専門性が高い分野での誤情報は、ユーザーに重大な決定をさせる可能性がある。若年層は特に批判的思考が未熟であるため、AIの「権威性」を過信しやすい点が懸念される。

教育と保護者の役割

AIリテラシー教育の充実が急務であるだろう。子ども・若者自身がAIの限界やバイアスを理解し、安易に依存しないためのカリキュラム導入や家庭での利用時間管理、保護者による利用状況の把握が求められている。この点では、日本でも同じ状況だろう。

AIチャットボットの普及を進める一方で、未成熟なユーザーを守るためのガードレール整備、透明性の確保、そして教育的サポートが不可欠だ。米国の当局は、この点を認識しているということのようだ。日本は、どうなっているのだろうか。

You may also like

Leave a Comment

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください

error: Content is protected !!