端末の中の幽霊

by Shogo

AppleがAIをiPhoneのOSのレベルに組み込むことを発表した際に、イーロン・マスクは、彼の会社の施設にはiPhoneを持ち込ませないと発言した。これは杞憂でなく、AIは情報漏洩やプライバシーのリスクになることが予想される。

Appleだけでなく、MicrosoftはAIをハードウエアに組み込んだWindows Copilot  PCをすでに売っているし、GoogleもAIをAndroidスマホに内蔵している。これらの端末は、AIを活用することで、写真の編集や友人の誕生日を祝うメッセージの自動生成など、様々なタスクを自動化できるようになる。

しかし、AIを機能させるためには、ユーザーのデータへのアクセスが不可欠だ。Windows Copilot PCは数秒ごとに画面のスクリーンショットを撮影し、iPhoneは複数のアプリの情報を統合し、Androidスマホは通話をリアルタイムで監視して詐欺を警告するなど、より広範囲で継続的なデータ収集が行われるようになる。

もう少し詳しくAIのリスクを考えると、AIは大量の個人データを収集・分析することで機能する。これらは、ウェブ閲覧履歴、位置情報、購買履歴、SNSでの活動など、様々なデータで、すべてがAIにアクセスされる。これは、言ってみれば機械の中の幽霊のAIによる、個人のプライバシーの侵害だ。

また、AIは収集したデータをもとに、個人の行動パターンや嗜好を高い精度で予測できるようになる。これにより、本人が知らない間に自身の情報が分析され、プライバシーが侵害されているということになる。

AIが端末に組み込まれると、様々なことをAIに委ねるようになってゆくのだろう。だが、AIアルゴリズムによる意思決定プロセスはブラックボックス的で、なぜそのような判断をしたのか説明が難しい場合も出てくるだろう。意思決定がAIによって不透明に行われることで、自分では意図しないような判断がAIによって行われ、結果的にプライバシー侵害につながる恐れがある。

そして、先に書いたようにデータセキュリティリスクだ。AIに利用される大規模なデータは、サイバー攻撃の格好のターゲットとなる。Appleのようにクラウドにはデータをなるべく置かないとしていても、結果的に個人情報の流出リスクが高まることで、プライバシー侵害の危険性が増す。またサイバー攻撃でなくても、当該会社の社員や悪意のある第三者、政府機関などにアクセスされる可能性がある。これまでは個人的な写真やメッセージ、メールなどの機密性の高いデータは端末内に留まっていたが、今後はクラウド上で企業に分析される可能性が無いとは言えない。

そして最も怖いのが、同意なく端末によって生活や行動の詳細な情報がAIに収集される可能性があることだ。もし会話や行動が常時監視されるようになると、プライバシーが大きく損なわれる可能性がある。しかも、そのオン・オフの設定が可能であっても、それが有効に機能しているのかどうか確かめるすべもない。

このように端末にAIが組み込まれると、これまでのアプリの使い方やファイルの扱い方とは異なり、AIはアプリやウェブサイト、コミュニケーション、端末の機能を横断してユーザーの行動を把握・関連付ける。つまり、プライバシーの観点からは大きな変化が生じる。

各社ともにデータのセキュリティ確保に力を入れていると説明している。Appleは端末上でのAI処理を重視し、サーバーに送信するデータは暗号化して即座に削除すると発表しているし、MicrosoftのWindows PCではスクリーンショットをローカルに保存し、Googleの通話スキャム検知機能は端末内で完結するとしている。

もう少し詳しく各社のデータセキュリティ対策の発表を見てみると、AppleはPrivate Cloud Compute (PCC) を導入し、ユーザーデータをクラウド上で処理する際も暗号化やデータ削除などの高度なセキュリティ対策を施すとしている。ユーザーデータへのアクセスはAppleにも許可されないと明言した。可能な限りデバイス上でAI処理を行い、クラウドに送信するデータを最小限に抑える方針だそうだ。さらに、ロック/非表示アプリ機能で、他人に見られたくないアプリの内容を保護するそうだ。

Microsoftは、Copilot PCでは、ユーザーの画面を5秒ごとにスクリーンショットし検索可能なデータベースを作成するが、データの安全性確保のためにAIの機能は、セキュリティを担保するMicrosoft Defenderなどの製品にAIを統合する。Googleも、AI Cyber Defense Initiativeを立ち上げ、AIを活用したサイバーセキュリティ強化を推進する。さらに、Secure AI Framework (SAIF)を発表し、AIシステムのセキュリティ基準作りを業界横断で作ってゆくと宣言している。しかし、それらの対策は十分で安全なのだろうか。

専門家からは、クラウドに送信されるデータについての透明性の低さや、ハッキングによる情報流出のリスクなどが指摘されている。多くの人にとって、パーソナルな写真や検索履歴が自分の管理下にないクラウドに送られるのは避けたいというのが本音だろう。

AIがもたらす利便性とひきかえに、プライバシーやセキュリティ面でどこまでデータを提供できるのか。今後、AIの利用について躊躇する人が出てくるだろう。

You may also like

Leave a Comment

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください

error: Content is protected !!