AI安全サミットが、ロンドン郊外のブレッチリー・パークで開かれた。人工知能につながるコンピュータの原型のひとつを考案したアラン・チューリングにちなんで、第二次世界大戦中のイギリスの暗号開発の拠点だった場所だそうだ。地名は初めて聞いたが、カンバーバッチが主演したアラン・チューリングの暗号機エニグマ解読の映画を見ているので、ブレッチリー・パークの邸宅の写真を見て映画の雰囲気を思い出した。
今回のAI安全サミットの結果、「ブレッチリー宣言」と呼ばれる文書が発表され、中国も参加して28カ国の代表が署名している。「ブレッチリー宣言」には、AIは人間中心に開発されなければいけないことや、偏見や差別をない公平性が求められること、プライバシーの保護、安全性とセキュリティーなど多くの項目が盛り込まれている。しかしながら、具体的なアクションは何も決まっていないために、日本でもよく政府が発表するような、きれいな言葉の羅列で実態がない。AIは、すでにここにある危機とも考えられるので、なんとも温い対応だ。
このような宣言でなく、具体的な内容を乗り込んだ上で各国が参加する条約とならなければ意味がない。それに基づいて、各国政府が、AIの開発と使用を規制しなければ、実効性は無い。しかし、これは実現しないであろう。AIは成長分野であり、さらに他の産業の競争力まで決定する技術の規制は、各国政府とも真剣には考えていない。特に多くのAI開発企業を持つアメリカと、ヨーロッパや中国は基本的なスタンスも違う。中国は独自にAI技術を開発して競争力を高めることを考えているであろうし、ヨーロッパは厳格な規制のAI企業の活動を制限する法律を持っている。このような立場の違いから、宣言はきれいな言葉が並ぶが、実態を伴っていない。
このサミットでは、半年後に韓国で2回目を開き、3回目は1年以内にフランスで開催してより具体的な政策目標を設定することが決まっているようだ。しかし、ここでどれほど具体的な規制案が決まろうと、そもそもAIの中身はブラックボックス的な要素もあり、これをどのように規制しようとするのだろうか。
またサミットで指摘されたように、Metaなどの企業が開発し、リリースされたオープンソースのAIツールについてはテロリストや犯罪者が使う可能性もあり、この規制についても重要な問題となる。既に世界に公開されているために、仮に今後規制が始まっても、オープンソースのAIについては規制の方法がない。テロリストにすでに武器は渡ってしまっている。
このサミットには、Open AIのサム・アルトマンやイーロン・マスクも参加していた。そのイーロン・マスクは以前より独自のAIツール、「xAI」を開発中だとの噂があった。そのテスト版は11月4日より限定的な人に対してリリースされテストが始まったようだ。イーロン・マスクはインタビューで、現在存在する中で最も優れたAIと発言している。この「xAI」は、「Grok」という名前と発表された。Google BardやMicrosoftのBingのように無料ではなく、xプレミアム+契約者だけが使えるAIつーるということだ。ここでも、Xの有料化に傾いているイーロン・マスクの志向が現れている。つまり、契約していない私は使えない。と言っても、Midjourneyはよく使って遊んでいるが、言語生成ツールにあまり興味はない。あまり、回答に感心したことがないからだ。