Google Lensが進化して、ビデオ検索機能を導入した。Googleが5月に開催したI/Oイベントで発表されているが、Androidユーザー向けのものなので、まだiPhoneユーザーは関係ない。多分暫くしてiPhoneにも導入されると思われる。
この機能は、ビデオを使って質問を行い、Googleがその答えを提供するというものだ。これまでのGoogle Lensは、主に静止画像を使って情報を検索するツールとして機能している。しかし、新しいビデオ検索機能の登場により、動画を撮影して対象物に関する質問をすることで、より確度の高い情報取得が可能になったというのが一般的な評価だ。
この機能を利用するには、Google Lensを開き、シャッターボタンを長押ししてビデオを撮影する。ビデオの中で、ユーザーは質問を音声で行い、撮影対象に関する情報を求める。例えば、日常生活で見かけたものに関して質問することが可能だ。ここで音声で質問できるのは便利だ。日常生活では文字入力するのが面倒なことが多いからだ。
このビデオ検索機能では、AIが生成した回答が提供されるそうなので、従来の静止画像ベースの検索よりも、より幅広い情報を取得できるようになるのかもしれないし、トンデモ回答もあるかもしれない。
使用方法をまとめると以下の通りだ。
- Google Lensアプリを開く
- シャッターボタンを長押しして動画を録画
- 録画中または録画後に、対象物について質問する
- AIが生成した回答や関連する検索結果が表示される
ビデオ検索のメリットと課題
メリット
- 直感的な操作性:ユーザーは特定の対象物について、文章で詳細を説明する必要がなく、ただビデオを撮影して質問するだけで済むため、より簡単に情報を得られる。例えば、製品の名称や植物の種類、アート作品の由来などを説明するのが難しい場合でも、ビデオでそのままGoogleに尋ねることが可能。
- 動的な情報取得:静止画に限らず、動画で対象物をキャプチャできることで、静止画像ではわかりにくかった細かな動作や変化も捉えやすくなる。例えば、機械の動作不良を示すビデオを撮影し、どこに問題があるかを質問することも考えられる。これには、AIの機能が、どれほど性能が高いかによるが、多くのことが可能になるのかもしれない。
しかし、現段階ではこの機能も完璧とは言えないようだ。例えば、あるユーザーのテストでは、iPhone 13を撮影して質問した際に、GoogleがiPhone 11と誤認識するケースがあったという。形が似ているので仕方ないが、これではビデオ検索としては失格だ。このように、AIの認識精度にはまだ改善の余地がある。類似した製品や対象物の認識においては、正確な回答が得られないことがあるようだ。
ビデオ検索機能は全地域で利用できるわけではなく、現時点では主にAI対応地域に限定されている。すべてのユーザーが利用できるわけではなく、Androidユーザーでも地域によっては一部の機能が制限されるようだ。
Google Lensのビデオ検索機能を使いたいものだが、iPhoneで使えるのがいつになるのか気になる。