iPhoneのLive Text機能

by Shogo

以前の仕事仲間との食事会で新しいことを知った。iPhoneのLive Text(ライブテキスト)の機能がiOS 16から日本語に対応したと言うことだ。写真や動画の中にある日本語の文字をライブテキスト機能を使って読み出せるようになった。画像や映像からコピーをしてメモなどに貼り込める。アルファベットに対応しているのは知っていたが、日本語に対応したことを知らなかった。iOS16になってまた進化しているようだ。しばらく前からiOS 16を使っているが、このことについては何も知らなかった。やはり若い人たちは何でもよく知っている。

知識のない頭で考えると、画像の中の文字は、写真の絵の一部で文字の形をしていないように思える。ここから文字を取り出すのは素人考えでは不可能だ。これを可能にしているのは、やはりiPhoneのカメラとセンサーのハードウェアが高度化して、高精細な画像を撮影できるようになったことが、まず前提となる。そしてAppleによれば、iPhoneの画像処理技術には、機械学習やディープラーニングなどのAIの技術が使われているようだ。大量の画像データを学習することで、テキストの認識が可能になった。しかも、多くの人がこの機能を使いだすと、AppleのAIは、その結果を取り込んで、さらに精度が高まるのだろう。

現時点では文字情報という明確なものが簡単に読み出せると言うことだが、このAIの技術がさらに進化すると、人物を撮影して、その表情からその人の感情を読み取れるようになるかもしれない。当然。そのためにはたくさんの被験者に様々な表情をしてもらい、その時の感情を自己申告してもらわなければいけない。このデータベースができなければ、被写体の人物の表情から内面を読み取る事は不可能だ。だから、技術的に可能であっても、これを行うためには、膨大な被験者のデータを集める必要があり、これは難しい。

もう少し簡単な方法を考えれば、映画の映像を読み込んで、その脚本の内容から出演している俳優の心理面を推測して、画像との因果関係を組み立てていくと言う方法でも可能かもしれない。これは、その気になれば時間と金と手間がかかるが可能かもしれない。昔の写真をみんなで見ながら、ライブテキストの話をしているときに、この技術の応用がどこまで可能なのかを考えていた。

最近会った人もいたが、この数年はコロナ禍のために集まりもなく、会っていない人がいたので、それぞれの人の仕事や生活の変化に驚くことが多い。長い人生からは、3 、4年は短い間と思えるが、実際にはその間に様々なことが起きるものだ。結婚、出産、転勤、転居などたくさんのことが起こる。その話の中には、何人かの知人の訃報もあった。年齢もそう変わらない人の死を聞くのは自分のことであるような気がして辛いものだ。

You may also like

Leave a Comment

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください