先日のWWDCで明確な発表のなかったSiriアップグレード計画がBloombergなどで報道されている。
2026年春にリリース予定の新Siriは、「LLM Siri」として社内で呼ばれており、LLMを活用した高度な自然言語処理能力を搭載する。従来の定型的なコマンド処理から脱却し、ChatGPTのような自然な対話が可能になる予定だという。これは、ChatGPTがエンジンだし当然のことだろう。
新Siriの最大の特徴は、ユーザーの個人データやiPhone画面上の操作内容をリアルタイムに参照し、より的確な応答を行う「オンスクリーン認識」機能。例えば、メッセージ内の住所を自動的に識別し、連絡先アプリに追加するといった複雑なタスクが可能になるという。
また、複数のアプリを横断して操作し、スケジュール計画の作成を支援する機能も予定されているそうだ。これにより、Siriは単なる「話しかけるAI」から「先読みして提案するAI」へと大きく進化することになる。これが、どこまでかはわからない。ネット予約した航空券の案内メールからスケジュールに予定が書き込まれる程度のことは今でもできている。
Siriの機能強化計画は、2024年6月のWWDCで初めて発表されて以来、複数回にわたって延期されている。当初は2024年秋のリリースが予定されていたが、2025年春、そして最終的に2026年まで持ち越される結果となった。期待が大きかっただけに、この遅れは残念だ。このために、AI競争における、Apple劣勢はますます明らかになっている。
GoogleのGemini、AmazonのAlexa+、MicrosoftのCopilotなど、競合他社が生成AIを活用した音声アシスタントを次々と市場投入する中、遅れは痛いだろう。特にGoogleは2024年に音声アシスタントにGeminiを統合し、Amazonも2025年2月に生成AI対応の「Alexa+」を発表している。
Appleの慎重なアプローチの現れなのだろうが、どう取り戻すのだろうか。やはり、プライバシーを売りにするのだろうか。
Appleは、AI機能についてもプライバシーとデバイス上での処理を重視する独自のアプローチを維持している。可能な限りAI処理をデバイス内で完結させることで、より高速かつプライバシーに配慮した応答を実現しようとしているようだ。この慎重な姿勢は、競合他社がクラウドベースの積極的なAI展開を行うのとは対照的だが、長期的にはユーザーの信頼獲得につながる可能性もあるだろう。
報道によると、SiriへのLLM統合は予想以上に困難を極めているという。従来のSiriアーキテクチャと最新のAI技術を融合させる技術的課題が、開発の大幅な遅延を招いているそうだ。ならば、一から作り変えるというのはできないのだろうか。
また、Appleのデータセンター投資が他社と比較して桁違いに少ないことも、AI機能展開の制約要因となっているという。Appleは2026年からテキサス州ヒューストンでAIサーバーの自社工場稼働を予定しており、これが本格的なAI機能展開の前提条件になっているとみられるそうだ。これの完成前にリリースが難しいとうことかもしれない。
AppleはChatGPTとの統合に加え、将来的にはGoogle GeminiやPerplexityなど複数のLLMをSiriに統合するハイブリッドAI戦略を計画している。これにより、特定のAIプロバイダーに依存しないリスク分散型の設計を目指している。これは、独自AIをを持たない強みだが、技術企業としては、あきらかに体裁が良くない。
新Siriの能力を最大限活用するため、iPhone17シリーズではRAM容量を12GBに増加させるとの噂もある。これにより、より高度なオンデバイス処理が可能になると期待されていると記事にはあった。だから、iPhone17に買い換えれば来年の新Siriに対応できるのかもしれない。
2025年秋のプレリリースも噂されているが、2026年春の正式リリースまで、Appleがどのような機能を盛り込むのかが注目される。