AIの適用範囲が広がっている。今度は健康だ。スタンフォード大学のAIを使った睡眠研究とOpenAIのChatGPT Healthが、それぞれ発表されニュースになっている。
スマートウォッチを使い始めて10年になる。最初はEpsonが世界で初めて開発した手首で心拍数を測れるものだった。その後、Fitbitを経てGerminに落ち着いている。Apple Watch は、今の所はバッテリーの問題で使わない。
Germinで毎日の運動量、睡眠の質、心拍変動(HRV)などの数値は几帳面に記録されていくが、その意味を読み解く手段はまだ弱いと思う。ある程度は、Germinのアプリがこの変化が何を意味するのかを示してくれるが、何かを予測するものではない。もしAIがその数字の背後にある兆候を読み取れるとしたら、健康管理は一変するかもしれない。
SleepFM
FMは、Foundation Model(基盤モデル)を意味している。睡眠中には、脳波、心拍、呼吸、眼球の動きが同時進行し、互いに会話を交わしているそうだ。スタンフォード大学の研究チームが開発したAIシステム「SleepFM」は、その「会話」を聞き取ることで、未来の病を予測するものだ。一晩の睡眠データだけで、パーキンソン病や認知症、心疾患、各種がんまで、130種類もの疾患リスクを数年先まで見通せるという。
約6万5000人から集められた58万5000時間分という膨大な睡眠データで訓練されたこのモデルは、パーキンソン病の予測でC指数0.89、認知症で0.85という高い精度を記録したという。研究者が注目したのは、脳は眠っているのに心臓が覚醒しているように、身体信号が互いにずれる瞬間だった。そのズレが、将来の疾患リスクを示しているそうだ。
ただし、SleepFMが示すのはあくまで統計的なリスク層別化であり、因果関係や発症時期を断定するものではない。今後はウェアラブル機器のデータも統合し、より広範な人々に使えるモデルへと進化させる計画だという。このようなデータが蓄積し、AIが分析することにより予防医学に寄与するのではないかと思われる。個人的に睡眠に問題があると感じているが、それに役立つものではないようだ。
ChatGPT Health
一方、OpenAIは2026年1月、ChatGPT Healthという新機能を発表した。電子健康記録やApple Healthなどと連携し、個人の医療データに基づいた健康アドバイスを提供するものだ。毎週2億3000万人がChatGPTに健康の質問をしている現状を踏まえ、260人以上の医師と共同開発したとOpenAIは説明している。確かに、私も健康に関することをAIに聞いている。
この発表は19歳の男性がChatGPTのアドバイスに従って過剰摂取死した事件の直後だった。OpenAIは「診断や治療の代替ではない」と強調し、チャット内容はモデル訓練に使わないと約束しているが、AIが誤情報を生成する「ハルシネーション」のリスクは消えない。AIの情報を全面的に受け入れないということは、健康に関する情報ではさらに注意が必要だ。
深刻なのは、個人情報保護の問題だ。米国のHIPAAは医療提供者や保険会社にしか適用されず、OpenAIのようなテクノロジー企業が扱う健康データには同等の法的保護が適用されない可能性があるそうだ。毎日約4000万人がChatGPTで医療相談をしている現状を考えると、この展開が注視されるのは当然だろう。
予測できること
SleepFMとChatGPT Healthは、AIが健康分野で果たしうる役割の光と影を象徴している。片や睡眠データから将来の疾患を予測し予防医療を推進する研究、片や日常的な健康相談に応じながらも誤情報や情報漏えいのリスクを抱えるサービス。どちらも「個別化された医療」という同じ方向を目指しているが、そこに至る道筋の慎重さがまったく違う。
ウェアラブルが描く予防医療の未来
AIによる予測医療が実用化されれば、医療のパラダイムは治療から予防へと移行するだろう。すでにスマートウォッチやFitbitなどのウェアラブルデバイスは、心拍数、血圧、睡眠パターン、活動量といった多様な健康データをリアルタイムで収集できるようになった。これらのデータをAIが解析すれば、個々人の健康状態の変化を継続的にモニタリングし、異変の兆候を早期に察知することが可能になる。これは個人的にも体調管理に使っているが、データが増えてAIによる分析が提供されれば、さらに有益だ。
倫理的な問題
しかし、こうした技術の進展は同時に、深刻な倫理的課題を呼び起こす。最も懸念されるのは、AIによる診断や治療判断が誤った場合、誰が責任を負うのかという問題だ。AI開発者なのか、医師なのか、それとも医療機関なのか。責任の所在が不明確なまま実用化が進めば、医療事故への対応が複雑化する。AIはあくまで医師の専門性を補完するツールであり、医師がAIの判断に引きずられてはならないという原則だ。だから、AIによる分析を医師に判断してもらうことが重要だ。
自己責任論の罠
リスク予測技術の普及は、患者の役割を変える。自分の健康データを積極的にモニタリングし、AIからの警告に応じて生活習慣を改善することが求められるようになれば、病気になるのは自己管理を怠った結果という自己責任論が助長される恐れがある。予測されたリスクに基づいて保険料が変動したり、雇用判断に影響したりすれば、AIによる健康管理は自己責任の両刃の剣となる。
日本では、厚生労働省の規制のもとAIを医療機器として承認する必要があるが、審査プロセスが複雑で時間がかかることが課題となっている。法規制の整備が技術の進化に追いつかない中で、AIが出した診断結果の説明可能性をいかに医療機関が活用できるかも重要なテーマだ。患者がAIの判断根拠を理解できなければ、医療への信頼は成り立たない。
信頼の体験設計
AIによる予測医療は、未病・予防領域やリハビリ・アフターフォローにも応用され、将来的にはデジタル総合診療科のようなサービスが展開される可能性があるだろう。メタバースを活用したオンライン診療や、AIによる自動診療アシスタントの開発が進めば、医療へのアクセスは飛躍的に向上する。しかし、それが実現するかは、データの質と透明性、そして何より患者の信頼を守れるかにかかっている。今はまだ、AIに何を任せて良いのか、その境界線を手探りしている段階なのかもしれない
