データセンターの電力需要

by Shogo

GPT-4のような大規模言語モデルは、トレーニングと運用の両方の段階でかなりの電力を消費し、それに伴い環境への影響も大きいようだ。OpenAIによるとGPT-4は、45TB以上のデータに基づいてトレーニングされ、このプロセスには、モデルの精度を高めるためにデータを分析し、パラメーターを最適化する作業が含まれている。これには大量のコンピューティングパワーを必要とする。

スタンフォード大学人間中心人工知能研究所が2023年に発表した報告書によると、GPT-3の学習に要する電力は1287メガワット時(MWh)に達する。これは、平均的なアメリカ家庭の年間消費電力(11,000kWh)の約11%に相当している。

OpenAIは、GPT-4のパラメータ数が1兆から100兆に増える可能性があると発表しているので、電力消費量もさらに増加する。具体的な数値は不明だが、GPT-4の学習に要する電力は、GPT-3の1287MWhを上回る可能性が高いと考えられている。

このために、ChatGPT、Google Bard、MidjourneyなどAI生成ツールの増加に伴い、データセンターとその電力の需要が増加しているようだ。このコンピューティング需要は今後数年間でさらに増加し、新たなデータセンターの建設と既存のものの容量拡大が必要となることが予想されている。

不動産会社クッシュマン・アンド・ウェイクフィールドによる、データセンターの集積についての2022年のデータは、このコンピューティング需要を反映している。このデータでは、データセンターの最も高い集中地は、アメリカの北バージニアのようだ。この理由としては、アメリカが大規模言語モデルの開発の中心だということがまず考えられる。そして、アメリカの中では、北バージニアに集中しているという理由は、地方政府による税制上の優遇措置、優れた接続性、大規模サーバーセンターの求める電力などのインフラが挙げられる。

次いで、北京が1,800メガワットの容量で2位、ロンドンが1,000メガワットで3位、シンガポールが876メガワットで4位、東京が865メガワットで5位。

東京は5位だが、特にアジア太平洋地域では、今後さらに進展を遂げると予想されているようだ。北京は米中間の緊張が高まる中で投資家が資金をシフトするために大きな伸びが難しいとも予測されている。一方、日本は、ほぼ2,000メガワットに倍増する可能性があるそうだ。これは、TSMCやNvidiaなどの大手企業がチップ製造工場を建設し、NvidiaのCEOであるJensen Huangが「AI工場」と表現したネットワークを全国に展開するという発言が根拠になっている。このため、日本経済新聞も報じた通り、東京圏のデータセンターは今後3~5年で倍増し、シンガポールを抜き、アジア首位の北京に迫ると考えられているようだ。

日本は、製造業の空洞化により国内工場が減少しているが、データセンターの需要の拡大で電力需要が増加する可能性があるということだ。これは、今後の電力政策にどのような影響を与えるのだろうか。

You may also like

Leave a Comment

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください