はじめに
本連載では、生成AIコミュニティ「IKIGAI lab.」に所属する各分野の専門家が、それぞれの視点から最新のAIトレンドとビジネスへの示唆を発信しています。本記事を通じて、皆さまが“半歩先の未来”に思いを馳せ、異なる価値観や視座に触れていただければ幸いです。
生成AIは進化を続けています。私たちはその進化を、利便性や生産性の向上として語ることが多いでしょう。しかしここで一度、立ち止まって考えてみたいのです。その進化は、どれほどのエネルギーを消費しているのか。その便利さは、どのような資源の上に成り立っているのか。
生成AIが社会の前提インフラになったとき、環境との共存は可能なのか。本記事では、国際機関のレポートや研究、日本国内の動向を横断しながら、その構造を読み解いていきます。
生成AIの裏側で起きていること
電力需要の拡大
私たちが生成AIに質問を投げかけると、数秒で答えが返ってきます。しかし、その裏側では膨大な計算処理が行われています。
International Energy Agency(IEA)は2024年のレポート『Electricity 2024』で、「データセンター、AI、暗号資産による電力消費は2026年までに倍増する可能性がある」と指摘しています。現在、データセンターは世界の電力消費の約1〜2%を占めています。AI利用の拡大により、この割合はさらに上昇すると見込まれています。
特に重要なのは、「訓練」よりも「推論」が社会全体で常時発生するフェーズに入りつつあることです。検索、翻訳、議事録作成、画像生成などの処理が日常化すれば、電力消費は、常時発生する負荷へと変わります。
CO₂排出という見えにくいコスト
電力消費は、そのままCO₂排出と結びついています。スタンフォード大学の研究では、大規模ニューラルネットワークの訓練は、自動車5台分の生涯排出量に匹敵するCO₂を排出し得ると報告されています。
一方、IMFはReutersを通じて、「AIの経済的利益は排出コストを上回る可能性があるが、適切な政策が不可欠である」と述べています。AIは経済的価値を生みます。しかし、その価値と環境負荷をどう両立させるかが、これからの論点になります。
水と電子廃棄物という別の負荷
生成AIが高精度な応答を行うためには、膨大なデータの学習と処理が欠かせません。モデルの訓練段階では大量のデータを読み込み、推論段階でも継続的にデータアクセスが発生します。
こうした処理を支えるのがデータセンターです。実際、生成AIの普及に伴い、大容量ストレージや高性能GPUを備えたデータセンターの需要が急増していることが指摘されています。
データセンターでは、AI処理を担うサーバーが大量の熱を発するため、空調や液体冷却システムが常時稼働し、場合によっては水が冷却媒体として使用されます。生成AIの計算負荷が高まれば、サーバー稼働時間が延び、冷却に伴う水利用も増える構造です。カリフォルニア大学リバーサイド校の研究では、GPT-3の訓練は約70万リットルの淡水を消費した可能性があると試算されています。
さらに、生成AIを支えるGPUや専用チップは性能向上のサイクルが速く、更新に伴う廃棄も増加します。United Nations Environment Programmeは、電子廃棄物は世界で最も急速に増加している廃棄物の一つであると警告しています。
生成AIの進化は、ソフトウェアの進歩にとどまりません。その裏側では、データセンター需要の拡大を通じて、水利用や電子廃棄物といった物理的な環境負荷ともつながっているのです。
【参照】
「Electricity 2024」(IEA 2024/01/24)
「Energy and Policy Considerations for Deep Learning in NLP」( Cornell University 2019/06/05)
「AI economic gains likely to outweigh emissions cost, says IMF」(Reuters 2025/04/22)
「急増するデータセンター需要!生成AIとの関係をわかりやすく解説」(wasabi 2025/08/21)
「Making AI Less "Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models」(Cornell University 2023/04/06)
「Global E-waste Monitor 2020」(ITU)
日本で進むAI基盤整備と環境課題
生成AIの利用拡大は、国内でもデータセンターの増設や計算基盤の強化という形で具体化しています。しかし、その拡張は単なる設備投資ではありません。電力消費の増大や電源構成との整合といった課題を伴うため、企業のインフラ戦略は環境政策やエネルギー政策と切り離せないものになりつつあります。
再エネ型データセンターへのシフト
NTTは、再生可能エネルギーを活用したデータセンターの整備を進めています。グループ全体としてカーボンニュートラルを掲げ、データセンターに供給する電力の再エネ比率を高める取り組みを推進しています。
生成AIは大規模なGPUを常時稼働させるため、電力消費が構造的に大きくなります。その需要増を前提とすると、電源構成を化石燃料中心のまま拡張すれば、CO₂排出量も比例して増える可能性があります。NTTのような事業者が再エネ型データセンターへシフトする動きは、「AI需要は伸ばすが排出は抑える」という両立モデルを模索する試みといえます。
ただし、再エネは出力が変動しやすいという課題もあります。安定稼働が求められるデータセンターにおいて、蓄電や電源の多様化をどう設計するかは、今後の技術的論点です。
通信大手によるAI基盤拡張
SoftBankも、生成AI向けの計算基盤整備を加速させています。高性能GPUクラスタの導入や、AI処理に特化したデータセンターの拡張が進められています。
生成AIの精度向上やエージェント化の進展に伴い、計算リソースの需要は今後も増加すると見込まれます。企業にとってGPUクラスタの拡張は競争力確保のための不可避な投資です。しかし同時に、その拡張は電力消費増加と直結します。
ここで問われるのは、「より多く計算する」ことと「より効率よく計算する」ことのバランスです。冷却効率の改善、電源効率の向上、稼働率の最適化など、ハードウェア設計そのものの高度化が環境負荷低減の鍵になります。
国家戦略とのつながり
こうした企業の動きは、国家レベルの政策とも密接に関わります。経済産業省は「グリーン成長戦略」において、データセンターの省エネ化や再エネ活用を重要施策に位置づけています。
日本はエネルギー自給率が低く、電源の多くを海外資源に依存しています。そのため、AI基盤の急拡張は単なるIT投資ではなく、エネルギー政策や安全保障の文脈とも結びつきます。
仮に生成AIの利用が急増し、データセンター需要が拡大すれば、電力需給バランスや電源構成の議論に影響を与える可能性があります。AI競争力を高めたい一方で、脱炭素目標も達成しなければならない。日本はこの二つを同時に実現する設計を求められています。
生成AI基盤の整備は、単なる設備投資の話ではありません。それは、日本がどの電源でAIを動かし、どのような環境負荷を許容し、どのような効率性を追求するのかという選択の問題です。
AI競争力と環境持続性。その両立ができるかどうかが、日本の次世代インフラ戦略の試金石になるでしょう。
【参照】
「生グリーン電力の一部活用により、三鷹データセンターEASTの電力を実質再エネ100%に転換、顧客の再エネ利用も可能に」(NTTDATA 2025/05/23)
「次世代社会インフラ構想実現への第一歩。最先端のAI基盤を搭載する日本最大級「北海道苫小牧AIデータセンター」起工式 - ITをもっと身近に。」(ソフトバンクニュース 2025/04/22)
「大きく変化する世界で、日本のエネルギーをどうする?「エネルギー基本計画」最新版を読みとく(後編)」(エネこれ 2025/05/26)
持続可能なAIへの新しい発想
計算原理を変える
生成AIの電力問題に対して、GPUの効率化とは異なる、より根本的なアプローチも研究されています。Livescienceが紹介したのは、「熱力学的コンピュータ(thermodynamic computer)」という新しい計算方式です。熱力学的コンピュータは、従来より桁違いに少ないエネルギーでニューラルネットワークを模倣できる可能性があると述べられています。
従来のGPUがデジタル信号(0と1)を高速に処理するのに対し、この方式は物理現象そのもの―確率的なエネルギー状態の変化などを利用して計算を行うという発想です。ニューラルネットワークが本質的に確率的な重み調整を行う構造であることを踏まえ、計算を物理レベルで再現することで、エネルギー消費を大幅に抑えられる可能性があります。
これは単なる「高効率GPU」ではなく、計算の原理そのものを見直す試みです。まだ研究段階ではありますが、実用化されれば、生成AIのエネルギー構造を根本から変える可能性を秘めています。
宇宙にデータセンターを置くという発想
もう一つの大胆な構想が、AIデータセンターを宇宙空間に設置するというアイデアです。
WIREDは、宇宙空間では放射冷却によって効率的に熱を逃がせる可能性があり、さらに太陽光発電を直接利用できるという点を紹介しています。地上のデータセンターでは、発熱するサーバーの冷却に電力や水が必要です。
一方、宇宙であれば冷却効率の向上や電力供給の安定化が期待され、地上の電力網や水資源への負荷軽減につながる可能性があります。もちろん、輸送コストや保守、通信遅延といった課題は残ります。
それでもこの発想は、「どこで計算するか」という前提を問い直すものであり、AIの環境負荷を地上の制約の中だけで解く必要はないという視点を示しています。
【参照】
「'Thermodynamic computer' can mimic AI neural networks — using orders of magnitude less energy to generate images」(Live Science 2026/02/22)
「Could AI Data Centers Be Moved to Outer Space?」(WIRED 2026/02/20)
おわりに──生成AIの進化を“性能”だけで見ない
生成AIは、私たちの仕事や生活を確実に変えつつあります。その裏側では、電力消費の増大、データセンターの拡張、水資源の利用、電子廃棄物の増加といった物理的な負荷が積み重なっています。
日本でも再エネ型データセンターの整備や省エネ化が進められていますが、AI競争力と脱炭素をどう両立させるかという問いは、まだ答えが定まっていません。一方で、計算原理そのものを変える研究や、宇宙にデータセンターを置くという新しい構想も現れ始めています。
生成AIの普及は、おそらく止められません。自動車が社会の前提になったように、「あることが当たり前」のインフラになるでしょう。しかし自動車が排気ガスや温暖化という課題を後から顕在化させたように、技術の爆発的普及は必ず副作用を伴います。
生成AIも例外ではありません。電力、水、資源。その負荷は、利用の拡大とともに積み上がっていきます。だからこそ重要なのは、問題が深刻化してから対処するのではなく、最初から持続可能性を設計に組み込むことです。
私たちは単なる利用者ではありません。どのサービスを選ぶか、どの企業の姿勢を支持するかという選択を通じて、技術の方向性に間接的に関与しています。便利さや性能だけでなく、その裏側の設計思想まで含めて問い直すこと。それが、生成AI時代の新しいリテラシーであり、未来を選ぶ行為なのではないでしょうか。
- この記事のキーワード
