Skip to main content

AIの消費電力の問題をサステナブルなAIの実践で克服できるか

  • 生成AIの台頭と、それに必要な大量の電力は、再生可能エネルギーへの移行の軌道をずらしてしまう恐れがある。
  • 米国や英国、その他の国のエネルギー供給網は、ネットゼロの将来に備えつつデータセンターの電力需要のひんぱんな急上昇に対処しなければならず、苦境に陥っている。
  • 配電網のアップグレードは進行中だが、完了には数十年かかる可能性がある。生成AI企業とハイパースケーラーはステップアップする必要があり、技術主導の問題には技術主導の解決策が必要だ。

デジタルシフトは、よりクリーンで環境に優しい経済を約束するものだが、今日ではその変革の具現化がエネルギー供給網に負担をかけ、データセンターをクラッシュさせている。AIと再生可能エネルギー革命は、介入無しには衝突へと向かうように思える。生成AIは、その驚異的なパワーにより、そしてそれに伴う驚異的な消費電力によって世界を驚かせた。世界経済フォーラムの調査によると、AIタスクの実行に必要なエネルギーは、現時点で年26%を超える上昇率となっている。生成AIによる消費電力は、2028年までにはアイスランドの消費電力を超える可能性がある。

それに十分な電力を、風力、太陽光、水力で本当に供給できるのだろうか?不可能な場合には、化石燃料を前面に押し出すことを余儀なくされるのだろうか? 専門家はエコAIは実現可能だと述べるが、機械学習モデルの学習方法やAIアプリケーションのコーディング手法を変える必要がある。エネルギー業界も、必要なとき、必要な場所へクリーン電力を供給するには、インフラへの大規模な投資が必要だ。

生成AIがそれほどのエネルギーを消費する理由とは?

ビットコインと暗号通貨マイニングは演算能力に対する需要への大きな誘因となった
このビットコインマイニングファームのように、ビットコインと暗号通貨マイニングは演算能力に対する需要への大きな誘因となった

生成AIを裏で支えているエンジンが大規模言語モデル (LLM) だが、それは極めて大量の電力を必要とする。2023年後半に発表された査読つき論文では、ChatGPTのようなアプリによる消費電力が2027年までに85 - 134テラワット時 (TWh) になると予測されている。これは、ほぼオランダとスウェーデンの年間電力使用量に匹敵する。

サステナビリティを専門とするスタンフォード大学のAI研究者シャハブ・ムサビ氏は、クラウドコンピューティングが近年の3つの変化によって、よりエネルギー集約型になったと話す。「Nvidiaや競合他社は、高性能な演算処理と並列処理用にカスタマイズされたGPUを着実に改良することで、今日のAIシステムを実現する、驚くほど高処理能力のデータセンターの基礎を築いたということです」と、ムサビ氏。

「GPU需要の複数の波に乗れたのは、ある意味で幸運でした」とムサビ氏は続ける。「当初はゲームやグラフィックス需要に使用されていましたが、その後ビットコインの登場により、暗号通貨マイニングが大きな後押しとなりました。そして現在は、先の2つの需要源に加えてAIアプリケーション、特に生成AI製品が新たな需要の波を生み出しています。生成AIは、モデルを訓練するため比較的単純な計算を実行しますが、大量のデータ処理が必要です。こうした演算タスクは並列で実行されるため、従来のCPUより処理を高速化できるGPUに最適なのです」。

最初に苦痛を受けるのが、ハイパースケールデータセンターだ。大量のラックやキャビネットで構成された広大なデータセンターは、AIサーバーがプロンプトの嵐を処理するため、ますますエネルギー集約型になっている。GPUは過熱し、推論の実行や冷却に大量の電力を必要とするため、地域送電網の容量を圧迫する。

イギリス・ナショナル・グリッドのジョン・ペティグリューCEOは、2024年3月に行ったエネルギー業界の幹部向け講演で、データセンターの電力需要は今後10年間で500%の急成長を遂げると述べた。ペティグリュー氏は、時代遅れの配電網がシステムの制約になっていると警告しており、「AIや量子コンピューティングなど、今後の基盤技術の成長には、より一層大規模でエネルギー集約的な演算処理インフラが必須だ」と付け加える。現在、世界中で10,500か所以上のデータセンターが稼動し、何百ものデータセンターを建設中だが、この問題はそれだけでは解決しない。

クリーンエネルギーという難問

カリフォルニア州は太陽光発電と風力発電に大規模な投資を行っている
カリフォルニア州は太陽光発電と風力発電に大規模な投資を行っている

AIが風力、太陽光、水力による電力をより多く使用するよう移行できないのには、どのような理由があるのだろうか? 昨年、英国では全世帯への電力供給に十分なクリーンエネルギーが発電されている。問題が起きるのは、グリーン電力を電力会社のデマンドレスポンスに利用しようとする場合だ。ムサビ氏は、カリフォルニア州やテキサス州のように再生可能エネルギーによる発電容量が急成長している州では、「送電網は再生可能エネルギーを必要な場所に届けるよう最適化されていません」と話す。「再生可能エネルギー発電の十分な送電容量がない場合、特に真昼など太陽光発電の発電ピーク時には、それを抑制するしか手がありません。つまり、再生可能エネルギー発電容量を送電網から切り離すのです」。

その代表例として、ムサビ氏はカリフォルニア州セントラル・バレーの太陽光発電所への大規模な投資を挙げている。「デイビスやマーセドの郊外など太陽光発電容量が急上昇しているセントラル・バレーエリアから、サンフランシスコ・ベイエリアにおける電力需要の大半を送電できるようには送電網が設計されておらず、そのためのアップグレードも行われていません」と、ムサビ氏。「ベイエリアでは消費需要が高い一方で、必要な再生可能エネルギーを供給できる適切な送電網インフラがないのです。送電網の安定性を維持するには、電力需要のピーク時には太陽光発電など設置済みで即座に利用できる再生可能エネルギー源を切り、需要の多い時間帯には消費エリアにある従来の発電所、一般的に「ピーク発電所」と呼ばれる発電所を使用せざるを得なくなります」。

インフラ投資は助けになるだろうが、電力系統の拡大には何年、何十年もの歳月が必要だ。では、急増するAIの電力需要に対して、今できることは何だろう? 選択肢としては、演算処理能力の配分(アマゾンウェブサービスはアイルランドでそれを余儀なくされたと報じられている) や、演算処理能力を再生可能エネルギーが豊富な地域に移転して拡大させるインセンティブの提供がある。別の選択肢は、化石燃料を燃やし続けることだ。石油やガスの火力発電所は豊富で信頼性も高く、また主要な人口密集地周辺に均等に分布している。

だが、こうしたエネルギー源が使用されると、それだけ再生可能エネルギープロジェクトを稼動させる緊急性も低くなる。米国には、規制当局の承認が待たれるクリーンエネルギープロジェクトの長いリストが存在している。だが、そのリーチをAIが企業から家庭や個人向けの機器にまで広げると、新たな再生可能エネルギー発電の「追加性」は先延ばしされる可能性がある。

クリーンエネルギーへのアクセス不足を克服するため、データセンターは買電契約 (PPA) やグリーン電力証書 (REC) などの回避策を採用し、カーボンフットプリントの相殺、償却を行っている。「PPAとRECは2つの発電量増加の原動力で、再生可能エネルギー業界にとっては恩恵ですが、万能薬ではありません」と、ムサビ氏。「送電の改善や、電力の最終消費者へのE負債 (二酸化炭素排出の責任負担) の適切な配分に、機能的な説明責任の仕組みを実現する効果はありません。また、RECのような仕組みを通じた排出取引は、実際の排出量への影響の把握を事実上不可能にします」。

「論文『What’s Scope 2 Good For?』で論じられているように、スコープ3カテゴリ3 (S3C3) なしには正確な排出量の影響を知ることはできませんし、市場ベースのスコープ2 (MBS2) の排出量はそれを考慮していません」とムサビ氏は続ける。「再生可能エネルギーの生産・需要バランスの改善に目を向けなければなりません。ここ数年クリーン発電が急速に増加していますが、増加した発電能力を需要地に送電するインフラの改善は不十分です」。

モデルを変える

小規模かつ集中的な学習モデルは大規模かつより一般的なモデルよりも演算量が少なく消費電力も少ない
小規模かつ集中的な学習モデルは大規模かつより一般的なモデルよりも演算量が少なく消費電力も少ない

政策立案者が配電改善計画を練る一方で、生成AI企業各社はLLMのカーボンフットプリント削減のために行えることがある。

マイクロソフトの機械学習サイエンティスト、レシュミ・ゴッシュ氏は、特定のユースケースに対処するために設計されたより小さなモデルに、LLM自体が取って代わられる可能性があると話す。これらは演算量も少なく、結果として電力も少なくて済む。「一般化された大規模モデルがうまく機能していない分野があります」と語るゴッシュ氏は、生成AIのモデルがひんぱんに生み出すバイアスと欠陥のあるアウトプットについて指摘する。「私が携わる研究領域では、タスクが特化されたものだけの場合に巨大なデータセットへの投資を避けるにはどうすればいいかを研究しています」。

ゴッシュ氏はマイクロソフトによる、小規模言語モデル (SLM) とAIに対応したデータセットのPhi-3オープンモデルの研究を例に挙げる。ChatGPTのようなLLMは1,750億を超えるパラメーターを使うとされているが、SLMのパラメーターは30-50億と、LLMよりもかなり控えめだ。SLMはトレーニング (例えば特定の操作を継続的にループさせて洗練・完成させる) が比較的少なくて済むため、よりサステナブルなAI開発の実践につながる。マイクロソフトがさらに開拓を検討したいと考えているのはこの分野だと、ゴッシュ氏は話す。

「データモデルのサイズを問わず、データモデル内のすべてを学習し直す必要はないことが分かってきています。特定のタスクやドメインに必要な情報は、その一部にしか含まれていませんから」と、ゴッシュ氏。「パラメーターが効率的であれば、AIはより効率的になります」。

エコAIを実現する

機械学習はコーディングのエネルギー効率を高めるのに使用できる
機械学習はコーディングのエネルギー効率を高めるのに使用できる

ChatGPT以前ですら、あらゆるものの電化が進み、エネルギー消費量は右肩上がりだった。このところの需要急増には、AIの可能性を抑制することなくネットゼロへのシフトをサポートするという、熱意のバランスが必要だ。ゴッシュ氏とムサビ氏は、エネルギーインフラと生成AIアプリケーションをより効率的で、レジリエンスを備え、持続可能なものにするには、新たな投資とアプローチが不可欠だと話す。開発段階での環境への配慮は、カーボンフットプリントの削減にもつながる。

オートデスクのデータサイエンティスト、プランジャリ・アジャイ・パースは「エネルギー効率の高いコーディング、最適化されたコード制御、さらにライフサイクル全体を通してのAIモデルの継続的なモニタリングと最適化は、すべて標準とするべきです」と話す。「また、最適化されたトレーニングスケジュールへと移行し、オフピークの時間帯にトレーニングジョブを実行することで、低エネルギーコスト帯をうまく利用できます」。

パースは、「作業負荷を複数のマシンに散在させる」という、分散トレーニングというアプローチもあると言う。「効率を高め、ボトルネックを減らすことにもなります」。

機械学習そのものを、この問題に適用することも可能だ。パースによると、グーグルは2016年には既にDeepMindを使用してデータセンターのエネルギー効率を分析・改善し、冷却用のエネルギー使用量を40%削減したという。「マイクロソフトのProject Natickは、データセンターを水中に設置して冷却コストを節約するもので、これも有望なアプローチです」とパースは話す。

生成AIは、社会へ倫理的、法的、経済的、そして哲学的な問題を突きつけている。専門家たちは、今こそサステナビリティを考慮に入れる時だと言う。LLMのプラスとマイナスの影響についての議論は続くだろうが、その舞台となる健全な地球が存在しなければ、議論の意味もなくなってしまうのだ。

著者プロフィール

マーク・ドゥ・ウルフはテクノロジーのストーリーを得意とするフリーランスライターで、コピーライターとしてアワードを獲得しています。ロンドン生まれで、チューリッヒを拠点としています。コンタクトはmarkdewolf.comまで。

Profile Photo of Mark de Wolf - JP