最近オープンAIが開発し対話型人工知能(AI)「ChatGPT」が旋風的な人気を呼んでいることを受け、グーグル(Google)が「Bard」を公開、マイクロソフト(MS)からも類似の技術を搭載した「Bing」が公開された。
中国の検索エンジンプロバイダの百度(バイドウ)もこの流れに続く態勢だ。
ユーザーの特定の要求に合わせて結果を生成する、いわゆる「生成型(Generative)AI」が先を争って公開されている。ユーザーの立場ではより良い結果をよりスピーディーに手に入れられる点で嬉しいニュースだ。
だが、このような競争の中には暗い影もある。それがエネルギー消費と温室効果ガス排出だ。
これらAIのトレーニング過程と実際のユーザー利用過程でエネルギー消費は避けられない。100%再生エネルギーを使わないなら温室効果ガスが排出されてしまうためだ。米国MITテクノロジーレビュー(昨年11月14日)はこの問題を「AIの後ろに隠された『ダーティシークレット(誰にも知られたくない秘密、Dirty Secret)』」と指摘した。
◇検索のたびに温室効果ガスが排出
グーグルの場合、1回の検索につき0.0003キロワット時(kWh)のエネルギーが費やされる。この時、300ミリグラムの二酸化炭素(CO2)が排出されると考えればよい。
全世界的にグーグルで1秒当たり4万回、年間1兆3000億回の検索が発生すると考えると、この検索エンジンを通じて年間約40万トンのCO2が排出されることになる。
単なる検索ではなく生成型AIを利用するには、毎回4~5倍以上の作業が必要になると言われている。ChatGPTを利用する場合、エネルギー消費も温室効果ガス排出も従来の検索に比べてはるかに多くなるということだ。
すでにChatGPTユーザーが1億人を超えたが、生成型AIが数多く生まれれば状況はもっと深刻になる。
競争が熱くなれば温室効果ガス排出量は増えざるを得ない。データを保存しておくデータセンターも増やさなければならないうえ、性能のより優れたスーパーコンピュータも導入しなければならない。
国際エネルギー機関(IEA)によると、世界的にデータセンターから排出される温室効果ガスは全体温室効果ガス排出量の1%を占める。温室効果ガス排出量9位である韓国が全世界排出量で占める比重が2%である点を考慮すると決して少ない量ではない。
米国エネルギー部によると、データセンターで消費される電力の半分は装備運営に、残りの25~40%は温度調節など空調システムの運営に投じられる。
◇AIトレーニングの時にも多くのエネルギー消費
AIを学習させる大規模言語モデル(LLM)の場合、単語数が幾何級数的に増えてAIトレーニングによるエネルギー消費もそれだけ増えることになる。ChatGPT開発のためのGPT-3教育では1287メガワット時を消費して550トンのCO2を排出した。
2020年6月、経済誌「フォーブス(Forbes)」の報道によると、旧式モデルGPT-2は媒介変数が15億個にすぎなかったが、GPT-3は1750億個へと劇的に増えた。GPT-2は400億個のデータプールで学習したが、GPT-3では約5000億個のデータプールが使われた。
また、GPT-2がトレーニングするには数十ペタフロップス(Petflop)/日(day)が費やされた。すなわち、1秒当たり1000兆回の速度で演算する作業を数十日続けたということだ。これ自体でも途方もない作業量だが、GPT-3のトレーニングを同じ速度で行ったとすれば数千日かかっていただろうということだ。
特に、GPT-3は6カ月間にそれぞれ4789種類の異なるバージョンのモデルを経て最終モデルが作られたが、このモデルを構築するのに合計35トンを超えるCO2が排出された。これは韓国人1人当たり年間CO2排出量13.65トンの2倍を越える量だ。
「AIの“ダーティシークレット”」…グーグルより「ChatGPT」のほうが地球に悪い(2)
中国の検索エンジンプロバイダの百度(バイドウ)もこの流れに続く態勢だ。
ユーザーの特定の要求に合わせて結果を生成する、いわゆる「生成型(Generative)AI」が先を争って公開されている。ユーザーの立場ではより良い結果をよりスピーディーに手に入れられる点で嬉しいニュースだ。
だが、このような競争の中には暗い影もある。それがエネルギー消費と温室効果ガス排出だ。
これらAIのトレーニング過程と実際のユーザー利用過程でエネルギー消費は避けられない。100%再生エネルギーを使わないなら温室効果ガスが排出されてしまうためだ。米国MITテクノロジーレビュー(昨年11月14日)はこの問題を「AIの後ろに隠された『ダーティシークレット(誰にも知られたくない秘密、Dirty Secret)』」と指摘した。
◇検索のたびに温室効果ガスが排出
グーグルの場合、1回の検索につき0.0003キロワット時(kWh)のエネルギーが費やされる。この時、300ミリグラムの二酸化炭素(CO2)が排出されると考えればよい。
全世界的にグーグルで1秒当たり4万回、年間1兆3000億回の検索が発生すると考えると、この検索エンジンを通じて年間約40万トンのCO2が排出されることになる。
単なる検索ではなく生成型AIを利用するには、毎回4~5倍以上の作業が必要になると言われている。ChatGPTを利用する場合、エネルギー消費も温室効果ガス排出も従来の検索に比べてはるかに多くなるということだ。
すでにChatGPTユーザーが1億人を超えたが、生成型AIが数多く生まれれば状況はもっと深刻になる。
競争が熱くなれば温室効果ガス排出量は増えざるを得ない。データを保存しておくデータセンターも増やさなければならないうえ、性能のより優れたスーパーコンピュータも導入しなければならない。
国際エネルギー機関(IEA)によると、世界的にデータセンターから排出される温室効果ガスは全体温室効果ガス排出量の1%を占める。温室効果ガス排出量9位である韓国が全世界排出量で占める比重が2%である点を考慮すると決して少ない量ではない。
米国エネルギー部によると、データセンターで消費される電力の半分は装備運営に、残りの25~40%は温度調節など空調システムの運営に投じられる。
◇AIトレーニングの時にも多くのエネルギー消費
AIを学習させる大規模言語モデル(LLM)の場合、単語数が幾何級数的に増えてAIトレーニングによるエネルギー消費もそれだけ増えることになる。ChatGPT開発のためのGPT-3教育では1287メガワット時を消費して550トンのCO2を排出した。
2020年6月、経済誌「フォーブス(Forbes)」の報道によると、旧式モデルGPT-2は媒介変数が15億個にすぎなかったが、GPT-3は1750億個へと劇的に増えた。GPT-2は400億個のデータプールで学習したが、GPT-3では約5000億個のデータプールが使われた。
また、GPT-2がトレーニングするには数十ペタフロップス(Petflop)/日(day)が費やされた。すなわち、1秒当たり1000兆回の速度で演算する作業を数十日続けたということだ。これ自体でも途方もない作業量だが、GPT-3のトレーニングを同じ速度で行ったとすれば数千日かかっていただろうということだ。
特に、GPT-3は6カ月間にそれぞれ4789種類の異なるバージョンのモデルを経て最終モデルが作られたが、このモデルを構築するのに合計35トンを超えるCO2が排出された。これは韓国人1人当たり年間CO2排出量13.65トンの2倍を越える量だ。
「AIの“ダーティシークレット”」…グーグルより「ChatGPT」のほうが地球に悪い(2)
この記事を読んで…