Open AI は、非常に役に立たないテキストベースの生成 AI である GPT-3 AI をトレーニングするために 1,300 MWh のエネルギーを使用したと推定されています。
これは、米国の平均的な家庭に 130 年間電力を供給するのに十分なエネルギーですが、米国の家庭はエネルギー効率が非常に悪いのです。
しかし、更新され、はるかに機能が向上した ChatGPT-4 のトレーニングには、おそらくはるかに多くのエネルギーが必要でした。GPT-3 では、トレーニングに生のテキスト データを 17 ギガバイトしか使用しませんでしたが、GPT-4 では 45 ギガバイト、つまり 2.6 倍以上を使用しました。
したがって、AI は 2.6 倍のデータを移行する必要があるだけでなく、この追加データすべてが相互にどのように関連しているかを計算し、さらに多くのデータを見つける必要があるため、トレーニングには 2.6 倍を超えるエネルギーが必要になるでしょう。