大規模言語モデル(LLM)の中には、数千億のパラメーターを持ち、学習に多くのエネルギーと水を使用するものもある。たとえば、GPT3は、1.287ギガワット時、つまり米国の120世帯分の1年間の電力と、70万リットルの浄水を必要とした。
34,000本の雑学記事からランダム表示
大規模言語モデル(LLM)の中には、数千億のパラメーターを持ち、学習に多くのエネルギーと水を使用するものもある。たとえば、GPT3は、1.287ギガワット時、つまり米国の120世帯分の1年間の電力と、70万リットルの浄水を必要とした。