チャットGPTのような、前のワードから次のワードを予測する大規模言語モデル(LLM)を考えてみよう。
プログラマーは、「temperature」(温度)と呼ばれる値の設定によって、このプロセスの精度をコントロールできる。
温度が高いほど、前のワードに最も適合すると予測されるワードが選択される可能性が低くなる。
温度を上げると精度は落ちるが、意外性や創造性が増すため、ユーザーにとって望ましい可能性があり、またアウトプットのバリエーション、ひいてはユーザーの反応のバリエーションが増すため、時間とともにモデルが向上するという利点もある。