チャットGPTのような、前のワードから次のワードを予測する大規模言語モデル(LLM)を考えてみよう。

プログラマーは、「temperature」(温度)と呼ばれる値の設定によって、このプロセスの精度をコントロールできる。

温度が高いほど、前のワードに最も適合すると予測されるワードが選択される可能性が低くなる。

温度を上げると精度は落ちるが、意外性や創造性が増すため、ユーザーにとって望ましい可能性があり、またアウトプットのバリエーション、ひいてはユーザーの反応のバリエーションが増すため、時間とともにモデルが向上するという利点もある。

更新情報知らせます はい 不要