LLM の出力に基づいてトレーニングされた LLM は目に見えて悪化し、かつては「知っていた」ことさえ忘れてしまうことが示されており、これは「モデルの崩壊」と呼ばれる症状です。これが意味するのは、LLM が優れたものとなり、さらに良くなるためには、人間によって書かれたオリジナル コンテンツの安定した供給が必要となり、ウィキペディアや人間が作成したその他のコンテンツ ソースの価値がさらに高まるということです。
34,000本の雑学記事からランダム表示
LLM の出力に基づいてトレーニングされた LLM は目に見えて悪化し、かつては「知っていた」ことさえ忘れてしまうことが示されており、これは「モデルの崩壊」と呼ばれる症状です。これが意味するのは、LLM が優れたものとなり、さらに良くなるためには、人間によって書かれたオリジナル コンテンツの安定した供給が必要となり、ウィキペディアや人間が作成したその他のコンテンツ ソースの価値がさらに高まるということです。