Defeating Nondeterminism in LLM Inference 最新情報まとめ

LLMの出力が毎回変わる問題、原因はGPUではなかった?Thinking Machinesが解決策を発見

2025/09/25 20:01minougun

AIDefeating Nondeterminism in LLM InferenceLLMThinking Machines

大規模言語モデル(LLM)を利用する際、「同じプロンプトを入力しても、出力が毎回異なる」という現象が発生することがあります。普通の自然言語でのチャットのやり取りでは、同じ入力に対してそこまで意味が異なる文章が返ってくることは少ないですが、例えばスクリプトを組んだりAI自身に最適なプロンプト文を作らせてみたりすると、明らかにこちらの意図から外れた挙動が何パターンも繰り返し出力される……という経験をし...

すまほん!!を購読しませんか?

Twitterでも最新更新を配信・通知しています

フォローする 再度表示しない