理解LLM温度参数基础 | AI生成和翻译

Home 2025.09

在LLM API(如OpenAI、Copilot API、Anthropic等)中,temperature 是一个控制模型输出随机性确定性的参数。


Temperature 的作用


“0.7”的含义


如何使用

在大多数API中,您可以在请求中将其作为参数传递。例如:

OpenAI API(聊天补全):

{
  "model": "gpt-4.1",
  "messages": [
    {"role": "user", "content": "写一个关于龙和机器人的短故事。"}
  ],
  "temperature": 0.7
}

GitHub Copilot API: 该参数的工作方式类似。Copilot在内部使用temperature来决定是提供更字面化的补全还是更具探索性的建议。大多数IDE集成将其设置为0.7左右,但某些上下文(如代码补全)可能使用较低值以保证稳定性。


经验法则:


您是否还想了解 temperature 如何与 top_p(核采样)交互?因为这两个参数在Copilot/LLM API中通常都可用。


Back

openai/gpt-5

Donate