控制RNN文本生成温度 | AI生成和翻译

Home 2025.11

理解 RNN 采样中的温度参数

在用于文本生成的循环神经网络(RNN)中——比如安德烈·卡帕西在其著名博客中探讨的字符级语言模型——温度是一个超参数,用于调节生成文本的”随机性”或”可预测性”。该参数在采样步骤中应用,当 RNN 根据先前字符预测下一个字符(或标记)时。若缺乏温度调控,生成结果可能过于刻板(总是选择最可能的下一个字符,导致单调循环)或过于狂野(纯粹随机)。温度参数通过软化模型对可能下一个字符的概率分布来达成平衡。

背后的数学原理

RNN 会为每个可能的下一个字符输出 logits(原始未归一化分数)。这些分数通过 softmax 函数转换为概率:

\[ p_i = \frac{\exp(\text{logit}_i / T)}{\sum_j \exp(\text{logit}_j / T)} \]

这个过程会迭代进行:将选中的字符作为输入反馈给模型,预测下一个字符,如此循环以生成序列。

低温模式:重复但稳妥

高温模式:创新但不稳定

在 RNN 中的重要意义

RNN(或卡帕西实验中的 LSTM)具有自回归特性:每个预测都基于前序结果,因此采样中的微小偏差会在长序列中持续累积。温度参数让您可以调节探索与利用的平衡:

本质上,温度参数并非”学习”新知识,而是在推理过程中调节 RNN 的创造力旋钮。低温保持稳定可预测,高温则释放混沌之力。

循环神经网络不合理的有效性


Back

x-ai/grok-4-fast

Donate