首页 游戏天地文章正文

图解大语言模型参数选项

游戏天地 2025年09月05日 15:25 1 admin

原文 | 7 LLM Generation Parameters

编译 | 段小草 + Gemini 2.5 Pro

大语言模型 (LLM) 的每一次生成都由其内部参数所决定。

了解如何调整这些参数至关重要,这样你才能生成更精确、更可控的输出。

以下是 7 个最重要的控制参数:

图解大语言模型参数选项

最大 Token 数 (Max tokens)

图解大语言模型参数选项

  • 这个参数严格限制了模型单次响应中能生成 Token 数量上限。
  • 设置过低会导致输出内容被截断;
  • 设置过高则可能浪费计算资源。

温度 (Temperature)

图解大语言模型参数选项

  • 控制随机性。低温度 (~0) 会使模型输出更具确定性。
  • 较高的温度 (0.7–1.0) 会提升创造性和多样性,但也会增加噪音。
  • 应用场景:问答/聊天机器人适用较低温度,头脑风暴/创意任务适用较高温度。

Top-k

图解大语言模型参数选项

  • 生成下一个 Token 的默认方法是根据所有 Token 的概率进行抽样。
  • 该参数将抽样范围限制在概率最高的 k 个 Token 之内。
  • 例如:k=5 → 模型在抽样时只考虑 5 个最可能的下一个 Token。
  • 这有助于加强输出的专注度,但过小的 k 值可能会导致重复性输出。

Top-p (核心抽样/nucleus sampling)

图解大语言模型参数选项

  • 模型不是从所有 Token 或 Top k 的 Token 中挑选,而是从一个累积概率达到 p 的 Token 集合中进行抽样。
  • 例如:top_p=0.9 → 只有覆盖 90% 概率的最小 Token 集合会被纳入考量。
  • top_k 更具适应性,在平衡连贯性与多样性时非常有用。

频率惩罚 (Frequency penalty)

图解大语言模型参数选项

  • 降低重用已频繁出现 Token 的可能性。
  • 正值抑制重复,负值则会加剧重复。
  • 适用于摘要(避免冗余)或诗歌(有意重复)等场景。

存在惩罚 (Presence penalty)

图解大语言模型参数选项

  • 鼓励模型引入文本中尚未出现过的新 Token。
  • 较高的值会推动创新,较低的值则使模型倾向于遵循已知模式。
  • 适用于重视思想多样性的探索性生成任务。

停止序列 (Stop sequences)

图解大语言模型参数选项

  • 一个自定义的 Token 列表,一旦生成其中任何一个 Token,生成过程将立即停止。
  • 在结构化输出(例如 JSON)中至关重要,可防止生成多余文本。
  • 无需进行复杂的提示词 (prompt) 工程即可强制执行严格的响应边界。

还漏掉了哪些其他的 LLM 生成参数?可以在评论区补充一下。

感谢阅读!

发表评论

泰日号Copyright Your WebSite.Some Rights Reserved. 网站地图 备案号:川ICP备66666666号 Z-BlogPHP强力驱动