Lazy loaded image
技术分享
notion://custom_emoji/f738d5c4-7124-4d0d-ac3d-34a860d0009d/252bd4d9-052e-806d-b520-007acb7f0ed7?t=2e7bd4d9-052e-81a9-aacd-fe570dff4051提示词工程
Words 3179Read Time 8 min
2025-8-19
2026-1-13
type
summary
status
category
tags
slug
date
password
icon
状态
子标签
标签
日期
Jan 13, 2026 08:03 AM
CONTENT
 

Step1:搜集信息_Input

提示词工程项目

提示词工程指南(T0)
提示工程指南 – Nextra
Prompt-Engineering-Guide
dair-aiUpdated Jan 13, 2026
cookbook项目
OpenAI Cookbook
openai-cookbook
openaiUpdated Jan 13, 2026

大厂的使用手册

Anthropic文档
AnthropicAnthropic提示工程概述 - Anthropic
OpenAI文档
OpenAI Platform
tffyvtlai4.feishu.cn(第三方翻译版)
  1. 给出清晰的指令。
  1. 提供相关的例子或引用材料。
  1. 任务拆解。
  1. 要给模型思考的时间。
  1. 提供额外的工具来补齐大模型的短板。
  1. 进行系统性的测试。
阿里百炼文档
Prompt, Prompt Engineering, 提示工程, 提示词_大模型服务平台百炼(Model Studio)-阿里云帮助中心

网络资料

Gemini_资料
鹅厂架构师_知乎
zhuanlan.zhihu.com
提示词框架
BROKE
ICIO
CRISPE
框架解释
Background (背景):描述背景,提供充足的上下文信息。Role (角色):限定角色,明确大模型扮演的角色。Objectives (目标/任务):你想要大模型完成的具体任务。Key Result (关键结果):指定模型的输出风格、格式和内容等。Evolve (改进):在模型回答之后,提供改进的方法来优化效果。
Instruction (任务):你想要大模型完成的具体任务。 Context (背景):提供给大模型的背景上下文信息。 Input Data (输入数据):需要处理的具体数据。 Output Indicator (输出格式):指定模型的输出格式和风格。
Capacity and Role (角色):限定角色,明确大模型扮演的角色。Insight (背景):描述背景,提供充足的上下文信息。Statement (任务):你想要大模型完成的具体任务。Personality (格式):指定模型的输出格式和风格。Experiment (实验):需要的时候可以要求模型提供多个示例让用户选择。
 
 
 
 

Step2:处理信息_Learn

提示工程指南-Prompt Engineering Guide
提示工程指南 – Nextra

简介

基础概念

  1. LLM参数
    1. temperature:自由度,创造性,随机性
    2. length:长度限制
    3. stop sequence:停止序列,终止回答的按钮,人为预测并设置,LLM触发后停止输出
    4. Top_P:功能上接近temperature;温度基于随机概率,Top_p基于累计概率。
      1. Top_P与Temperature的详细区别
        简单来说,Top-p 决定了模型在生成下一个词时,会考虑哪些词语。它不是像 Temperature 那样基于概率随机选择,而是基于累积概率来筛选词语。
        具体来说,Top-p 会根据你设定的一个概率值 p (例如 0.9),从所有可能的下一个词语中,从概率最高的词开始,按顺序累加它们的概率。当累加的概率总和达到或超过 p 时,它就会停止筛选。之后,模型只会在这个被筛选出的“核心”词汇集合中进行选择。
        举例:
        假设模型在生成完句子“天空是蓝色的,因为它…”之后,它预测下一个词的概率如下:
        • “散射”:0.5
        • “反射”:0.2
        • “折射”:0.1
        • “很”:0.08
        • “美丽”:0.05
        • “云”:0.03
        • ...其他词语的概率都非常低
        现在,我们设置 Top-p0.8。模型会这样做:
        1. “散射” 的概率是 0.5。累积概率为 0.5。
        1. “反射” 的概率是 0.2。累积概率为 0.5 + 0.2 = 0.7。
        1. “折射” 的概率是 0.1。累积概率为 0.7 + 0.1 = 0.8。
        这时,累积概率达到了我们设定的 0.8。所以,模型会停止筛选。它只会从 {“散射”, “反射”, “折射”} 这三个词中选择一个作为下一个词。像“很”或“美丽”这些概率较低的词语,即使在现实中也可能合理,但因为它们不属于这个“核心”集合,所以模型根本不会考虑。
         
    5. penalty:
      1. Frequency 与 Presence
        Frequency Penalty(频率惩罚)
        Presence Penalty(存在惩罚)
        惩罚机制
        基于频率:一个词出现的次数越多,惩罚越重。
        基于存在:一个词只要出现过,就会受到惩罚。
        主要效果
        避免重复词语,使文本更自然流畅。
        鼓励使用新词,使文本更具多样性和创新性。
        举例
        惩罚“猫”出现的第三次和第四次。
        惩罚“猫”出现的第一次和第二次。
         
      ref
      notion image
  1. 三个角色
    1. system
    2. user 
    3. assistant
  1. 样本:shot,零样本 zero shot,少样本 few shot
  1. 任务/问答类交互要素
    1. 指令
    2. 上下文
    3. 任务内容
    4. 输出格式
  1. 一个模板
    1. 参考训练数据集中的文本样本,许多都是问答型,所以要理解下面的模板
 

通用原则

  1. 保持简洁
  1. 迭代是必要步骤
  1. 拆分任务——保持简洁的一个技巧
  1. 避免不明确——陷入过度冗余描述提示中,可能适得其反,得到并不明确的描述
  1. 指示LLM做什么比指示 LLM不做什么更有效,即todo > not todo;|存疑
 
 

提示技术

零样本,少样本(zero shot,few shot)

适用于一般场景,不适用于复杂推理场景,例如一些数学运算
 

*链式思考(CoT)

Chain-of-Thought
本质:引导LLM模仿推理
  1. 初始提出
    1. 给一个同类型问题的推理步骤,让LLM去模仿推理步骤
      ref
      本质上是给一个同类型问题的推理步骤,让LLM去模仿推理步骤
      本质上是给一个同类型问题的推理步骤,让LLM去模仿推理步骤
      arXiv.orgarXiv.orgChain-of-Thought Prompting Elicits Reasoning in Large Language Models
  1. 零样本CoT
    1. 零样本+一句话:逐步思考;Let‘s think step by step
      ref
      notion image
  1. 自动思维链Auto_CoT
      • 阶段1:问题聚类:将给定问题划分为几个聚类
      • 阶段2:演示抽样:从每组数组中选择一个具有代表性的问题,并使用带有简单启发式的 Zero-Shot-CoT 生成其推理链
      ref
      notion image
 

自我一致性(Meta)

通过少样本 CoT 采样多个不同的推理路径,并使用生成结果选择最一致的答案
多个推理答案,取一个大多数答案
 
 

生成知识提示

通过LLM自己生成相关知识,将这部分作为context补充内容提供给LLM,起到跟外置知识库一样的作用
 

链式提示(Prompt Chaining)

将任务分解为许多子任务:确定子任务后,将子任务的提示词提供给语言模型,得到的结果作为新的提示词的一部分
 

*思维树(ToT)

Tree of Thoughts:把思维作为中间步骤构建思维树
对比IO,CoT,CoT-SC,ToT
notion image
ToT 维护着一棵思维树,思维由连贯的语言序列表示,这个序列就是解决问题的中间步骤。使用这种方法,LLM 能够在系统性探索思维的时候向前验证和回溯。
  1. 传统搜索树:arXiv.orgarXiv.orgTree of Thoughts: Deliberate Problem Solving with Large Language Models
    1. 深度优先(DFS)/广度优先(BFS)/集束(beam)搜索
  1. 强化学习训练控制器搜索树:arXiv.orgarXiv.orgTree of Thoughts: Deliberate Problem Solving with Large Language Models
    1. 由强化学习(Reinforcement Learning)训练出的 “ToT 控制器”(ToT Controller)来驱动树的搜索策略
  1. 思维树的概括提示词
    1. prompt
  1. PannelGPT:(英文版里尾部添加的一行),多个LLM对话互相充当上下文context
 
 

*检索增强生成(RAG)

Retrieval Augmented Generation
  1. 把一个信息检索组件和文本生成模型结合在一起
  1. 微调RAG比微调LLM更省力,更高效,能弥补LLM静态知识库的不足
overview
notion image
  1. 之前的学习储备:
    1. RAG
      RAGJun 27, 2025 15:25
    2. Knowledge Graph
      Knowledge GraphJun 27, 2025 16:59
 
 

自动推理并使用工具 (ART)

Automatic Reasoning and Tool-use
  1. 工作原理
    1. 接到一个新任务的时候,从任务库中选择多步推理和使用工具的示范。
    2. 在测试中,调用外部工具时,先暂停生成,将工具输出整合后继续接着生成。
    3. overview
      notion image
  1. 笼统解释:
    1. 一个轻量级的LLM或组件负责设计出推理步骤,一个冻结的LLM(已预训练完成、且参数不再更新的LLM)负责执行这些推理步骤。
    2. 步骤中包含一些外部工具的调用,这些调用的第三方动态信息会作为context上下文添加进输入内容,成为输入的一部分
    3. 不断中断,调用工具,补充输入,继续输出,直到最终结果
 
 

自动提示工程师(APE)

笼统解释:用于自动指令生成和选择的框架
 
 

Active Prompt

  1. 工作原理
    1. 使用或不使用少量 CoT 示例查询 LLM。对一组训练问题生成 k 个可能的答案。基于 k 个答案计算不确定度度量(使用不一致性)。选择最不确定的问题由人类进行注释。然后使用新的注释范例来推断每个问题。
  1. 目的:适应 LLMs 到不同的任务特定示例提示(用人类设计的 CoT 推理进行注释)
  1. 笼统解释:生成多个LLM的答案,人工标注最差的答案,交给LLM反推
overview
notion image
 

方向性刺激提示

Directional Stimulus Prompting
  1. 定位:一种新方法
  1. 笼统解释:训练了一个可调节的策略 LM 来生成刺激/提示。越来越多地使用RL来优化 LLM
  1. 论文:arXiv.orgarXiv.orgGuiding Large Language Models via Directional Stimulus Prompting
 

程序辅助语言模型

  1. 工作原理:使用 LLMs 读取自然语言问题并生成程序作为中间推理步骤的方法
  1. 笼统解释:将CoT的自然语言式推理改为编程语言运行,比如一些数学运算,如:
    1. e.g.
      notion image
 
 

*ReAct框架

  1. 工作原理: 
    1. LLMs 以交错的方式生成 推理轨迹 和 任务特定操作 
    2. ReAct 框架允许 LLMs 与外部工具交互来获取额外信息,从而给出更可靠和实际的回应
结合并支持在 ReAct 和链式思考+自我一致性之间切换的提示方法通常优于所有其他提示方法
 
 

*Reflexion

自我反思
  1. 工作原理:
    1. 一个通过语言反馈来强化基于语言的智能体的框架
    2. 关键步骤是a)定义任务,b)生成轨迹,c)评估,d)执行自我反思,e)生成下一条轨迹
  1. 笼统解释:在之前的ReAct等框架中加入一个自我反思的步骤
overview
notion image
    1. 具体构成:
      1. 参与者(Actor):根据状态观测量生成文本和动作。CoT或ReAct+记忆组件。
      2. 评估者(Evaluator):对参与者的输出进行评价。LLM根据奖励函数输出奖励分数。
      3. 自我反思(Self-Reflection):LLM生成语言强化线索来帮助参与者实现自我完善。
     
     

    多模态思维链

    mutimodal CoT
    含义:多模态思维链提示将文本和视觉融入到一个两阶段框架中。第一步涉及基于多模态信息的理性生成。接下来是第二阶段的答案推断,它利用生成的理性信息。
     

    基于图Graph的提示

    1. 论文:arXiv.orgarXiv.orgGraphPrompt: Unifying Pre-Training and Downstream Tasks for Graph...
     
     
     
     

     

    Step3:成果产出_Output

     
     
     
     
     
     
     
     
     
     

     

    Cited

    1. RAG
      RAGJun 27, 2025 15:25
    1. Knowledge Graph
      Knowledge GraphJun 27, 2025 16:59
    1. 🗨️
      提示词优化器
     
     
     
     
     
     
     
     
     

     
     
     
     
    上一篇
    歌词网页动画
    下一篇
    Blog视效升级