CONTENT
Step1:搜集信息_Input
提示词工程项目
提示词工程指南(T0)
提示工程指南 – Nextra
A Comprehensive Overview of Prompt Engineering
cookbook项目
OpenAI Cookbook
Open-source examples and guides for building with the OpenAI API. Browse a collection of snippets, advanced techniques and walkthroughs. Share your own examples and guides.
大厂的使用手册
Anthropic文档
提示工程概述 - Anthropic
OpenAI文档

OpenAI Platform
Explore developer resources, tutorials, API docs, and dynamic examples to get the most out of OpenAI's platform.
tffyvtlai4.feishu.cn
- 给出清晰的指令。
- 提供相关的例子或引用材料。
- 任务拆解。
- 要给模型思考的时间。
- 提供额外的工具来补齐大模型的短板。
- 进行系统性的测试。
阿里百炼文档
Prompt, Prompt Engineering, 提示工程, 提示词_大模型服务平台百炼(Model Studio)-阿里云帮助中心
提示(Prompt)是您输入给大模型(LLM)的文本信息,用于明确地告诉模型您想要解决的问题或完成的任务,也是大语言模型理解用户需求并生成相关、准确回答或内容的基础。 为了帮助您更高效地使用 LLM ,本教程为您提供一系列实用的技巧,帮助您设计和优化 Prompt。
网络资料
鹅厂架构师_知乎
zhuanlan.zhihu.com
提示词框架 | BROKE | ICIO | CRISPE |
框架解释 | Background (背景):描述背景,提供充足的上下文信息。Role (角色):限定角色,明确大模型扮演的角色。Objectives (目标/任务):你想要大模型完成的具体任务。Key Result (关键结果):指定模型的输出风格、格式和内容等。Evolve (改进):在模型回答之后,提供改进的方法来优化效果。 | Instruction (任务):你想要大模型完成的具体任务。 Context (背景):提供给大模型的背景上下文信息。 Input Data (输入数据):需要处理的具体数据。 Output Indicator (输出格式):指定模型的输出格式和风格。 | Capacity and Role (角色):限定角色,明确大模型扮演的角色。Insight (背景):描述背景,提供充足的上下文信息。Statement (任务):你想要大模型完成的具体任务。Personality (格式):指定模型的输出格式和风格。Experiment (实验):需要的时候可以要求模型提供多个示例让用户选择。 |
Step2:处理信息_Learn
提示工程指南-Prompt Engineering Guide提示工程指南 – Nextra
提示工程指南 – Nextra
A Comprehensive Overview of Prompt Engineering
简介
基础概念
- LLM参数
- temperature:自由度,创造性,随机性
- length:长度限制
- stop sequence:停止序列,终止回答的按钮,人为预测并设置,LLM触发后停止输出
- Top_P:功能上接近temperature;温度基于随机概率,Top_p基于累计概率。
- “散射”:0.5
- “反射”:0.2
- “折射”:0.1
- “很”:0.08
- “美丽”:0.05
- “云”:0.03
- ...其他词语的概率都非常低
- “散射” 的概率是 0.5。累积概率为 0.5。
- “反射” 的概率是 0.2。累积概率为 0.5 + 0.2 = 0.7。
- “折射” 的概率是 0.1。累积概率为 0.7 + 0.1 = 0.8。
- penalty:
Top_P与Temperature的详细区别
Top-p 决定了模型在生成下一个词时,会考虑哪些词语。它不是像 Temperature 那样基于概率随机选择,而是基于累积概率来筛选词语。Top-p 会根据你设定的一个概率值 p (例如 0.9),从所有可能的下一个词语中,从概率最高的词开始,按顺序累加它们的概率。当累加的概率总和达到或超过 p 时,它就会停止筛选。之后,模型只会在这个被筛选出的“核心”词汇集合中进行选择。Top-p 为 0.8。模型会这样做:Frequency 与 Presence
ㅤ | Frequency Penalty(频率惩罚) | Presence Penalty(存在惩罚) |
惩罚机制 | 基于频率:一个词出现的次数越多,惩罚越重。 | 基于存在:一个词只要出现过,就会受到惩罚。 |
主要效果 | 避免重复词语,使文本更自然流畅。 | 鼓励使用新词,使文本更具多样性和创新性。 |
举例 | 惩罚“猫”出现的第三次和第四次。 | 惩罚“猫”出现的第一次和第二次。 |
ref

- 三个角色
systemuserassistant
- 样本:shot,零样本 zero shot,少样本 few shot
- 任务/问答类交互要素
- 指令
- 上下文
- 任务内容
- 输出格式
- 一个模板
参考训练数据集中的文本样本,许多都是问答型,所以要理解下面的模板
通用原则
- 保持简洁
- 迭代是必要步骤
- 拆分任务——保持简洁的一个技巧
- 避免不明确——陷入过度冗余描述提示中,可能适得其反,得到并不明确的描述
- 指示LLM做什么比指示 LLM不做什么更有效,即todo > not todo;|存疑
提示技术
零样本,少样本(zero shot,few shot)
*链式思考(CoT)
Chain-of-Thought
- 初始提出
ref


Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
We explore how generating a chain of thought -- a series of intermediate reasoning steps -- significantly improves the ability of large language models to perform complex reasoning. In particular,...
- 零样本CoT
ref

- 自动思维链Auto_CoT
- 阶段1:问题聚类:将给定问题划分为几个聚类
- 阶段2:演示抽样:从每组数组中选择一个具有代表性的问题,并使用带有简单启发式的 Zero-Shot-CoT 生成其推理链
ref

自我一致性(Meta)
多个推理答案,取一个大多数答案
生成知识提示
链式提示(Prompt Chaining)
*思维树(ToT)
对比IO,CoT,CoT-SC,ToT

ToT 维护着一棵思维树,思维由连贯的语言序列表示,这个序列就是解决问题的中间步骤。使用这种方法,LLM 能够在系统性探索思维的时候向前验证和回溯。
- 传统搜索树:
arXiv.orgTree of Thoughts: Deliberate Problem Solving with Large Language Models
Tree of Thoughts: Deliberate Problem Solving with Large Language Models
Language models are increasingly being deployed for general problem solving across a wide range of tasks, but are still confined to token-level, left-to-right decision-making processes during...
- 强化学习训练控制器搜索树:
arXiv.orgTree of Thoughts: Deliberate Problem Solving with Large Language Models
Tree of Thoughts: Deliberate Problem Solving with Large Language Models
Language models are increasingly being deployed for general problem solving across a wide range of tasks, but are still confined to token-level, left-to-right decision-making processes during...
- 思维树的概括提示词
prompt
- PannelGPT:(英文版里尾部添加的一行),多个LLM对话互相充当上下文context
*检索增强生成(RAG)
- 把一个信息检索组件和文本生成模型结合在一起
- 微调RAG比微调LLM更省力,更高效,能弥补LLM静态知识库的不足
overview

自动推理并使用工具 (ART)
- 工作原理
- 接到一个新任务的时候,从任务库中选择多步推理和使用工具的示范。
- 在测试中,调用外部工具时,先暂停生成,将工具输出整合后继续接着生成。
overview

- 笼统解释:
- 一个轻量级的LLM或组件负责设计出推理步骤,一个冻结的LLM(已预训练完成、且参数不再更新的LLM)负责执行这些推理步骤。
- 步骤中包含一些外部工具的调用,这些调用的第三方动态信息会作为context上下文添加进输入内容,成为输入的一部分
- 不断中断,调用工具,补充输入,继续输出,直到最终结果
自动提示工程师(APE)
Active Prompt
- 工作原理
- 目的:适应 LLMs 到不同的任务特定示例提示(用人类设计的 CoT 推理进行注释)
- 笼统解释:生成多个LLM的答案,人工标注最差的答案,交给LLM反推
overview

方向性刺激提示
- 定位:一种新方法
- 笼统解释:训练了一个可调节的策略 LM 来生成刺激/提示。越来越多地使用RL来优化 LLM
- 论文:
arXiv.orgGuiding Large Language Models via Directional Stimulus Prompting
Guiding Large Language Models via Directional Stimulus Prompting
We introduce Directional Stimulus Prompting, a novel framework for guiding black-box large language models (LLMs) toward specific desired outputs. Instead of directly adjusting LLMs, our method...
程序辅助语言模型
- 工作原理:使用 LLMs 读取自然语言问题并生成程序作为中间推理步骤的方法
- 笼统解释:将CoT的自然语言式推理改为编程语言运行,比如一些数学运算,如:
e.g.

*ReAct框架
- 工作原理:
- LLMs 以交错的方式生成 推理轨迹 和 任务特定操作
- ReAct 框架允许 LLMs 与外部工具交互来获取额外信息,从而给出更可靠和实际的回应
结合并支持在 ReAct 和链式思考+自我一致性之间切换的提示方法通常优于所有其他提示方法
*Reflexion
- 工作原理:
- 一个通过语言反馈来强化基于语言的智能体的框架
- 关键步骤是a)定义任务,b)生成轨迹,c)评估,d)执行自我反思,e)生成下一条轨迹
- 笼统解释:在之前的ReAct等框架中加入一个
自我反思的步骤
overview

- 具体构成:
- 参与者(Actor):根据状态观测量生成文本和动作。CoT或ReAct+记忆组件。
- 评估者(Evaluator):对参与者的输出进行评价。LLM根据奖励函数输出奖励分数。
- 自我反思(Self-Reflection):LLM生成语言强化线索来帮助参与者实现自我完善。
多模态思维链
基于图Graph的提示
- 论文:
arXiv.orgGraphPrompt: Unifying Pre-Training and Downstream Tasks for Graph...
GraphPrompt: Unifying Pre-Training and Downstream Tasks for Graph...
Graphs can model complex relationships between objects, enabling a myriad of Web applications such as online page/article classification and social recommendation. While graph neural...
Step3:成果产出_Output
Cited
- Author:Frank
- URL:https://blog.fqqblog.com/article/2e7bd4d9-052e-81a9-aacd-fe570dff4051
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!



