type
summary
status
category
tags
slug
date
password
icon
状态
子标签
标签
日期
Jan 13, 2026 08:03 AM
CONTENT
AI 提示词工程 散课一则
过一遍
印象深刻的几个点:
- context其实就是对历史对话记录的打包,即本质上多轮对话不过是将历史记录打包塞进最新一轮的对话,这是个累加的过程
- 时下新的技术方向之一:优化这个context的长度,避免对整体的prompt初始目的进行稀释
- 记笔记的策略
- 向量化临时存储
- transformer架构对开头部分和结尾部分的敏感性:开头放user prompt,结尾放最新的总结过的历史记录总结笔记
做笔记
AI提示词工程相关
- --
02:06
system prompt + user prompt
(本质上是将每次发送的prompt分为两个部分:常驻的system,自定义修改的user)
- --

13:30
借助transfomer的架构特点(对开头部分和结尾部分的高敏感度注意力),利用一些系统性的手段(如:调用工具,结合LLM提炼搜索结果记笔记作为不断更新的上下文),达成控制context上下文长度的模式,被称作所谓的上下文工程。
- --

15:04
压缩context长度的手段,图示为存储进临时向量数据库,类RAG。再进行系统性手段的调整,比如query查询,或者LLM再处理去掉冗余信息等。
- --

15:55
确保AI执行预定任务(感觉其实确保AI输出预期结果是个更好的方向)
| 这些工程手段的直接影响是避免过长的context在prompt占据过高权重,从而稀释掉带有用户实际目的的user prompt
- --


16:01
- 关于记忆的思考:间接知识与直接经验
- 一些笔者的补充:提示词工程指南项目|www.promptingguide.ai/zh
内化理解
后续
- 实操:system prompt;压缩手段;向量数据库;等,以上只是概念学习
- Author:Frank
- URL:https://blog.fqqblog.com/article/2e7bd4d9-052e-8174-acb1-f13111189133
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!
