Zhi Blog
  1. LLM&RAG&Agent
Zhi Blog
  • Zhi Blog
  • LLM&RAG&Agent
    • agent+大数据
    • deepseek的指令
    • 大模型控制电脑
    • 10.开发llm的两种方式
    • 11.展示写一个网站
    • 12.展示写一个reactflow前端
    • 13.大模型在反复迭代场景中的应用举例
    • 14.agent开发的workflow流程和自主编排
    • 15.利用大模型实现提示词的优化
    • 16.这就是为啥要学习提示词工程
    • 提示技巧
    • 17.提示词通用技巧以及提示词工程框架介绍
    • 18.Unsloth 大模型微调工具
    • autogen starter
    • MCP1:about MCP
    • MCP2: 如何用langchain创建自己的MCP server&client
    • 十分钟系列
      • 1.十分钟实现免费本地大模型对话框
      • 2.十分钟在本地部署大模型
      • 3.十分钟实现本地大模型部署并部署对话应用
      • 4.十分钟实现本地知识库部署
      • 5.十分钟在本地实现Deepseek R1 70B免费对话
      • 6.十分钟实现本地可视化开发Agent
      • 7.待补充
    • 参考
      • AI最大赛道Agent机遇全解析
      • 从第一性原理看大模型Agent技术
      • Agent项目
      • LLama部署和微调手册
      • Agent实战-JSON结构化智能
      • AI智能体卷爆大模型!AutoGPT等4大Agent打擂,「西部世界」谁将成为软件2.0
      • Agent调研--19类Agent框架对比
      • 国内近 50 款 AI Agent 产品问世,技术足够支撑应用可靠性了吗
      • 解析 AI Agent 的发展现状和技术难点
      • 清华大学与智谱 AI 联合推出 CogAgent:基于多模态大模型的 GUI Agent,具备视觉问答、视觉定位等能力
      • Agent 还没出圈,落地先有了“阻力”:进入平台期,智力能否独立担事?
      • 钉钉卡位战:SaaS 挣不到的钱,Agent 会挣到
      • 近三代操作系统开发元老一起创业搞 AI Agent 操作系统
      • 从科幻走向现实,LLM Agent 做到哪一步了
  • Hudi
    • 1.hudi介绍和简单实践
    • 2.flink基于hudi的数据湖实践
    • 3.概说hudi
  • Iceberg
    • iceberg初步实践
  1. LLM&RAG&Agent

17.提示词通用技巧以及提示词工程框架介绍

提示词#

提示词,通俗点说就是就是给大模型下达的命令.
提示词有一下几个要素构成:
指令
给模型下达指令,或者描述要执行的任务
上下文
给模型提供额外的上下文信息,引导模型更好的响应
输入数据
用户输入的内容或数据
输出指示
指定输出的类型和格式

提示词工程#

提示词工程是关注提示词开发和优化的学科,让大模型更好的结合各种应用场景和领域,提升大模型处理各种复杂任务的能力,且能实现大模型和其他生态工具结合.
提示词工程是一门实践性很强的学科,需要针对不同的任务采用不同的技巧,不断尝试和探索,才能达到理想的效果.

提示词框架#

1.CRISPE 框架#

CR: Capacity and Role(能力与角色)
你希望 ChatGPT 扮演怎样的角色。
I: Insight(洞察力)
背景信息和上下文。
S: Statement(指令)
你希望 ChatGPT 做什么。
P: Personality(个性)
你希望 ChatGPT 以什么风格或方式回答你。
E: Experiment(实验)
要求 ChatGPT 为你提供多个答案。

2.结构化提示词#

可以参考下kimi的内置提示词,就是基于结构化提示词原则创建的.

提示词工程技术#

1.零样本提示(Zero-shot Prompting) 与 少样本提示(Few-shot Prompting) 是最基础的提示技术#

2.思维链(CoT)#

向大模型展示一个问题样例,接下来我们不是直接给出问题的答案,而是给出解答该问题的推理过程,这样大模型就会模仿你的推理步骤,并成功解决新的未知问题.
在此基础上又有了零样本思维链(Zero-Shot-CoT) 技术,零样本思维链不需要在提示词中给出解决问题的推理过程,而是直接在提示词中加上一句 让我们逐步思考(Let's think step by step.) 这样的话即可.

3.自我一致性(Self-Consistency)#

自我一致性的想法很简单,通过多次执行 CoT 得到多个推理路径,然后在多个结果中投票选择最一致的答案
自我一致性方法整体包括三个步骤:
1.构造 CoT 示例数据;
2.通过大模型生成多个不同的推理路径(reasoning path);
3.使用多数投票(majority vote)的方法选出最一致的答案

4.最少到最多提示(Least-to-Most Prompting LtM)#

第一个阶段先进行问题的拆分并分段解答问题(Reasoning Extraction),然后第二阶段再进行答案的汇总(Answer Extraction),这给了最少到最多提示很大的启发。
相比于自我一致性,LtM 明显更优雅一些,它的思路使用了分治的思想,首先将大问题拆分成小问题,然后依次解决小问题,最后解决大问题:
1.问题拆解(Problem Reducing):第一步自上而下的分解问题,引导模型把问题拆分成子问题;
2.子问题有序解答(Sequentially Solve Subquestions):第二步自下而上的依次解决问题,逐一回答子问题,并把子问题的回答作为下一个子问题回答的上下文,循序渐进地解决问题,直到给出最终答案;在这个依次回答问题的过程中,问题由少变多,这也是 Least-to-Most 一词的来源。

5.思维树 (ToT)#

ToT 允许语言模型在解决问题的中间过程进行探索,通过考虑多种不同推理路径并进行评估,同时具备向前看跟向后回溯的能力以获得更佳决策选择。一个完整的 ToT 包括下面四个过程:
1.思考分解(Thought deconposition) - 如何将推理中间过程分解成多个想法步骤
ToT 会根据问题属性去设计和分解中间的想法过程,每个想法应该足够小,使得语言模型可以生成有潜力跟多样的样本,同时又应该足够大,使得语言模型可以评估该想法解决问题的潜力;
2.想法生成器(Thought generator) - 如何根据当前状态生成候选想法
文中提供了 Sample 和 Propose 两个想法生成策略,前者利用 CoT prompt 多次采样,这种方式能保证多样性,在想法空间更宽泛时效果更佳,后者依据 "propose prompt" 依次生成想法,可以避免同一个上下文生成重复的想法,更适用于思维空间受限的场景;
3.状态评估器(State evaluator) - 如何启发性地评估状态
给定不同的当前状态,让状态评估器评估它们对于解决问题的帮助,以确定哪些状态值得继续探索,以及以何种方式探索;
4.搜索算法(Search algorithm) - 使用什么搜索算法
在 ToT 框架中,可以根据树形结构插入和使用不同的搜索算法,文中探索了两种相对简单的搜索算法:BFS 广度优先算法,每一步中保留最优潜力的 K 个状态;DFS 深度优先算法,优先探索最优潜力的状态,直到得到最终结果,或者超过当前状态被评估不可能解决问题就停止,如果是后者的话可以退回父节点,继续进行探索。
有人将 ToT 框架的主要概念概括成了一段简短的提示词,指导 LLM 在一次提示中对中间思维做出评估,下面是一些示例。
示例1:
Imagine three different experts are answering this question.
All experts will write down 1 step of their thinking,
then share it with the group.
Then all experts will go on to the next step, etc.
If any expert realises they're wrong at any point then they leave.
The question is...
示例2:
Three experts with exceptional logical thinking skills are
collaboratively answering a question using the tree of thoughts method.
Each expert will share their thought process in detail,
taking into account the previous thoughts of others and admitting any errors.
They will iteratively refine and expand upon each other's ideas, giving credit where it's due.
The process continues until a conclusive answer is found.
Organize the entire response in a markdown table format.
The task is:
修改于 2025-03-20 05:09:37
上一页
提示技巧
下一页
18.Unsloth 大模型微调工具
Built with