文章目录
- AI大模型提示词工程师
- 1 Prompt工程之原理
- 1.1 AIGC的发展和产业前景
- 1.2 大模型的类型和特点
- 1.3 大模型技术原理和发展
- 成语接龙和暴力穷举
- ChatGPT如何理解人类语言
- 如何存储数据
- 图像存储
- 电脑存数字
- 如何让电脑知道存的什么?
- 向量化
- 为什么需要向量化
- 向量可以计算
- 难点
- 调整位置
- 科学的方式
- Word2vec算法
- 信息压缩与特征提取
- 谷歌论文-自注意力机制
- TransFormer算法演进
- 通用人工智能模型
- 2 Prompt工程之原则
- 2.1 设计Prompt的3个原则
- 2.2 设计Prompt的1个万能公式
- 2.3 设计Prompt的5个技巧
- 2.4 设计Prompt高质量答案的2个窍门
- 3 Prompt工程之迭代
- 3.1 Prompt优化与迭代
- 3.2 Prompt样本提示
- 零样本提示(Zero-shot Prompting)
- 少量样本提示(Few-shot Prompting)
- 3.3 Prompt思维链提示
- 文本转化
- Zero-shot CoT 零样本思维链
- 自洽性/自一致性(Self-Consistency)
- 3.4 Prompt生成知识提示
- 生成知识提示(Generate Knowledge Prompting)
- 4 Prompt工程之应用
- 4.2 Prompt文本判断
- 4.3 Prompt文本转化
- 4.4 Prompt文本扩展
AI大模型提示词工程师
1 Prompt工程之原理
1.1 AIGC的发展和产业前景
前言
- 什么是AI?
- 人工智能(Artificial Intelligence)
- 什么是AGI?
- 通用人工智能(Artificial General Intelligence)
- 什么是AI2.0?
- ChatGPT的横空出世代表着 AI2.0 时代,也就是通用人工智能时代
- 什么是大模型?
- 是大规模语言模型(Large Language Model)的简称。语言模型是一种人工智能模型,他被训练成理解和生成人类语言。“大”是指模型的参数量非常大,比如ChatGPT、文心一言等。
AIGC时代的到来
- 出现了大量的内容生产工具,比如 ChatGPT、Midjourney、Stable Diffusion等。
- PGC专业生成内容(Professional Generated Content)
- UGC用户生成内容(User Generated Content)
- AIGC人工智能生成内容(Artificial Intelligence Generated Content)
发展趋势和应用展望
- 发展趋势:
- 应用展望:
- 内容创作和自动写作
- 娱乐和游戏
- 广告和营销
- 个性化组手和教育
- 自动化客服
- 会不会是泡沫?
- OpenAI创始人 Sam Altman:AI是少有的被严重炒作之后,还被严重低估的东西。
1.2 大模型的类型和特点
大模型的对比
上手
特点
- 知识丰富
- 道德感强,法律边界清晰
- 有记忆力,可联系上下文
- 知错就改
- 知人晓事
1.3 大模型技术原理和发展
成语接龙和暴力穷举
ChatGPT如何理解人类语言
如何存储数据
图像存储
电脑存数字
如何让电脑知道存的什么?
向量化
- 将 东西 与 数字组合,比如 [0, 180, 75, 35] 分别表示 [性别, 身高, 体重, 年龄]
为什么需要向量化
向量可以计算
难点
调整位置
科学的方式
Word2vec算法
信息压缩与特征提取
谷歌论文-自注意力机制
TransFormer算法演进
通用人工智能模型
- 在此之前,都是一些细分领域:围棋、玩游戏、图像识别、设计模型、标注数据等
- 而通用人工智能,是利用自然语言,理解整个文明成果的能力,和人类无缝交流的能力
2 Prompt工程之原则
2.1 设计Prompt的3个原则
相关性
确定焦点
- 提示词应该能够引起人们的注意力并帮助他们专注于重点。
- 避免用一些专业的术语,或者一些模糊的语言。
清晰度
2.2 设计Prompt的1个万能公式
- 内容前提:让ChatGPT知道你是谁
- 角色设定:给ChatGPT赋予一个身份,让他知道他是谁
- 明确目标:明确的目标指令,指令一定要清晰
- 补充需求:回答需要注意什么,或者回答范围和形式等
2.3 设计Prompt的5个技巧
- 优化表达式
- 用继续不断输出
- 由浅入深,提升问题质量
- 预设回答方案
- 给参考答案,让GPT更懂你
2.4 设计Prompt高质量答案的2个窍门
3 Prompt工程之迭代
3.1 Prompt优化与迭代
- 通常情况下,Prompt很难一次性到位,就需要根据大模型给出的结果,然后不断迭代Prompt
3.2 Prompt样本提示
零样本提示(Zero-shot Prompting)
- 也就是不需要微调,不需要提供任何示例样本就可以直接通过提问来让模型解决相应的任务。这是因为模型本身就通过了大量数据进行了训练。
少量样本提示(Few-shot Prompting)
- 在需求比较复杂时,可以使用 few-shot 少量样本提示,相当于在 Prompt 中给问题提供一个 Context 上下文,在上下文里给模型提供示例。
- 这个示例的作用实际是引导,引导模型找到对应的回答方式,从而生成更准确的响应。
3.3 Prompt思维链提示
文本转化
- 对于一些需要推理的复杂任务,few-shot就无能为力了。这个时候就引申出一个概念:思维链提示-CoT(Chain-of-Thought Prompting)通常涉及到推理的复杂任务,并不是一步直接得到答案,中间会有很多的计算和推理过程。
在这些数字中,1,3,5,23,69,70,10,84,923,32 有多少个奇数,多少个偶数。
Zero-shot CoT 零样本思维链
在这些数字中,1,3,5,23,69,70,10,84,923,32 有多少个奇数,多少个偶数。请一步一步思考
自洽性/自一致性(Self-Consistency)
- 让ChatGPT 产生多个思维链,也就是多个推理路径,最终选择一个一致性最高的答案。
为一个问题,提供3个解决方案,最终结合3个解决方案给出与问题一致性最高的答案从北京如何到大理?
3.4 Prompt生成知识提示
生成知识提示(Generate Knowledge Prompting)
- 还有很小情况下,我们无论怎么让模型思考,都无法解决我们的问题。因为模型本身可能缺少解决问题的背景知识,或者模型想到不到要用什么背景知识。
- 前者:只能是我们主动通过上下文 Context 的方式把背景知识直接添加到 Prompt 中,再让模型去回答。
- 后者:可以先给模型一些示例,让模型自己去生成对应问题的背景知识,这个技巧就是【生成知识提示】。这样有了背景知识后,再把生成后的背景知识添加到 Context 中向模型提问,这样模型因为有了背景知识自然就能准确回答我们的问题。
4 Prompt工程之应用
4.1 Prompt文本总结
4.2 Prompt文本判断
- 输入文本,执行模种分析任务,可能是:提取标签、提取名称、理解文本情感
4.3 Prompt文本转化
- 擅长将输出转化为不同格式,比如从一种语言翻译成另一种语言,帮助拼写、语法纠正和编写正则表达式。
4.4 Prompt文本扩展
- 将短文本,例如一组说明或主题列表,输入到大语言模型中,让模型生成更长的文本,例如基于某个主题的电子邮件或论文。