目录
介绍
在当今数字技术时代,通过提示技术充分利用人工智能的力量变得越来越重要。然而,许多信息来源正在传播一些缺乏依据或解释不明确的通用建议,容易导致误解和无效的应用。这造成了时间和精力的浪费,同时也降低了真正利用AI潜力的能力。
凭借在软件技术领域超过十年的经验,以及从OpenAI、Google、Anthropic等权威来源的研究和总结,我希望与读者分享基础知识和实用方法,以优化提示设计。我的目标是帮助您正确、高效地接触AI技术,并在工作和个人发展项目中带来最大价值。
非官方信息来源容易让您相信一些小技巧,但实际上并不有效。或者更糟的是,让您对AI的运作方式产生误解。大多数情况下,应用零样本提示并主要依赖模型的能力。那么,什么是零样本提示?
零样本提示
零样本提示是一种与大型语言模型(LLM)交互的技术,无需提供任何示例。它依赖于LLM的泛化知识能力。
基本上,LLM的工作原理是基于上下文预测下一个词,因此当它们收到一个明确的提示时,它们可以应用已学知识生成合适的响应。
我不认为零样本提示技术是错误的。实际上,当我们能够通过简单的请求与AI合作,几乎不需要了解实现方式时,这将非常棒。然而,目前AI尚未达到这种水平。
优点
1. 简单: 零样本提示不需要额外数据,使其在相关数据难以找到或稀缺的情况下具有价值。
2. 灵活: 提示在需要时易于调整。改进或更新提示需要较少的努力。
3. 多样: 零样本提示在挖掘LLM在多个领域的知识方面表现出色。
限制
1. 高度依赖模型能力: 模型可能无法理解提示或在该领域没有知识。
以Llama 3.1为例:
提示:请用越南语写一个大约200字的笑话。
结果是无限重复的标记或随机字符序列。
然后,将这份文档放入上下文中。
提示:什么是零样本提示?
结果:零样本提示是一种设计人工智能(AI)模型,特别是大型语言模型(LLM)提示的技术,其中模型被要求执行一项任务,而没有任何关于如何执行该任务的具体示例。Lyon和Garman(2000)将零样本学习定义为一种方法,模型可以将从其他任务中学到的知识应用到新任务中,而无需重新训练...
所以,并不是Llama 3.1不懂中文。在文档中,我没有准确写出Llama的回答。那是因为我提供了我期望的答案的完整文档。
2. 依赖于提示的质量:零样本提示的效果很大程度上取决于提示是否写得清晰和具体。
在上面的例子中,我无法在谷歌上找到关于Lyon和Garman的信息。所以我必须明确地要求我想要的。
提示:什么是零样本提示?请用提供的信息用中文简短回答。
结果:零样本提示是一种要求AI执行任务而不提供具体示例的技术。AI将基于训练过程中的现有知识来提供响应,不需要用户的参考数据或具体指导。例如:“写一首关于春天的诗”而不提供任何示例。
3. 复杂任务的困难:对于需要复杂推理或特殊格式的任务,零样本可能不如其他方法(如少样本)有效。
提示:请将以下字母组合成一个完整的中文单词:o / ã / h / h / n / à
结果:从字母组合成的完整中文单词:hoành
4. 结果不一致:没有示例指导,模型可能会对同一个提示产生不同的结果,取决于表达方式。
仍然是上面的例子,每次我执行,结果都会不同。
1. 从字母组合成的完整中文单词:hoàn hả.
2. 你提供的字母是:o / ã / h / h / n / à
一个完整的中文单词可能是:“hành hạ”;
3. 你提供的字母是:o / ã / h / h / n / à。组合成一个完整的中文单词,一个可能的正确单词是:“hào hãn”
零样本提示可以有效执行的一些应用
1. 文本分类:
将以下段落分类为以下类别之一:政治、经济、体育、娱乐:[段落]
2. 文本摘要:
用三个要点总结以下文章:[文章内容]
3. 情感分析:
分析以下客户评论的情感,并指出是积极、消极还是中性:[客户评论]
4. 数据格式转换:
将以下文本转换为包含字段:姓名、年龄、职业和兴趣的JSON表格:[描述文本]
零样本提示对于简单任务非常有用。我等待了很久才能用几个简单的提示执行更复杂的任务。但为了今天就能利用AI,我们需要有策略。
确定标准
在开始设计提示之前,最重要的是要明确你的目标和成功标准。否则,你将根据主观感受评估结果,而没有进行测量。与其让LLM自己寻找方向,不如明确你想要什么以及如何知道已经达到了目标。
好的标准是:
具体 (Specific): 必须明确、准确地描述你的目标。
例如:
写一篇500字的博客文章,关于咖啡对健康的影响,面向非专业读者。包括至少3个参考文献。
可测量 (Measurable): 必须有明确的指标或衡量标准。
如在上面的例子中,成功的标准是文章必须长500字,并且有至少3个参考文献。
可实现 (Achievable): 目标应基于经验、行业基准或先前的研究。不应设定过高的目标,超出模型当前的能力。
相关 (Relevant): 根据你的目的和需求调整标准。高准确性对于医疗应用可能非常重要,但对于普通聊天机器人则不那么重要。
清晰提示的黄金法则
将提示解释给一个不太了解任务的同事,然后要求他们按照指示操作。如果他们感到困惑,AI很可能也会如此。
编写有效提示时需要考虑的四个要素
为了充分发挥人工智能(AI)的潜力,有四个核心要素需要特别关注。这些要素将使您的指令更加清晰、准确,并符合预期目标。当您理解并运用得当,您将能够轻松创建高质量的提示,减少AI的误解,从而提高工作效率。
1. 角色(Persona)
分配角色是您在指令中明确AI的角色。通过为AI设定一个具体的“角色”或身份,您可以帮助它正确理解范围、风格和需要达到的目标。例如:
• "您是一位专门处理商业合同的律师。"
• "您是一位银行业领域的数据分析专家。"
• "您是一位创意营销专家。"
2. 任务(Task)
一个明确的任务提示有助于AI不偏离方向,更容易专注于期望的结果。与其泛泛而谈,您需要像前面分析的那样,明确且具体地描述任务。
3. 上下文(Context)
上下文是提供与任务相关的具体信息、数据和情境的部分。这一要素帮助AI更好地理解内容、背景和相关数据,从而生成更合适和准确的回答。
4. 格式(Format)
格式是您期望的展示形式或回答风格。根据您的目的和最终需要的结果,明确格式有助于使结果更加清晰、易于使用。
角色 - 角色
为AI分配角色是设计有效提示的重要技术。当你将AI置于特定角色时,它会根据该角色的风格和目标来行为和回答。
为什么需要为AI分配角色?
为AI分配角色带来许多重要好处:
1. 提高准确性: AI将专注于分配角色的专业范围,减少错误
2. 调整语气: 回答风格将符合角色(简洁、正式、易懂)。
3. 专注于任务: AI清楚工作范围,不会被无关信息分散注意力。
为AI分配合适的角色是充分发挥其潜力的关键。只要分配正确的角色,你就可以将AI变成特定领域的专家,帮助生成准确、符合你要求的分析和回答。这是节省时间、提高工作质量并在与AI合作过程中保持良好控制的有效方法。
在我看来,为AI添加个性和用户之间的关系不仅使会话更加生动,还能在对话中创造亲近感和自然感。当AI清楚它正在扮演一个具体角色,具有个性和与用户的具体关系时,它会更容易表达明确的观点或立场,同时更符合你期望的沟通风格。在中文中,称呼和表达态度的方式有很多不同的色彩和风格,不仅仅是像英语中的“你”或“我”。例如,当你想构建一个亲密、亲近的对话时,你可以选择用“你”而不是“您”,并自称“我”而不是“本人”。
例如:
你是一个挑剔的投资者。你和我同龄,所以请用亲密的称呼,自称“我”并称呼我为“你”。
上下文 - 背景
背景帮助AI更好地理解任务的情境、目标和范围。一个好的背景能让AI理解“为什么”和“如何”,从而提供最合适和有效的解决方案。
例如:当你接到一个中奖通知的电话。 通常你会对这样的好消息感到非常兴奋。 但如果最近关于中奖诈骗的信息越来越多,你会感到怀疑,并不愿意接听这个电话。
为什么背景重要?
提供完整的背景有很多好处:
1. 提高准确性: AI在理解问题背景后可以给出更合适的回答
2. 减少误解: 清晰的背景帮助AI避免错误的推断
3. 优化结果: AI可以专注于最重要和相关的信息
如何优化
1. 结构清晰: 按逻辑顺序排列信息,使用合适的标题和格式
例如使用markdown标记索引
以下是最近的文章:
## 文章1
**文章1标题(加粗)**
文章1内容
## 文章2
**文章2标题(加粗)**
文章2内容
## 文章3
**文章3标题(加粗)**
文章3内容
2. 筛选信息: 只包含必要的信息,避免混淆背景
3. 使用合适的格式: Markdown、XML或分隔符来区分信息部分
例如使用XML标记长文本
<document>
{{长文章内容}}
</document>
有一场关于背景大小的竞赛你可能没有注意到。目前的LLM模型都倾向于大幅增加背景大小。主要目的是为了容纳更大的背景。 实际上,为了让AI真正成为某个领域的专家,用户倾向于提供尽可能多的文档。
大背景及其有效使用
在许多复杂任务中,提供足够长且清晰的背景是AI正确理解你需求的关键。LLM模型在处理长数据序列方面的能力越来越强,有助于在整个对话或任务中保持相关信息。
1. 保留更多信息: 在需要分析大量数据、复杂问题或大文档的任务中,长背景帮助模型不遗漏重要细节。
2. 更高的准确性: 当有足够的数据时,AI更容易综合、推理正确,避免误解或遗漏关键部分。
3. 更多样化的任务: 从写长内容、分析数据到解决问题、长期对话,都需要大背景。
AI在处理大背景时常常会忘记。就像我们记忆一样,开头和结尾才是最重要的部分。所以对于大背景,请将其放在中间部分。同时在提示的末尾重复要求。
格式 - 格式化
请根据你的目的格式化LLM的回答方式。一个好的格式会使结果清晰、易于使用,并节省后续编辑时间。
常见格式
以下是一些简单且常见的方式,要求AI以期望的格式返回结果:
1. JSON格式
当你需要结构清晰、易于编程或分析的数据时使用。
例如:
列出人口超过1亿的国家,以JSON格式返回,字段包括:
- name: 国家名称,
- population: 人口,
- largest_city: 最大城市。
结果:
{
"name": "中国",
"population": 1398000000,
"largest_city": "上海"
}
2. 多项选择回答
当你想要多个结果进行比较并找到最佳结果时使用。
例如:
请给我10个关于咖啡的文章标题,以吸引年轻读者
3. 文本或要点列表
这是最基本的形式,但应明确说明如何呈现,以便AI理解你的要求。
例如:
以不超过500字的段落回答,分为3个小部分
使用合适格式的好处
1. 提高一致性: 结果以统一的结构返回,易于处理和分析
2. 节省时间: 减少编辑和重新格式化结果的时间
3. 易于集成: 结构清晰的结果易于与其他系统和工具集成
到这里,我们已经有了一个有效提示的结构。为了方便跟踪,我将总结如下: [角色] 你是一个...的专家 (分配具体角色。可以添加称谓、性格) [任务] 创建关于...的文章 (明确目标) [背景] 以下是相关信息... (添加信息,按结构标记文本) [格式] 以...回答 (结果格式)
思维链 - 逐步思考技术
对于复杂任务如研究、分析或解决问题,你必须给LLM空间去思考,从而显著提高其性能。这种技术,称为思维链(CoT),鼓励LLM将问题分解为逐步的步骤。
最简单的方法:在提示中添加“请逐步思考”这句话
这种方法缺乏具体的思考指导。它在许多情况下并不理想。
指导思考步骤
概述LLM在思考过程中应执行的步骤。
示例:
在回复邮件之前,请逐步思考:
1. 首先,思考可能吸引贡献者的消息,基于他们的贡献历史和他们过去支持的活动。
2. 然后,思考Care for Kids计划的哪些方面会吸引他们,基于他们的历史。
3. 最后,使用你的分析为贡献者撰写一封专门的邮件。
将思考与回答分开
这将帮助我们更容易调试和改进结果。然而,对于能够推理的模型来说,这是不必要的。
示例:
以JSON格式回答,包括以下字段:
1. thought: 你的思考
2. answer: 你的回答
思维链的重要性
这种技术是官方提示文档中最常提到的技术之一。它已成为提高当前LLM模型准确性和解决复杂问题能力的标准。
研究表明,使用思维链帮助模型处理需要多步推理的问题,显著提高了准确率,减少了错误,并提供了更逻辑、更一致的反馈。这不再是一种新技术,而是成为专业开发人员和提示工程师的指南。
谷歌的研究表明,大型语言模型(LLM)通常对否定性指令如“不要做这个”或“不要做那个”反应不佳。因此,与其使用否定性指令,你应该具体、明确地指导AI如何实现期望的结果。例如,与其说“不需要写得太长”,不如说“请在三个主要句子中简洁地写。”这种方法帮助AI更清楚地理解方向,减少误解并提供更准确的反馈。
少样本提示
少样本提示是一种与大型语言模型(LLM)交互的技术,通过在提示中提供一些明确的示例,然后要求模型执行主要任务。与仅给出单一指令(如零样本)不同,少样本提示通过让模型提前看到一些具体示例,帮助其更好地理解如何处理和格式化期望的结果。
在这种方法中,您将在提示中附上示例,明确描述输入和期望的输出。当模型看到这些示例时,其预测准确性将显著提高,特别是在需要复杂推理、格式化处理或特定要求的任务中。
优点
1. 提高准确性:示例帮助模型更好地理解所需的表达、格式或内容,减少错误或不相关的响应。
2. 灵活且高度可定制:可以轻松添加或修改示例以适应不同的目的。
3. 不需要大量数据:只需少量示例,无需像微调那样重新训练模型。
限制
需要设计清晰的示例:示例需要足够清晰、相关和准确,以避免误解。
少样本提示示例
以下是一些将段落分类为政治、经济、体育、娱乐的示例:
示例1: "全国各地的国会选举正在进行中。" > 政治
示例2: "本季度股市大幅增长。" > 经济
示例3: "世界杯决赛刚刚结束。" > 体育
现在,请对以下段落进行分类: "[段落]"
因此,综合所有最强大的技术,我们得到以下最终结构模板: [角色] 您是一位...专家 (分配具体角色。可以添加头衔、性格) [任务] 撰写关于...的文章 (明确目标) [上下文] 以下是相关信息... (添加信息,按结构标记文本) [示例] (示例说明) [指南] (思考步骤指南) [任务] (在长上下文中重复任务) [格式] 以...回答 (结果格式)
系统提示
系统提示是一个在LLM模型一开始就设置的指令或指南,用于塑造其在整个对话或任务中的响应方式。它充当“背景框架”或“通用规则”,帮助AI理解其在会话中的风格、范围和操作目的。
系统提示的作用
1. 引导AI行为: 帮助AI理解与您目的相符的范围、语气和响应风格。
2. 保持一致性: 在长时间对话或多次互动中,系统提示帮助AI保持一致的响应风格,避免偏离或失去目标。
3. 控制内容和约束: 可以为AI的回答设定规则、限制或最低标准,例如避免处理敏感或不适当的内容。
4. 优化AI使用效率: 当您正确设置系统提示时,AI的响应将更加准确和合适,相比不使用或使用不当的情况。
目前的常见错误
AI应用通常隐藏这一部分以简化用户体验。这使得用户通常需要将所有提示放入普通消息中。系统提示与普通提示在对话中的作用和力量是完全不同的。 您精心构建的提示如果放在普通消息中,会随着每次响应而减弱,也不会像系统提示那样被重视。 对于ChatGPT,您可以在Custom GPT或OpenAI Platform中找到。 对于Anthropic,您可以在Anthropic Console中找到。
FeelAI Bot Builder为您提供平台
轻松更改设置
多样化的模型,许多免费模型
体验多种预制工具
与其他平台集成
与朋友、同事分享机器人
理论模型
能够思考的LLM是一种特殊的人工智能,擅长通过使用逻辑推理和结构化思维来解决复杂问题,超越了单纯的模型。它们能够分析问题,探索不同的方法,并验证解决方案,通常涉及“思维链”过程,在此过程中它们会“思考”问题的每一步,然后给出答案。
主要特点
1. 逻辑推理: 这些模型不仅依赖于数据模式的预测,还使用推理和逻辑来得出更准确的答案。
2. 结构化思维: 通常应用“思维链”方法,将问题分解为更小的步骤,并解释其思维过程。
3. 问题分析: 能够将复杂问题分解为多个更小、更易管理的部分。
4. 解决方案验证: 灵活尝试不同的方法,以找到最优的解决方案并验证其正确性。
5. 回溯: 当某个方向导致死胡同时,这些模型可以回溯并尝试其他方法以达到结果。
6. 提高问题解决能力: 特别适合需要逻辑推理、数学计算或编程的任务。
特别适合需要逻辑推理、数学计算或编程的任务。
理解和应用AI中的理论模型使我们能够更系统和有效地解决复杂问题,特别是在需要逻辑思维和深入分析的领域。
体验FeelAI Bot Builder
FeelAI Bot Builder提供了多种理论模型供您体验。改变对话以查看差异。
结论
我衷心感谢您花时间阅读本文档的内容。希望我的分享能帮助您更好地掌握与AI高效工作的方法。
最后,我想分享我对当前LLM模型的感受。尽管我进行了很多测试,但这仍然只是主观评价。我希望这能帮助您快速找到适合您需求的模型。
Claude
Claude是最强大的创作和内容生成模型,具有最好的上下文理解能力。虽然价格比其他模型高很多,但它完全物有所值。我尝试了许多其他模型执行相同任务,并意识到了这一点。
Gemini
价格低廉、基础设施良好且速度快,Gemini是高速任务的最佳模型。虽然它经常忽略上下文中的许多部分,但始终确保数据类型,非常适合系统构建。
Grok
Grok是当前模型中最聪明和最有情感的模型。在内容生成和新想法讨论方面非常出色。
Deepseek
在自然语言处理方面,它不如Claude,但比Gemini好得多。然而,一个很大的缺点是基础设施不稳定导致速度慢。可以替代Claude以节省成本。
Qwen
Qwen在自然语言处理方面相当强大,虽然不如Claude,但比Deepseek更稳定。Qwen的速度相当快,价格也便宜,我经常用它来替代Gemini执行系统任务。
重要的是要记住,没有适用于所有情况的通用公式。设计提示词不需要对AI模型有深刻的理解,更重要的是使用上下文和每个情况的具体目标。我们需要不断测试、评估和调整,以达到最佳结果。
我希望您理解,提示词不仅是一种技术技能,更是一种艺术。它需要创造力、耐心和批判性思维能力。不要害怕尝试新想法并与社区分享您的经验。
最后,始终保持学习和更新的精神。AI领域正在以惊人的速度发展,新技术将不断出现。掌握基本原则将帮助您轻松适应并应用未来的新进展。
请直接联系我,我将非常乐意为您的具体任务提供支持。