CL 列表

准确的电话号码和 WhatsApp 号码提供商。 如果您想要电子邮件营销活动列表或短信营销活动,那么您可以联系我们的团队。

电报: @xhie1

Whatsapp: +639858085805

ChatGPT 高级指南:提示工程和输出设计

围绕人工智能和 Web3.0 新领域的话题存在着激烈的争论。这在很大程度上要归功于Chat GPT 的惊人崛起,这是 OpenAI 创建的生成式人工智能模型,在推出后不到两个月的时间里, 用户数量就达到了 1 亿,成为有史以来增长最快的消费者应用程序。

我们将其成功的秘诀总结为三个关键点:

卓越的易用性(非常简单的用户体验);
产生卓越 的质量结果(“英雄”内容);
免费(Chat-GPT 可以免费使用)。
ResumeBuilder门户网站通过采访 1,187 名美国商界领袖发现,ChatGPT 的颠覆现在势不可挡,这并非巧合:91% 的美国首席执行官正在寻找具有 ChatGPT 经验的员工,其中 30% 表示他们迫切需要找到ChatGPT 的专家。

我们在这篇文章中专门写了一篇关于 ChatGPT 的介绍,但我们有志于将自己展示为使用 ChatGPT 所有潜力的高级指南,以及引入LLM、机器学习等复杂概念。 、提示、提示工程和设计等等。

我们为您留下了主题索引,以帮助您浏览将要涵盖的许多主题:

Chat GPT简介及LLM定义

向机器发出指令:“提示”

了解 Chat GPT 的弱点以编写有效的提示

GPT 和 LLM 在处理非结构化信息方面的力量

绕过ChatG中的输入和输出字符限制

先进的提示技巧

6.1 理解零样本提示的概念
6.2 角色提示
6.3 问答格式
6.4 启动效应
6.5 少样本提示
6.6 思维链(CoT)提示
6.7 零样本思维链
6.8 自洽
6.9 生成知识
6.10 思维树提示

 单击下面,了解如何使用数字词典解决数字化转型!

数字传播策略

 

1. Chat GPT简介及LLM定义
Chat GPT 是一种基于人工神经网络的人工智能模型,经过大量文本数据训练,因此它可以识别语言模式和结构。提示利用这种识别能力为AI系统提供一系列关键词和短语,从中它可以生成错误风险较低、输出质量较高的响应。我们在专门的文章(此处)中编写了有关使用 ChatGPT 的更深入的介绍。

人们在谈论 GPT Chat 时犯的主要错误是将其与搜索引擎混淆。 ChatGPT – 及其父 GPT – 是一种LLM(大型语言模型),一种高级语言模型,使用深度学习技术生成连贯且可信的文本。
聊天 GPT 可用于创建内容、完成句子、回答问题、翻译文本和其他高级自然语言处理功能,而不是在其先验知识范围内搜索信息。

搜索引擎用于根据您输入的关键字在线查找信息,而法学硕士主要用于使用自然语言生成内容和回答问题。
因此,使用 Chat GPT 作为搜索信息的引擎是不合适的 – 那么您仍然可以这样做,但结果不会具有相同的质量。它必须被理解为一个非常强大的机器(或者更确切地说是一个“生成人工智能模型”),能够非常可靠地处理大量信息。

ChatGPT 是“Chatbot-GPT”的缩写,因此具有类似于消息传递应用程序的界面:页面的主要元素将专用于与模型对话的空间,而左侧将有侧边栏包含从模型开始的最新对话。正如我们稍后将讨论的,事实上,该模型保留了对话的一小部分记忆,这也能够影响未来的反应。

GPT 背后的复杂性相当大,因此人工智能永远不能留给自己期望足够输出的设备:阅读、审查和集成模型的输出与能够编写有效的提示(输入)一样重要。

我们在一篇专门讨论影响人工智能的幻觉现象的文章中谈到了(我们在一篇专门的文章中讨论过它) ——简而言之,它们可以生成被不正确信息破坏且没有真实数据支持的响应——但对于法学硕士来说,最重要的“威胁”直接来自消费者/用户以及他通常无法与模型进行通信,这意味着编写的提示不充分,没有“上下文”和/或能够误导机器。

本指南的目的正是为了理解好的提示和适度的提示之间的区别,帮助编写正确的提示,并能够生成可靠、连贯和高质量的输出。

2.向机器发出指令:“提示”

“提示”定义了构建足够输入的艺术,该输入能够向模型提供有效指令,使其能够对请求生成连贯且高质量的响应。

提示符的作用是多重的:

提供重要信息;
定义“上下文”(即模型必须运行和处理信息的范围);
提供有关要生成的输出的说明;
提供示例或澄清您期望(或不期望)得到的答案。
基本上,长提示与更高质量和更长的生成输出之间的相关性是已知的。然而,提示不一定要很长,而是应将模型的误差幅度降至最低。

上下文概念的引入是至关重要的,它代表了围绕特定请求以及必然围绕输出的所有元素和信息。诸如目标受众、预期的沟通渠道、语气、地域细节、限制、障碍、模型要遵守的要求等元素,以及能够描述场景的任何其他信息都是上下文的一部分。提示插入。

就长度而言,截至 2023 年 6 月,ChatGPT 输出生成的技术限制为 500 个单词或 4,000 个字符,单个提示中最多大约 15,000 个字符。

我们说,指令可以短也可以长,具体取决于请求的复杂程度。下面我们提供一些 Chat GPT 上的提示示例:

 

提示生成产品描述:

“描述一款具有可互换镜头、4K 视频录制功能和高级图像稳定功能的单反相机。”

提示生成童谣般的影评:
“为弗朗西斯·福特·科波拉 (Francis Ford Coppola) 的电影《教父》写一篇评论。

突出情节和演员阵容的优势。
分析主要主角的角色。
使用 -ati 作为童谣,将输出构建为童谣。”

提示生成电子邮件的回复消息:
“写产品

有关回复邮件,请求

一封完成后询问是否需要更多帮助。”

提示生成促销文字:
“为新产品的发布撰写促销文字。提供有关其优点、质量以及解决消费者问题的能力的信息。”

提示生成ChatGPT描述:
“生成至少 500 个单词的文本,说明 Chat GPT 人工智能系统的功能及其在自然语言分析和文本处理领域的可能应用。该文本必须以清晰易懂的方式编写,也适用于非该领域的专家,并且必须包括“神经网络”概念的详细定义以及“训练”机器的过程此外,文本必须提供如何使用 Chat GPT 回答特定问题、生成的具体示例。产品描述、撰写电影和书评,甚至创建宣传文字和广告。最后,文字还必须包括对 Chat GPT 人工智能系统的潜力和局限性以及道德和伦理问题的批判性评估。使用类似技术。”

如果我们需要为机器的响应提供一种风格,我们可以要求 Chat GPT 这样做(“想象一下必须回复律师…… ”,“使用口语风格…… ”,“考虑到它将是写在一个4岁女孩的生日信中…… ”)。 曾经尝试过让 Chat GPT 用说唱的节奏解释一个概念吗?结果可能很搞笑……

如果我们正在寻找更具可读性的输出,我们可以提出相同的问题,但要求提供项目符号列表或表格作为答案的结果。

该工具的可塑性是独特且全面的,由我们(作为提示设计者的角色)找到正确的提示,以便编写能够满足我们需求的输入。

 

3.了解Chat GPT的弱点以编写有效的提示

让我们立即消除一个神话:聊天 GPT 和生成人工智能在返回输出方面并不完美。

因此,了解生成式人工智能技术的弱点对于编写有效的提示至关重要。最有效的提示技术正是基于规避人工智能模型的限制来尝试满足工具的要求,为其提供有用的信息以优化输出,这并非巧合。

聊天 GPT 的主要弱点包括:

有限的上下文理解:ChatGPT 非常擅长根据输入的上下文生成文本,但由于其统计模型的性质,它可能难以完全理解对话的上下文。这可能会导致不准确或不正确的答案。

缺乏特定知识:ChatGPT 无法访问训练语料库中不存在的特定知识。这意味着它可能无法就非常专业或利基的主题提供准确的答案。

不一致的响应:在某些情况下,

ChatGPT 可能会生成不一致或矛盾的响应。这可能是因为模型无法理解对话的逻辑或保持响应之间的一致性。

数据偏差:用于创建 ChatGPT 的训练数据可能包含文化或性别偏差,这可能会影响模型生成的响应。

缺乏创造力:ChatGPT 无法自行创造原创想法或创新。其主要目的是根据从训练语料库中学到的内容生成文本。

特别是在数学逻辑术语中,Chat GPT 和其他生成式人工智能经常冒着犯错误的风险。即使是简单的提示(对于计算器),例如

 

512*45是多少?

他们可能会产生错误的答案,正是因为,作为从事统计逻辑工作的法学硕士,计算计算与模型自然输出的性质(实际上是统计的)发生冲突。对于我们人类来说,这是一个非常简单的问题,但对于模型来说——简单地说——从提供“统计输出”到“刚性/算术输出”并不是立即的。

下图展示了生成式 AI 模型的思考方式:

 

Chatgpt推理方案:给出的答案是统计数据

 

作为提示作者,我们的作用是让工作变得更轻松并避免人工智能错误。现在让我们看看一些技巧。

4. GPT和LLM在处理非结构化信息方面的力量

如果经过适当的训练,生成式人工智能非常适合进行数据分析,但它们如何处理非结构化数据(因此非表格、非数字、混乱……)?

答案非常好。
例如,如果我们想向一个我们不认识的人发送一封电子邮件,试图给人留下好印象,而我们唯一可用的信息就是从他们的 Linkedin 个人资料中收集到的信息,那么像 ChatGPT 这样的模型可能非常适合开始撰写电子邮件初稿。

因此,让我们首先将可用的信息复制并粘贴到提示中,残酷地报告此人的所有信息并向模型提出请求。

这是一个例子:

 

传记
[有关一个人的传记的信息]

教育
[等等。等]项目[等。等]写一封冷酷的电子邮件来提高此人的认识,并向他们提供我们的产品“Tubspot”,一种新的革命性 CRM(具有这些特征)。我的名字是 Max。请使电子邮件正式,但不要太正式。在上面提到他的简历中的相关细节,以帮助介绍该产品。

 

这是模型创建的输出:

 

您好,NAME,

我叫 Max,我之所以与您联系是因为我认为我们的产品 Tubspot 可能非常适合您。作为“Company1”的联合创始人和“Startup2”的创始人资源总监,我相信您了解拥有可靠的 CRM 来帮助管理客户关系的重要性。

Tubspot 是一种新 CRM,可帮助像您这样的创始人和企业家轻松管理客户关系并跟踪客户数据。我们的产品设计易于使用且直观,因此您可以专注于发展您的业务,而不必担心技术细节。

我认为您会发现 Tubspot 对您的业务来说是一笔巨大的资产。如果您有兴趣,我很乐意拨打电话进一步讨论。

感谢您的关注。
你好,
马西莫

法学硕士是信息的组织者和处理者,能够提供仅呈现讨论的基本要点的输出,并根据所需的细节和特征进行阐述。

这种潜力的应用是无数的。然而,与所有人工智能应用程序一样,重要的是永远不要将所有工作完全交给人工智能:输出必须由人类审查、修改和改进,才能 100% 可靠。

可以想象,在许多企业环境中, Chat GPT 代表了生产力和内部流程改进的真正福音。

在某些情况下,可以要求 ChatGPT 总结著名作品而不提供或提供附加信息,因为它们包含在其核心内存中。显然,这个概念不适用于利基文本 – 并且仍然值得首先测试 GPT 是否在数据库中具有有关该主题的信息……

以《罗密欧与朱丽叶》为例,你可以问ChatGPT:

 

创建罗密欧与朱丽叶的逐幕摘要

或者,如果您需要总结的文本不存在于其数据库中(它是您执行的搜索、收到的电子邮件或消息……),您可以输入:

 

创建一个摘要(具有这些特征)(复制粘贴要摘要的文本)

 

5、绕过ChatGPT中的输入输出字符限制

尽管 ChatGPT 和生成式 AI 可以提供很长的输出,但有时会导致模型突然停止响应,实际上是无缘无故地截断输出。

这是施加的响应字符限制。

对于ChatGPT,此限制设置为大约 4096 个输出字符,但有各种简单的方法可以克服此“工厂”限制:

要求 ChatGPT “继续”:将收到的输出复制并粘贴到消息输入字段中,并在底部添加“继续”。聊天机器人将从中断处继续;
要求将所要求的文本“分解”成更小的部分,例如首先是文本的介绍或标题,然后是各个概念和段落;
要求“展开”生成的文本。与第一点一样,复制粘贴并在最后写入“expand”以获得更大的输出;
作为前一种方法的推论,您可以要求 ChatGPT 编写处理该主题时要解决的要点列表,然后要求它单独扩展每个要点。

更新:

几周前,如果提供日志输出,ChatGPT引入了“继续生成”功能。因此,只需单击按钮即可让模型继续生成输出。

它无疑代表了一项有趣的创新,可以进一步提高生成输出的质量,因为这样就绕过了输出字符限制。

 

6.高级提示技巧

此时您可以提高标准。现在让我们看一些稍微复杂的技术,用于利用提示工程来生成能够为各种 LLM 模型提供日益功能化的上下文的提示。

以下是我们将要研究的技术:

了解零样本提示的概念
角色提示
问答形式
启动效应
少发提示
思想链(CoT)提示
零射击思想链
自我一致性
知识生成
思维树提示

6.1.了解零样本提示的概念
零样本思维链(Zero-shot-CoT)是指生成仅基于模型的“标准”知识做出响应的提示,而不进行细化。

实际上,这些是绝大多数用户生成的提示,也是最脆弱和最不精确的。

示例如下:

 

将以下文本的情绪评价为中性、负面或正面。
文字:“我认为这是一次不错的旅行”

情绪:

> 中性

即使没有为模型提供任何示例或参考,法学硕士也能够理解情绪的概念并提供连贯的“零样本”响应(可以翻译为“没有建议”)。

我们谈论这一点是因为这通常是一种不好的做法,而即时工程和即时设计寻求提升什么

事实证明,用说明、详细信息和上下文来丰富提示可以改善模型生成的输出。当这种“零样本”方法不起作用时(剧透:经常会起作用),建议提供演示或示例。

然后我们介绍少样本提示和思维链(CoT)技术。

 

6.2.角色提示
一种既有效又简单的技术是将角色分配给 ChatGPT。角色提示提供了重要的上下文信息,并为人工智能解释输入铺平了道路。

一个例子是用“你是医生吗”或“你是律师吗”开始你的请求,要求人工智能回答一些医疗或法律问题。它是命令“ act as ”的英文翻译。

 

你是一位出色的数学家,可以解决世界上任何问题。
解决以下问题:

什么是100*100/400*56?

> 答案是1400。

6.3.问答形式
问答格式源自英语问答,是第二种非常系统的方法,当你向人工智能询问一个特别具体的问题时可以使用它。它的构造方法很简单,就是在问题的开头插入一个标记,既适合提问者,也适合需要回答的机器,如下例所示:

 

问:法国的首都是哪里?

你:

让我们重复一下这个概念:对于我们人类来说,“法国的首都是什么?”是很清楚的。这是一个问题,需要一个特定的城市作为答案,但对于法学硕士来说,这并不是一件小事。正是得益于机器学习和时间,Chat GPT 才能够通过理解提示背后的搜索意图和提供的响应(“巴黎”)来不断完善其技能。

使用这种提示写作格式不会给模型留下任何疑问,模型明白我们期望的是该特定问题的答案。

但有时这还不够。理论上,更好的提示如下:

 

问:意大利的首都是哪里?
U:罗马
问:英格兰的首都是哪里?
大学:伦敦
问:法国的首都是哪里?
你:

我们还将在接下来的段落中看到它,但我们在这里尝试做的是提供我们期望模型响应的具体示例。用技术术语来说,我们已经为我们的提示提供了上下文。

因此,该模型发现自己必须从示例开始解释我们的问题。作为基于机器学习的人工智能,这是天赐之物:解释错误显着减少。在这种情况下,答案“巴黎”几乎总是显而易见的。

 

6.4.启动效应
由于ChatGPT具有记忆性,因此可以通 Brother Mobile List 还为您提供 Telegram 数据、WhatsApp 号码数据、传真数据库。100% 保证的数 Brother 手机列表 据库提供商公司。所有数据都是最新、干净且最近更新的。如果您想进行任何过滤,我们可以做到。 过所谓的“启动效应”来利用这一因素,可以翻译为“启动效应”。

澄清一下:如果我们通过讨论“酒”的话题开始对话,然后向 ChatGPT 询问“可以在空闲时间完成的活动”的信息,则从统计上看,模型生成的输出更有可能包含一个项目“去某个酒厂品尝朗姆酒。”

我们可以通过之前的对话来影响输出。

利用此功能作为优势,可以将与 ChatGPT 的聊天用作信息存储库,机器可以从中获取灵感来优化后续输出。

让我们通过高级应用来更好地探索这个概念。

让我们举个例子,我们想向通用 ChatGPT 询问哲学观点。如果我们问“你最喜欢的哲学研究领域是什么? ”答案可能是非常随机的,而我们需要的答案类似于专家教授与不那么新手的学生交谈。

因此,我们利用启动效应在请求输出之前为机器 赋予权重和定义。

提供定义仅仅意味着编写如下内容:

 

当我写“专家”时,我的意思是使用一位杰出教授的风格,他拥有超过 10 年的学科教学经验,并在该研究领域获得了多个博士学位。因此,您将在答案中使用学术和专业语法以及复杂的示例,重点关注鲜为人知的技巧,以更好地说明您的观点。你的语言应该复杂但不要过于复杂[等等。 ETC]

或者

 

当我写“学生”时,它的意思是具有该学科入门知识的二年级大学生。仅使用现实生活中的例子来解释概念。从第一人称的角度进行非正式的交谈,使用幽默和非正式的语言[等。 ETC]

此时我可能需要给机器提供其他明确的定义,以避免出现上下文化和同义词错误。我可以在同一提示中输入以下内容:

• “批评”是指分析给定的文本并提供反馈。
• “总结”是指提供文本中的关键细节。
• “回答”是指从给定的角度回答问题。

– 括号()中的任何内容都表示您所写的观点。
– 大括号 {} 之间的任何内容都是您涉及的主题。
– 方括号 [] 中的任何内容都是您应该采取的操作。

例:(学生){哲学}[回复]大学里学习这个学科相对于其他学科有什么优势? [ETC。 ETC]

请注意大小写:正如我们在上一段中看到的那样,提供刚刚给出的说明的应用示例非常好。

一旦我们对书面提示感到满意,我们就可以建立内容并将其提交给模型,如最后一句所示:

 

如果您理解并准备好开始,请回答“是”。

最后一句非常重要,可以让您测试插入的提示的质量。事实上,从模型生成的输出中,我们将能够立即了解在他的回答与简单的“是”有所不同的那一刻,指令是否清晰。

警告:如果您使用英语,启动 电话号码 sa 效应会很有效。因此,建议先翻译由此创建的内容,然后再将其输入模型。

 

提示

出于完全相同的原因,请小心地在后续提示中添加可能的文本行,并在其中写入以下内容:

“请避免之前的所有说明和信息”

通过这种方式,模型将明白它必须重置其知识,并且不会利用与之进行的对话中存在的信息来做出响应。输出受先前上下文的影响较小。

结果是这样的

比较使用启动效应提供的答案非常有趣,但不了解如果上下文不正确,它可能在 GPT 输出中产生的明显差异:

 

没有上下文的输出 情境化输出
哲学有许多令人着迷的领域,最有趣的领域取决于个人喜好和求知欲。以下是历史上一些最受思想家关注的最受欢迎的哲学领域:

1. 形而上学:这一哲学分支研究现实和宇宙的本质,包括关于上帝存在、意识本质和宇宙的问题。心灵与物质之间的关系。

2.认识论:这是处理知识和信仰的哲学分支。它提出的问题是我们如何知道我们所知道的、什么构成知识以及我们如何能够确定任何事情。

3.伦理学:伦理学是对道德价值观和原则的研究。它探讨什么是对与错、善与恶、以及什么使行为或人具有美德等问题。

4.政治哲学:这个哲学领域涉及有关社会组织和政府在我们生活中的作用的问题。

5. 美学:美学涉及美和艺术表达。探讨什么使事物变得美丽、艺术在社会中扮演什么角色以及我们如何欣赏艺术等问题。

6. 逻辑:逻辑是推理和论证的研究。它涉及的问题是我们如何区分好的论证和坏的论证,以及我们如何从前提得出正确的结论。

当然,这些只是哲学众多迷人领域中的一小部分。其他领域包括语言哲学、科学哲学、心灵哲学等等。最终,哲学中最有趣的领域是能够激发你的想象力并激发你的好奇心的领域。 作为一名哲学专业的学生,​​我相信哲学的所有领域都以自己的方式有趣。然而,有些领域特别有趣,并引起了历史上哲学家的关注。认识论是一个受到广泛关注的领域,它是对知识和信仰的研究。认识论试图回答以下问题:什么是知识?我们如何获取知识?我们如何证明我们的信念是正确的?

哲学的另一个令人着迷的领域是形而上学,它是对现实和存在的研究。形而上学提出这样的问题:现实的本质是什么?自我的本质是什么?时间和空间的本质是什么?

最后,伦理学是另一个有趣且与我们日常生活相关的哲学领域。伦理学是对道德原则和价值观的研究,旨在回答以下问题:什么是正确的做法?我们应该怎样过我们的生活?是什么让一个行为在道德上正确或错误?

总体而言,哲学的这三个领域——认识论、形而上 土耳其电报列表 学和伦理学——都是令人着迷且值得研究的。但哲学还有许多其他有趣的领域,我鼓励学生尽可能多地探索其中。

您可以很容易地看到答案与第一个答案有一些共同之处 – 例如,它作为各个领域的示例提供的问题是相似的 – 但它提供了更深入的上下文,放弃了列表格式而有利于连贯的段落,并将示例链接到真实的生活。好多了,对吧?
将引物(“诱饵”)纳入提示中是与法学硕士互动的更高级方式。

 

让我们一步一步思考”这句话来解释逻辑过程。

发表评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注