📄️ 🎯 指令的内容清晰明确
GPT无法读懂你的心思,如果输出答案太啰嗦,请要求它简洁回复;如果输出太简单,请要求以专业水平写作;如果你不喜欢格式,请展示你想看到的格式。GPT越少猜测你的意图,你获得的结果就更可能符合预期。
📄️ 📚 提供参考文本
GPT在回答一些深奥主题或需要引用网址的问题时,可能会胡说八道编造虚假答案。这时你可以为 GPT 提供参考文本可以帮助它们在回答问题时减少捏造内容。
📄️ 🧩 将复杂任务拆分为子任务
正如在软件工程中将一个复杂系统分解为一组模块化组件是一种很好的做法一样,这对于提交给 GPT 的任务也同样适用。复杂任务往往比简单任务具有更高的错误率。此外,复杂任务通常可以被重新定义为由一系列简单任务组成的工作流程,其中前面任务的输出用于构建后续任务的输入。
📄️ ⏳ 给 GPT 一些「思考」时间
如果要求你计算 17 \* 28,你可能不会立刻说出答案,但只需要一点计算的时间你就可以给出正确答案。同样,小语 GPT 在试图立即回答问题时,比花时间计算答案更容易出现推理错误。在回答问题之前,如果能提供一系列推理过程可以帮助 GPT 更可靠地推导出正确答案。
📄️ 🛠️ 使用外部工具
通过使用其他工具的输出来补偿GPT的弱点。例如,代码执行引擎可以帮助GPT进行数学计算和运行代码,文本检索系统可以告诉GPT有关的文档。如果一个任务可以由一个工具而不是GPT更可靠或高效地完成,我们应该果断使用工具而不是GPT。
📄️ ⚙️ 系统化测试变更
在进行使用了 GPT 模型的系统改进时,例如引入新指令或新设计,有时很难判断这些改变是使系统变得更好还是更差。通过观察少量样本可能会有所启示,但在小样本情况下,很难区分真正的改进和随机运气。评估程序(或称为“evals”)可以帮助优化系统设计,确保改进措施的有效性。