大模型旨在通过精简表达,实现行动导向的决策,其意图在于利用大规模数据和先进算法,提取深层次知识和模式,以指导实际操作,通过大模型,我们能够更准确地预测和解决问题,推动各领域科技进步和业务创新,其最终目标是提升决策效率和效果,促进社会和经济的持续发展。
关于大模型的讨论,重点在于其能否简洁、明确地表达目的和任务,在实际应用中,一些大模型在运行时可能会产生冗长的描述或提示,这引发了关于其是否过于复杂或不够明确的疑问,期待大模型能够更简洁地表达,明确其目的和任务,以提高沟通效率和用户体验。 你是否曾经使用过AI,甚至购买过网上的提示词合集?对于如何写提示词,你是否还在遵循老旧的方式,如逐步拆解思维链、给出例题帮助模型理解、引导模型进行角色扮演以获取更专业的答案?如果是的话,你可能已经注意到,新的大模型时代已经来临,那些曾经的提示词技巧可能已经不再适用。 现在我们所面对的,是更为先进的大模型时代,它们被划分为传统通用大模型和推理大模型两大类别,例如GPT-o1,它不再是GPT-4o的直属版本升级,而是代表推理模型的新时代,在推理模型的时代,过于详细的提示词可能会适得其反,让AI变得更加笨拙,OpenAI的官方文档明确指出,过于精确的提示词或引导思考的提示词写法可能会让回答效果下降,他们建议我们尽量减少使用思维链提问,直接提问即可,如果效果不理想,再给出具体例题让AI学习。 DeepSeek-R1的官方技术报告也有同样的观点:该模型对提示词很敏感,给出例子反而会降低模型表现,他们建议用户直接描述问题,避免给出例子,除了GPT和DeepSeek,其他的推理大模型如Claude 3.7 Sonnet也在官方文档中明确表示,相比那些看似有逻辑、每一步都详细列出操作的提示词,他们更希望你直接指示他们该怎么做。 为什么昔日的提示词在推理模型时代变得不再适用呢?这背后的主要原因是传统非推理模型和推理模型的思考方式发生了变化,传统的大模型一般采用无监督学习和监督微调,而推理大模型在此基础上加入了强化学习等基于推理的训练方法,这种训练过程使得大模型能够自主判断某些想法是否正确,从而更独立地给出完整且正确的答案,过于详细的提示词可能会与模型的自主推理能力产生冲突。 在我们的实验中,我们发现对于一些编程题目,使用传统的详细提示词在推理模型上可能会导致失败,而当我们将提示词简化,只直接描述问题时,模型反而能够给出正确的答案,对于推理模型来说,简单直接的提示词更为有效,我们也发现一些有效的方法来提高模型的效果,如使用符号来清晰表达问题的结构、明确最终目标和结果格式等,尊重模型的自主性也是非常重要的,随着大模型能力的不断进化,写提示词的方式也会不断改变,但只要我们能够用不同的输入获得不同的输出,提示词就永远有存在的价值。 向曾经写出过神级提示词如“汉语新解”的李继刚老师请教后,他认为随着模型能力的提升,用户应该更新提示词的策略,避免继续使用过时的方法,我们应该适应新的变化,学习如何更有效地与推理大模型进行沟通,以便获得更好的结果,适应新的变化是关键所在,我们需要学习如何更有效地与这些强大的工具进行沟通以获得最佳结果同时也要尊重它们的自主性让它们能够独立思考和解决问题。