从随机抽卡到工作场景
在当前的人工智能应用场景中,我们面临着一个困难:大型语言模型的本质是基于概率的随机生成器,而实际工作场景往往需要确定性的结果交付。我们将这种不确定性的交互戏称为抽卡,意指其结果的方差极高,依赖于运气的成分多于逻辑的控制。然而,在工程化的视角下,我们必须抑制这种随机性。
NOTE
如何通过工程化手段,将 AI 的输出方差降到最低,从而实现可复用的、高确定性的产出?
工业级的稳定交付并不追求模型在某一次对话中展现出的惊人创造力,而是追求在一百次调用中能够稳定输出一百次可用的结果。AI 的上限并不取决于模型本身,而取决于定义问题的清晰度。它是一面镜子,诚实地照出了提问者逻辑上的漏洞。如果输入的信息包含模糊与歧义,模型必然会放大这种熵增。因此,将交互过程从自由发挥转向受控的逻辑推导,是实现稳定交付的必经之路。
提示词工程的资产化视角
在随意对话与生产力工具之间,存在着一道名为资产化的分水岭。一次性的对话是消耗品,随着窗口关闭而烟消云散;而打磨好的 Prompt 与配置严谨的工作流,则是个人数字资产。这种资产具有复利效应,随着使用次数的增加,其边际成本递减,而产出的稳定性与质量则不断累积。
构建这种数字资产的过程,本质上是对思维的算法化封装。我们需要将模糊的意图转化为可执行的函数。每一个被验证有效的提示词模版,都是固化下来的思维快照。通过将这些快照系统化地组织起来,我们不再是每次从零开始与 AI 磨合,而是在调用已经封装好的功能模块。
AI润色提示词? 或许不应该这样做
个人倾向于对于重要的提示词进行字斟句酌的打磨, 而AI有一种扩充文本和过分书面的倾向(例如gemini gem提供的提示词润色功能).
这对于写凑字数的garbage或许是有帮助的,但对于提示词来说是非常有害的,不够直接和简洁的提示词会带来使用和维护的灾难.
上下文管理与工具选型
在具体的工具实践中,Claude skills(及其 Artifacts 功能)与传统的 Prompt 管理工具代表了两种不同的路径。Claude skills 提供了一种渐进式的读取体验,它允许用户上传文档构建专属的上下文环境。这种方式的优势在于维持了上下文的纯净度,非常适合长任务的处理。 然而,在实际使用中,我观察到模型存在忽略特定指令的现象,例如在多轮测试中, 总是无视预设的脚本逻辑重新生成内容。这揭示了长上下文模型在注意力分配上的局限性,即随着 token 数量的增加,指令的遵循能力可能会出现衰减。
相比之下,TextExpander 等 Prompt 管理工具则专注于提问模版的标准化。这类工具不介入模型的上下文处理,而是专注于输入端的预处理。它们将复杂的处理逻辑固化为快捷指令,确保了每次输入的严格一致性。
Question
claude code提供了slash命令, 他和claude skill分别适用于那些场景?
从确定性的角度来看,Prompt 管理工具能快速调用已编写的prompt, 但在prompt的组合和编排方面非常困难(考虑管理一个没有结构关系的prompt库和管理一个能够互相调用,复用的代码库)。而 Claude skills 更擅长处理需要大量背景知识理解的非结构化任务。
知识库与检索增强的认知差异
在引入外部知识时,我们需要区分检索与内化这两个概念。NotebookLM 等工具虽然在检索与略读方面表现出色,能够快速定位信息,但它们往往难以支撑深度的精读与笔记内化。这是因为简单的检索增强生成(RAG)往往只触及了知识的皮毛,而未建立知识间的逻辑关联。
知识管理的深度
真正的知识库联动,应当类似于将 Zotero 与 LLM 进行深度整合。
这种整合的目标是让 AI 基于用户构建的知识体系进行回答,而非利用互联网上的公网信息进行概率拼接。当 AI 能够索引到具体的文献与笔记时,它的回答便不再是空泛的幻觉,而是基于证据的逻辑推演。这种基于私有知识库的生成,实际上是将 AI 的通用推理能力限制在了用户认可的知识边界内,从而大幅提升了内容的可信度与专业度。
notebookLM+zotero, 一个缺乏的AI产品?
内嵌AI搜索引擎, 能够快速将材料归档(notebookLM) 能方便对于归档材料进行阅读和注释(zotero) 在确定性知识库和用户笔记基础上, 与AI进行问答, 帮助用户理解(notebookLM)
防御性指令与风格锁定的工程实践
为了进一步降低输出的熵值,我们在构建指令时需要同时采用防御性策略与风格锁定策略。防御性指令的核心在于明确负面约束,即清晰地告知模型避免什么。例如,明确禁止说教式的语气、禁止使用生硬的翻译腔、禁止在逻辑链条之外随意发散。这种负面约束有效地剪枝了模型可能产生的错误路径。
与之相对,风格锁定则是为了明确输出的形式与质感。我们需要显式地定义倾向什么,比如要求结构化的输出格式、麦肯锡式的金字塔原理叙述,或者是代码优先的解答逻辑。通过同时施加正向的引导与负向的约束,我们将模型的生成空间压缩到了一个极小的、高度可控的范围内。这不仅是针对单次对话的优化,更是建立标准化 AI 交互协议的基础。只有当输入与输出都受到严格的协议约束时,AI 才能真正从玩具转变为工业级的生产力工具。