AI 不是魔法,是放大器
过去两年,几乎每一位老板都问过我们同一个问题:「AI 可不可以帮我们将公司的知识整合?」
老实回答:可以,但前提是你的 know-how 已经结构化。AI 并没有将混乱变清晰的能力——它只有将已有秩序放大的能力。将一堆散乱的微信 / WhatsApp 对话 dump 入一个 RAG,得到的不是魔法答案,而是一堆统计上接近但逻辑上错误的 hallucination。
三个 AI 在企业知识管理中真正 work 的场景
1. RAG over 结构化 SOP 库
如果你已经有 Outline / Notion / Confluence 一套整齐的 SOP 文档,RAG(Retrieval Augmented Generation)是最 reliable 的切入点。原理:用 embedding 将每篇文档 chunked indexed,用户问问题时先 retrieve top-k 相关 chunks,再喂 LLM 生成答案。
Work 的前提:
- 文档本身 well-structured(每篇有清晰 title / scope / decision rationale)
- Chunk size 和 overlap 经过调试(典型 512-1024 tokens / overlap 50-100)
- 有 evaluation set(至少 50 条常见问题 + 标准答案)做 regression check
不 work 的场景:文档本身就不齐全 / 互相矛盾 / 充满过时资讯。AI 分辨不了。
2. Agent over 业务系统
第二类有 traction 的应用:用 LLM agent 将「跨系统的低频动作」自动化。例如:
「帮我找 2023 与我们签过超过 50 万合同、之后 6 个月没 follow-up 的 enterprise 客户。」
这个问题涉及 CRM 查询 + 合同系统 join + 时间范围 filter,传统 BI dashboard 解决不了(这类查询无法预先 hardcode)。Agent + tool-calling 模式可以动态 compose SQL / API call。
Work 的前提:你的业务系统有 well-documented API + 至少一个 internal data dictionary。
3. Fine-tune over 品牌 voice
这是少数真正需要 fine-tune(而非 RAG / prompt)的场景:当你想 LLM 在特定 tone / style / vocabulary 下生成内容(marketing copy、proposal draft、客户 email reply)。
但 fine-tune 的 cost 和 maintenance 高——大部分情况下,3-5 个 few-shot examples + 一段详细 style guide 在 prompt 里就够用。Fine-tune 留给真正 high-volume + style-critical 的场景。
我们不建议的 anti-patterns
- 将所有 Slack / 微信对话 dump 入 RAG:对话充满 context-dependent 资讯,剥离 context 后变垃圾。
- 用 LLM 取代决策:LLM 适合做 recall + summarisation + draft generation,不适合做 judgment。
- 没 evaluation 就上 prod:LLM 答错时的样子会很像答对——你没 eval set 就不知何时 regression。
起手的一步
挑一条真实同事每周都会问的问题,建一个 5-10 个文档的最小 RAG demo,自己手试 20 次,再给 5 个同事试一周。不要一上来就建 enterprise-wide system——大型 AI knowledge project 的死法,几乎全部是 over-scope。