AI 唔係魔法,係放大器
過去兩年,幾乎每一個老闆都問過我哋同一條問題:「AI 可唔可以幫我哋將公司啲知識整合?」
老實答:可以,但前提係你嘅 know-how 已經結構化。AI 並冇將混亂變清晰嘅能力——佢只有將已有秩序放大嘅能力。將一堆散亂嘅 WhatsApp 對話 dump 入一個 RAG,得到嘅唔係魔法答案,而係一堆統計上接近但邏輯上錯誤嘅 hallucination。
三個 AI 喺企業知識管理度真正 work 嘅場景
1. RAG over 結構化 SOP 庫
如果你已經有 Outline / Notion / Confluence 一套整齊嘅 SOP 文檔,RAG(Retrieval Augmented Generation)係最 reliable 嘅切入點。原理:用 embedding 將每篇文檔 chunked indexed,用戶問問題嗰陣先 retrieve top-k 相關 chunks,再餵 LLM 生成答案。
Work 嘅前提:
- 文檔本身 well-structured(每篇有清晰 title / scope / decision rationale)
- Chunk size 同 overlap 經過調試(典型 512-1024 tokens / overlap 50-100)
- 有 evaluation set(至少 50 條常見問題 + 標準答案)做 regression check
唔 work 嘅場景:文檔本身就唔齊全 / 互相矛盾 / 充滿過時資訊。AI 唔識分。
2. Agent over 業務系統
第二類有 traction 嘅應用:用 LLM agent 將「跨系統嘅低頻動作」自動化。例如:
「幫我搵 2023 同我哋簽過超過 50 萬合同、之後 6 個月冇 follow-up 嘅 enterprise 客戶。」
呢條問題涉及 CRM 查詢 + 合同系統 join + 時間範圍 filter,傳統 BI dashboard 解決唔到(呢類查詢冇辦法預先 hardcode)。Agent + tool-calling 模式可以動態 compose SQL / API call。
Work 嘅前提:你嘅業務系統有 well-documented API + 至少一個 internal data dictionary。
3. Fine-tune over 品牌 voice
呢個係少數真正需要 fine-tune(而非 RAG / prompt)嘅場景:當你想 LLM 喺特定 tone / style / vocabulary 度生成內容(marketing copy、proposal draft、客戶 email reply)。
但 fine-tune 嘅 cost 同 maintenance 高——大部分情況下,3-5 個 few-shot examples + 一段詳細 style guide 喺 prompt 入面就夠用。Fine-tune 留俾真正 high-volume + style-critical 嘅場景。
我哋唔建議嘅 anti-patterns
- 將所有 Slack / WhatsApp 對話 dump 入 RAG:對話充滿 context-dependent 資訊,剝離 context 後變垃圾。
- 用 LLM 取代決策:LLM 適合做 recall + summarisation + draft generation,唔適合做 judgment。
- 冇 evaluation 就上 prod:LLM 答錯嘢嘅樣會好似答啱嘢——你冇 eval set 就唔知幾時 regression。
起手嘅一步
揀一條真實同事每週都會問嘅問題,建一個 5-10 個文檔嘅最小 RAG demo,自己手試 20 次,再俾 5 個同事試一週。唔好一上來就建 enterprise-wide system——大型 AI knowledge project 嘅死法,幾乎全部係 over-scope。