Hermes + Obsidian + LLMWiki — AI 知识库自动化工作流¶
一套基于三个工具串联的个人知识库方案:文档交给 Hermes,AI 自动整理成结构化知识网络,在 Obsidian 中通过双向链接自由浏览。全程零 GUI 操作。
目录¶
- 核心架构
- 工具一:Obsidian — 本地双向链接笔记
- 工具二:LLMWiki — 增量知识微体构建
- 工具三:Hermes — 自动化执行引擎
- 三工具串联:完整闭环
- 三条核心规则
- 注意事项与局限性
- 参考资料
核心架构¶
用户指令
│
▼
┌──────────┐ AppleScript ┌───────────┐ 文档导入 ┌──────────┐
│ Hermes │ ──────────────────▶ │ LLMWiki │ ─────────────▶ │ 知识微体 │
│ (执行引擎) │ │ (知识处理) │ │ (Wiki 页面)│
└──────────┘ └───────────┘ └────┬─────┘
▲ │
│ 查询结果(含来源标注) │
│◄───────────────────────────────────────────────────────────────│
│ │
│ VT 文件夹直接拖入 │
│◄───────────────────────────────────────────────────────────────┘
▼
┌──────────┐
│ Obsidian │ ← 双向链接 + Graph View 全景浏览
│ (展示层) │
└──────────┘
核心思想:传统 RAG 每次查询从零搜索,LLMWiki 让 AI 增量构建持久化知识微体(Knowledge Micro-body),知识随文档导入不断积累。
工具一:Obsidian — 本地双向链接笔记¶
为什么选 Obsidian¶
| 对比维度 | Notion / 飞书 | Obsidian |
|---|---|---|
| 数据存储 | 云端,厂商锁定 | 本地 Markdown 文件 |
| 费用 | 免费版有功能限制 | 个人完全免费 |
| 笔记关联 | 手动标签/文件夹 | 自动双向链接 |
| 可迁移性 | 导出受限 | 文件即数据,随时迁移 |
| 平台 | Windows/Mac/Linux/Web | Windows/Mac/Linux/Mobile |
双向链接(Backlink)原理¶
笔记 A: "参考 [[苹果]] 的种植方法"
笔记 B: "[[苹果]] 是一种水果"
┌────────┐ ┌────────┐
│ 笔记 A │◄───────▶│ 笔记 B │
└────────┘ 苹果 └────────┘
▲ ▲
└──────┐ ┌──────────┘
▼ ▼
┌──────────┐
│ 苹果页面 │ ← 自动汇总所有提及
└──────────┘
- 输入
[[关键词]]自动生成链接 - 笔记存在 → 点击跳转
- 笔记不存在 → 点击创建
- Graph View(
Cmd+G):所有笔记及链接关系可视化,一眼看出知识孤岛与枢纽
工具二:LLMWiki — 增量知识微体构建¶
与传统 RAG 的关键区别¶
传统 RAG:
每次提问 → 在文档中检索 → 临时拼接答案 → 结束(无积累)
LLMWiki:
导入文档 → AI 提取实体/概念/关系 → 生成/更新 Wiki 页面 → 持久化存储
下次导入 → 在已有 Wiki 基础上增量更新 → 知识越来越丰富
| 特性 | 传统 RAG | LLMWiki |
|---|---|---|
| 知识积累 | 无,每次从零 | 增量构建,持久化 |
| 矛盾检测 | 无 | 自动标注冲突 |
| 知识空白 | 不识别 | 主动识别缺失 |
| 来源标注 | 部分 | 每个结论标注出处 |
| 输出格式 | 文本回答 | 结构化 Wiki 页面 |
安装与配置¶
- 下载最新版 DMG/App:
github.com/nash-lm/llmwiki/releases - 拖入应用程序文件夹
- 首次使用:点击
New创建项目 - 设置 API Key(右上角齿轮图标)
支持的 API 接口: - OpenAI(GPT-4o / GPT-4) - Claude(Anthropic) - Minimax - 任何兼容 OpenAI 格式的 API
导入与使用¶
| 操作 | 方式 |
|---|---|
| 导入文档 | 左侧文件区右键 → Import,或 Cmd+I |
| 支持格式 | PDF、Markdown、TXT |
| 提问 | 底部对话框直接输入 |
| 查看结果 | 右侧实时渲染 Wiki 页面 |
Wiki 页面内容结构¶
每个 Wiki 页面通常包含: - 摘要(Summary) - 核心要点 - 工具/概念对比表格 - 关键概念解释 - 关联词条(双向链接)
工具三:Hermes — 自动化执行引擎¶
角色定位¶
Hermes 在这套工作流中扮演 自动化执行引擎,通过 AppleScript 控制 LLMWiki 的 GUI。
前提条件¶
必须开启 macOS 辅助访问权限:
系统设置 → 隐私与安全性 → 辅助功能 → 添加终端/Hermes
触发规则¶
| 用户说法 | Hermes 行为 |
|---|---|
| "写入知识库" / "导入知识库" / "把文件放进知识库" | ✅ 执行文档导入 |
| "结合知识库" / "查一下知识库" / "根据知识库回答" | ✅ 去知识库检索 |
| 普通日常对话 | ❌ 不触碰知识库 |
设计原则:日常对话不触发知识库操作,避免无关内容污染知识库。
Hermes 自动化能力¶
- ✅ 自动激活 LLMWiki 窗口
- ✅ 自动点击 Import 按钮
- ✅ 在文件选择器中定位目标文件
- ✅ 确认导入
- ✅ 在对话框中输入问题并发送
- ✅ 读取 Wiki 预览区内容
三工具串联:完整闭环¶
Step 1:下达指令¶
用户:把桌面的产品需求文档导入知识库
Step 2:Hermes 执行自动化¶
Hermes 接收指令
→ AppleScript 激活 LLMWiki
→ 定位 Import 按钮
→ 文件选择器导航到桌面
→ 选中目标文件 → 确认
→ 全程无需手动操作
Step 3:LLMWiki 处理文档¶
AI 读取文档内容
→ 识别关键实体(产品名、功能模块、技术方案)
→ 在已有 Wiki 基础上增量更新
→ 生成/修改 Wiki 页面
→ 标注来源
Step 4:Obsidian 展示知识网络¶
打开 LLMWiki 项目目录中的 VT 文件夹
→ 作为 Vault 拖入 Obsidian
→ 双向链接全部兼容
→ Graph View 查看知识关联
循环扩展¶
导入更多文档 → 微体不断扩充 → 知识网络越来越密集 → 回答越来越准确
三条核心规则¶
规则 1:说"写入知识库" → Hermes 自动导入
只需告诉 Hermes 文件路径,自动完成从打开 LLMWiki 到确认导入的全部操作。首次配置辅助访问权限约 1-2 分钟。
规则 2:说"结合知识库" → LLMWiki 检索
加上"结合知识库"关键词触发检索,AI 整合后返回带来源的完整回答。普通对话不触发,保持知识库纯净。
规则 3:VT 文件夹 → Obsidian 随时可用
LLMWiki 的 VT 文件夹无需转换,直接拖入 Obsidian。双向链接、Graph View、全文搜索全部可用。内容是纯 Markdown,可跨工具迁移。
注意事项与局限性¶
⚠️ 实际使用需注意:
- LLMWiki 依赖本地 API 调用:需要自备 OpenAI/Anthropic API Key,有 token 消耗成本
- AppleScript 自动化的局限:仅限 macOS,LLMWiki UI 变更可能导致脚本失效
- Wiki 页面质量取决于 AI 模型:复杂技术文档可能出现理解偏差,需要人工校验
- VT 文件夹同步:如果 Obsidian 和 LLMWiki 同时打开同一文件夹,注意文件锁定冲突
❌ 不适用场景: - 需要多人协作的知识管理(Obsidian 同步方案有限) - 对数据实时性要求极高的场景 - 非 macOS 用户(AppleScript 自动化不可用)
参考资料¶
- Hermes Agent 文档
- Obsidian 官网
- LLMWiki GitHub(约 3500 Stars,GPLv3)
- 视频来源:白白说大模型 - YouTube
相关笔记¶
- [[Obsidian 入门指南]]
- [[个人知识管理方法论]]