Claude Code 实战分享:从”会用”到”高效”,涵盖 CLAUDE.md 配置、开发工作流、Bug 调试、代码审查、Agent Team 多智能体协作等 7 大实战场景。
Claude Code 从”会用”到”高效”
目录
- 为什么值得深入使用 Claude Code
- 我的工作台全景含 Serena 插件详解、Git Worktree、Vibe Kanban
- 场景 1:CLAUDE.md — 给 AI 一份项目说明书
- 场景 2:完整开发工作流 — 从想法到落地
- 场景 3:Bug 调试 — 系统化根因分析
- 场景 4:代码审查 — AI 辅助 Code Review
- 场景 5:跨项目管理 — 批量检查代码变更
- 场景 6:Agent Team — 多智能体并行协作
- 场景 7:多 Session 多模型协作
- 安全风险
- 成本控制
- 我踩过的坑与最佳实践
- 彩蛋:这篇文章是怎么诞生的
1. 为什么值得深入使用 Claude Code
我和 Claude Code 的故事
我第一次接触 Claude Code 是在 2025 年 7-8 月。当时刚出不久,试用了一段时间后就被它的能力震撼了——不是那种”AI 能帮你补全代码”的小惊喜,而是”它真的在理解我的项目,像一个靠谱的同事在帮我干活”的感觉。
核心认知转变
大多数人把 Claude Code 当”AI 问答工具”——问一句答一句。但它真正的定位是一个可深度定制的开发工作台。
1 | Plain Text |
2. 我的工作台全景
2.1 目录结构总览
1 | Plain Text |
首先,可以放弃传统的IDEA、VS Code,Cursor等代码IDE了,视角从写代码、改代码转向功能设计,功能实现,功能验证。除非必要,后面会极少关心代码细节。
我的工作台:3个Claude-code Session,分别进行功能设计,功能实现,功能Review,并且可以互相review对方的输出给出结论。
2.2 我的插件清单
点击图片可查看完整电子表格
2.3 重点插件:Serena — 大型项目的 Token 救星
在大型项目中(比如我们的 Java 微服务有 53 种任务类型、数百个类),AI 最大的 token 消耗来自读代码。没有 Serena 的时候,AI 要理解一个类的用法,需要:
1 | Plain Text |
Serena 的核心能力:
| 能力 | 说明 | 等价于 IDE 的 |
|---|---|---|
| find_symbol | 按名称/类型搜索符号 | Ctrl+Shift+F(但更精确) |
| find_referencing_symbols | 找到谁引用了某个符号 | Find Usages |
| get_symbols_overview | 获取文件的符号概览(不读全文) | Structure 面板 |
| replace_symbol_body | 精确替换某个方法/类的定义 | 重构 → 替换 |
| rename_symbol | 跨文件重命名符号 | Shift+F6 全局重命名 |
实质:Serena 是通过 Language Server Protocol(LSP)给 AI 提供了和 IDE 一样的代码理解能力。AI 不再需要”读整个文件然后自己理解结构”,而是直接”查符号表”。
配置方式:安装后在项目根目录创建 :
1 | # .serena/project.yml |
首次使用时 Serena 会构建符号缓存(.serena/cache/),后续查询都走缓存,速度很快。
我的体感:在这个 Java 项目上,装了 Serena 后 AI 的”探索代码”阶段明显变快,上下文消耗也更少。对于大型项目(尤其是 Java 这种强类型语言),Serena 的收益非常显著。
注:配置好的serena经常会自动打开浏览器:http://127.0.0.1:24283/dashboard/index.html,可以通过配置~/.serena/serena_config.yml web_dashboard_open_on_launch: false 来关闭这个烦人的东西
2.4 Git Worktree — 多人/多 Agent 并行的安全网
当你需要让多个 Claude Code Session 或 Agent Team 并行修改代码时,最大的风险是文件冲突——两个 Agent 同时改同一个文件,结果互相覆盖。
Git Worktree 解决这个问题:
1 | Plain Text |
使用方式:
1 | # 方式一:在 Claude Code 中直接说 |
核心价值:搞砸了直接 git worktree remove,零风险。不影响你的主工作目录。
2.5 — AI 编码代理的可视化指挥中心
当你同时跑 2-3 个 Claude Code Session 或 Agent Team 时,终端窗口之间来回切换很痛苦——哪个任务在跑、哪个卡住了、哪个该审查了,全凭记忆。Vibe Kanban 就是解决这个问题的工具:一个给 AI 编码代理用的看板式任务管理平台。
一句话定义:Vibe Kanban 不写代码,它是 AI 编码代理的”调度中心”——用可视化看板管理多个 Agent 的任务状态、代码审查和工作流编排。
1 | Plain Text |
核心能力:
1 | Plain Text |
Vibe Kanban vs Claude Code 原生 Agent Team 的区别:
1 | Plain Text |
我的建议:如果你主要用 Claude Code 做开发,Agent Team 够用了。但如果你同时使用多种 AI 编码工具(比如白天用 Claude Code 做架构,晚上用 Gemini CLI 跑批量任务),或者你更喜欢可视化界面管理任务状态,Vibe Kanban 值得一试。GitHub 上 21k+ Star,社区很活跃。
3. 场景 1:CLAUDE.md — 给 AI 一份项目说明书
痛点:每次开新会话,Claude Code 不知道你的项目是什么、用了什么技术栈、代码组织方式、构建命令、测试方法。你得反复解释同样的上下文。更痛的是——即使解释了,AI 给出的代码可能用错 Java 版本、用错构建工具、用错设计模式,因为它不知道你的项目”偏好”。
解法:在项目根目录执行 /init,Claude 会自动读取项目,为你创建 CLAUDE.md,描述项目的主要功能、技术栈等信息。Claude Code 每次启动都会自动加载这个文件。但是注意的是,自带的 /init 是一个一次性的起步工具,后续不会自动更新:
扫描项目文件,检测技术栈、构建系统、测试框架
生成一个基础 CLAUDE.md 作为起点
单次运行,后续需要手动维护
CLAUDE.md 的本质:不只是项目说明书
很多人以为 CLAUDE.md 就是写一段项目介绍。但实际上,它是你和 AI 之间的契约——不只告诉 AI “项目是什么”,更关键的是告诉它”怎么做”和”不要做什么”。
1 | Plain Text |
我的 CLAUDE.md 实践
我为 10+
成,然后在实际使用中持续补充——每次 AI 犯的错就是一个应该写进 CLAUDE.md 的提醒。为了让claude.md可以持续自动更新,可以实现了一个agent:通过hook实现进入一个session后,让claude自动检查最近的git提交记录,然后根据功能变化同步到claude.md中(此功能可以直接描述,让claude帮你实现)。
1 | yaml |
核心结构(不是模板——每个项目应该不同):
1 | Plain Text |
真实案例:不同项目的 CLAUDE.md 侧重点完全不同
Java 微服务项目(job-tifenbao-gen-pdf)—— 侧重架构和配置映射:
包含 53 种任务类型到 Handler 的完整映射关系
标注了 8 个 XML 配置文件各自覆盖哪些任务类型
说明了 Template Method / Factory / Strategy 三种设计模式的使用位置
解释了 Nacos 配置中心和 Dubbo 服务的集成方式
列出了文档生成库的版本清单(iText 4.2.1, Playwright 1.10.0, PDFBox 2.0.23)
这份 CLAUDE.md 之所以写这么详细,是因为这个项目有 53 种任务类型分散在 9 个 XML 配置文件中——不写清楚,AI 每次都要花 5-10 分钟重新探索。
Vue 2 前端项目(web-tifenbao-campus-report)—— 侧重业务域知识:
包含 PhaseCode 业务域知识(6001=考试报告、6009=错题本、各阶段的数据流)
标注了 Template Studio 的 Monaco 编辑器集成和 iframe 预览机制
说明了 Element UI 的定制方式和主题变量
列出了各子路由和功能模块的对应关系
这份 CLAUDE.md 的重点是业务术语——因为前端代码本身不复杂,但不理解 PhaseCode 的含义就写不出正确的业务逻辑。
效果:AI 理解项目上下文的时间从”每次 5-10 分钟解释”→”0 秒”;不再出现”让我先了解一下你的项目结构”这种空转;AI 给出的代码直接符合项目规范(用对 Java 版本、用对设计模式、用对构建命令)。持续进化:每次 AI 犯错,补一条提醒到 CLAUDE.md,下次就不会再犯。
进阶技巧:Memory 目录 — AI 的长期记忆
CLAUDE.md 解决的是”项目级上下文”,但还有一类信息是”会话级经验”——比如”上次调试发现 fontfaceonload.js 必须从 gen-pdf 项目复制过来”。这类信息适合放在 Memory 目录:
1 | Plain Text |
CLAUDE.md 是手动维护的”宪法”,Memory 是 AI 自动积累的”经验库”。两者配合使用效果最好。你也可以主动让claude将你的习惯保存到memory中。
** 可以把CLAUDE.md 理解为与项目代码有关的规则,MEMORY.MD是和项目代码无关的规则,是保存你自己使用claude时想让claude记住的习惯与经验。**
比如每次让claude review时,他都是直接输出到终端,就可以让他输出到指定目录下,后面再review时,他就会直接写到md文档中。
1 |
📝 真实对话案例:用 /init 自动生成 CLAUDE.md(点击展开)
1 | 以下是首次使用 /init 命令让 AI 自动分析项目并生成 CLAUDE.md 的真实记录。 |
1 | Plain Text |
亮点:AI 通过 6 次工具调用,自动从 pom.xml、Java 源码、XML 配置、测试类中提取关键信息,生成了一份覆盖构建、测试、架构、配置、已知问题的完整项目说明。后续每次开新会话,AI 都自动加载这份文档。但这只是起点——后续在使用过程中又陆续补充了”不要做什么”清单和业务术语表。
4. 场景 2:完整开发工作流 — 从想法到落地
痛点:传统开发流程:想法 → 口头讨论 → 直接写代码 → 发现遗漏 → 返工。缺少系统化的设计和规划环节,或者有但全靠人工写文档。
解法:通过 superpowers 插件提供的三个 Skill,形成完整的想法 → 设计 → 计划 → 执行闭环,每个阶段自动产出文档。
1 | Plain Text |
阶段一:Brainstorming — 把模糊想法变成设计方案
触发方式:
1 | Plain Text |
AI 会做什么:
先探索项目上下文(读 CLAUDE.md、相关代码、历史文档)
- 一次问一个问题(不会一次抛出 10 个问题让你头大)
提出 2-3 个方案并附带 trade-off 分析和推荐
分段呈现设计方案,每段确认后再继续
最终输出 docs/plans/YYYY-MM-DD-xxx-design.md 并 git commit
真实案例(本次对话的实际过程):
1 | Plain Text |
关键价值:
强制你在写代码前想清楚设计
AI 帮你考虑了你可能忽略的 trade-off
自动产出可分享的设计文档,不用自己写
📝 真实对话案例:渲染平台架构设计 Brainstorming(点击展开)
1 | 以下是 2026-02-28 一次真实的 brainstorming 对话记录,目标是重构 PDF 渲染项目的架构。 |
1 | Plain Text |
这次 brainstorming 的成果:从一个”想重构”的模糊想法,经过深度代码分析,产出了一份 1,324 行的完整架构设计文档,覆盖了 Phase 1-4 的详细设计和迁移路径。
📝 真实对话案例:拖拽组件插入功能设计(点击展开)
1 | 以下是 2026-03-03 一次 brainstorming 中 AI 系统化分析需求的对话片段。 |
1 | Plain Text |
亮点:AI 在推荐方案时不只是说”推荐 A”,而是给出了工程量的量化对比(5-10 倍差距),帮助你快速做出决策。
阶段二:Write Plan — 把设计方案拆成实施步骤
触发方式:
1 | Plain Text |
AI 会做什么:
阅读设计文档
拆分成有依赖关系的实施步骤
识别关键文件和需要修改的代码位置
标注每步的验证标准
输出 docs/plans/YYYY-MM-DD-xxx-plan.md
产出示例:
1 | Plain Text |
阶段三:Execute Plan — 按计划执行并产出报告
触发方式:
1 | Plain Text |
AI 会做什么:
读取实施计划
按步骤执行,每步完成后 checkpoint
遇到问题时暂停,等你确认
过程中产出审查文档 docs/review/ 和实施报告 docs/reports/ (使用MEMORY.MD)
文档产出矩阵:
| 阶段 | 文档路径 | 内容 |
|---|---|---|
| Brainstorm | docs/plans/YYYY-MM-DD-xxx-design.md | 设计方案、架构图、方案对比 |
| Write Plan | docs/plans/YYYY-MM-DD-xxx-plan.md | 实施步骤、依赖关系、验证标准 |
| Execute | docs/review/YYYY-MM-DD-xxx-review.md | 实施过程审查、代码质量检查 |
| Execute | docs/reports/YYYY-MM-DD-xxx-report.md | 实施结果报告、测试覆盖、遗留问题 |
效果:每个功能开发都有完整的文档链:设计 → 计划 → 审查 → 报告。文档是 AI 在过程中自动产出的,不是事后补的。新同事接手时可以从 docs/ 目录完整了解每个功能的来龙去脉。
5. 场景 3:Bug 调试 — 系统化根因分析
痛点:调 bug 最怕”凭感觉猜”——改了一个地方不对,再猜另一个,循环往复。
解法:用 bug-analyzer 自定义 Agent + systematic-debugging Skill,让 AI 做系统化分析而不是瞎猜。
工作流
1 | Plain Text |
我的 bug-analyzer Agent 配置
1 | Plain Text |
创建自定义 Agent 的方法
1 | Plain Text |
效果:从”猜 3-4 次才找到根因”→”一次分析到位”。修复方案精确到具体文件行号,附带回归测试建议。
📝 真实对话案例:OSS 上传失败 — XML Parser 依赖冲突排查
1 | 以下是一次真实的 systematic-debugging 对话。用户贴了一个 OSS 上传报错的堆栈,AI 系统化追踪到了根因。 |
1 | Plain Text |
亮点:AI 没有猜测”可能是网络问题”或”可能是配置错误”,而是从堆栈的 SAX driver 类名入手,反向追踪依赖链,精确定位到 jdom2 → xpp3 这条传递依赖路径。整个分析过程有清晰的推理链条。
6. 场景 4:代码审查 — AI 辅助 Code Review
痛点:人工 Review 容易遗漏安全漏洞、性能问题、边界条件。
解法:用 code-reviewer 自定义 Agent 做提交前的 AI 审查。
我的 code-reviewer 配置
1 | Plain Text |
使用方式:在 Claude Code 中直接让 AI 审查(它会自动读取 git diff),或者用 /superpowers:requesting-code-review 触发。
效果:提交前多了一道 AI 安全网,能发现人工容易遗漏的 SQL 注入、XSS 等安全问题,审查报告可以作为 PR 描述的一部分。
📝 真实对话案例:英语词汇报告功能分支 Code Review(点击展开)
1 | 以下是一次真实的代码审查对话。用户让 AI 对比 feature 分支和 master,审查英语词汇报告页面的代码变更。 |
1 | Plain Text |
亮点:AI 按严重程度分级(Critical → Important → Minor),每个问题都精确到文件名和行号,并给出具体的修复建议,而不只是指出问题。
7. 场景 5:跨项目管理 — 批量检查代码变更(自定义skill)
痛点:发版前要确认”过去 N 天改了哪些项目的哪些文件”,手动一个个项目去 git log 很低效。
解法:创建自定义 Skill:check-recent-code-changes。
1 | Plain Text |
使用方式:在 Claude Code 中输入 /check-recent-code-changes 即可。
创建自定义 Skill 的方法
1 | Plain Text |
📝 真实对话案例:跨项目上线前变更审计 + Skill 自动化
1 | 以下是 2026-02-25 一次真实的跨项目操作。用户在父级 Git 目录下,让 AI 扫描所有子项目的近期改动,用于上线前核查。 |
1 | Plain Text |
另一个跨项目场景:可以通过/add-dir 把其他项目地址添加到当前session或者当前项目,这样就可以同时让claude操作多个项目工程,也可以让claude对整个工作流,数据流有更深的了解,此时就可以直接让claude-code设计全链路的架构设计、实现计划和代码修改,然后可以用agent-teams,让不同的agent去不同的项目里干活。此时假如在 job-tifenbao-gen-pdf 项目中工作时,用户突然收到 web-tifenbao-campus-report 的报错:
1 | Plain Text |
亮点:AI 可以直接用绝对路径读取任何项目的文件,实现跨项目的根因分析。同时,用户把一次性操作沉淀为可复用的 Skill,后续一键执行。
Skill vs Agent 的区别
| 维度 | Skill | Agent |
|---|---|---|
| 定义 | 一套工作流程指令 | 一个具有特定角色的 AI 人格 |
| 触发 | /skill-name 或 AI 自动匹配 | 被 AI 作为子任务分派 |
| 执行者 | 当前 AI 会话 | 新启动的独立 AI 进程 |
| 文件 | ~/.claude/skills/{name}/SKILL.md | ~/.claude/agents/{name}.md |
| 适合 | 固定流程、可重复操作 | 需要特定专业角色的深度分析 |
8. 场景 6:Agent Team — 多智能体并行协作
什么是 Agent Team
Agent Team 是 Claude Code 的多智能体协作能力。你可以创建一个”团队”,包含多个具有不同角色的 AI Agent,它们可以:
并行处理不同任务
通过消息互相通信
共享任务列表协调进度
在独立的 Git Worktree 中隔离工作
1 | Plain Text |
适合使用 Agent Team 的场景
1 | 场景 |
| 多文件并行重构 | 各 Agent 改不同文件,互不冲突 | “前端改组件,后端改 API,测试写用例” |
| 多角度分析 | 不同 Agent 从不同视角分析同一问题 | “安全审查 + 性能审查 + 架构审查” |
| 研究 + 实现分离 | 一个 Agent 调研,另一个实现 | “Agent A 研究最佳实践,Agent B 写代码” |
| 代码审查流水线 | 一个写完另一个立即审查 | “开发 Agent 写完 → 审查 Agent 检查” |
不适合使用 Agent Team 的场景
| 简单的单文件修改 | 开销太大,不如直接做 |
| 强依赖顺序的任务 | Agent 之间等待反而更慢 |
| 需要频繁交互确认 | 通信成本高 |
创建和使用流程
步骤 1:启用 Agent Team 功能
1 | // ~/.claude/settings.json |
步骤 2:创建团队 — 在 Claude Code 对话中告诉 AI 你想用 agent-teams来完成任务,AI 会自动执行 TeamCreate → TaskCreate → Agent 启动 → TaskUpdate 分配 → SendMessage 协调。
步骤 3:监控进度 — AI 会自动收到 Teammate 的消息通知,可以通过 TaskList 查看整体进度,Teammate 完成后会自动汇报。
重要注意事项
1 | Plain Text |
实战示例
1 | Plain Text |
📝 真实对话案例:多 Agent 并行审查架构设计文档
1 | 以下是 2026-03-02 一次真实的 Agent Team 使用记录。用户要求从多个角度评审渲染平台的架构设计。 |
1 | Plain Text |
亮点:5 个 Agent 并行工作,各自从独立视角深入分析,最终由主 Session 汇总成有共识、有分歧、有建议的完整审查报告。Agent 2 指出的”低代码表达力不足”问题后来确实被验证,直接影响了 Phase 4 的设计方向调整。
9. 场景 7:多 Session 多模型协作
核心思路
Claude Code 支持通过环境变量或 CCSwitch 等工具切换底层模型。这意味着你可以在不同终端窗口启动不同厂商、不同模型的 Claude Code 会话,让它们各司其职:
GLM 模型(性价比高):负责写代码、搬砖型任务
Claude Opus(推理能力强):负责架构设计、代码审查、出报告
Claude Sonnet(平衡型):负责日常开发、轻量分析
各 Session 通过文件系统(docs/ 目录)交换信息,形成流水线。
架构图
1 | Plain Text |
如何启动不同模型的 Session
方式一:环境变量临时切换
1 | # 终端 1 — 使用 GLM 模型(写代码) |
方式二:使用 CCSwitch 工具
CCSwitch 可以在多套模型配置之间快速切换,避免每次手动输入环境变量。
方式三:settings.json 备份切换
1 | # 备份当前配置 |
📝 真实对话案例:三 Session 接力 — 设计 → 实现 → 审查 → 修复闭环
1 | 以下是 2026-03-02 一次真实的多 Session 多模型协作记录。三个 Session 分工协作,完成了 Phase 4 统一实施计划的设计、实现和审查全流程。 |
1 | Plain Text |
完整的文件产出链:
| 文件 | 产出 Session | 模型 |
|---|---|---|
| docs/plans/phase4-unified-implementation-plan.md | Session B | Opus 4.6 |
| docs/plans/phase2-4-dataflow-fragmentation-analysis.md | Session A | GLM-5 |
| docs/review/phase4-unified-implementation-review.md | Session C | GLM-5 |
这个案例展示了多 Session 协作的完整闭环:Opus 出设计计划 → GLM 交叉验证 → 用户实现 → GLM 启动 6 个 Agent 并行审查 → 输出审查报告 → 用户修复 → 审查报告更新为 100%。三个 Session 通过 docs/ 目录下的文件交换信息,各司其职。
真实对话截图(让两个模型互相review:GLM5 VS Opus):
注意事项:确保两个 Session 不同时修改同一个文件(推荐用 Worktree 隔离);审查 Session 需要等产出 Session 写完文件后再读取;提前约定文件路径格式(如 docs/review/YYYY-MM-DD-*.md);多 Session 操作 git 时注意不要互相覆盖 commit。
10. 安全风险 - 使用前需要建立的意识
在享受 Claude Code 带来的效率提升之前,有几点安全相关的意识需要建立。不是要吓唬你——而是让你在使用时心里有根弦。
10.1 代码会离开你的电脑
Claude Code 的工作原理是:把你项目的代码发送到远程服务器(Anthropic 或你配置的其他模型提供商)。这意味着:
1 | Plain Text |
10.2 敏感信息可能被 AI 读到
你的项目里可能有一些不该外传的文件:.env、credentials.json、id_rsa、数据库密码…
问题:AI 可能会读取这些文件,甚至把它们的内容输出到日志、审查报告、或生成的文档中。
真实场景:
1 | Plain Text |
建议:
- 排除敏感文件:在项目根目录创建
.claudeignore文件(类似.gitignore):
1 | Plain Text |
- 敏感信息不要写在代码里:这是基本的安全实践,但现在更重要了
10.3 AI 可能执行危险操作
Claude Code 可以执行 git 命令、删除文件、修改代码。这是能力,也是风险。
危险操作示例:
git push –force — 覆盖远程分支
git reset –hard — 丢失本地修改
批量删除文件
覆盖重要配置
建议:
- 涉及
--force、--hard、删除的操作,人工确认后再执行
重要分支(main/master)的 push,自己来
大规模文件操作前,先 git stash 或 commit
10.4 AI 生成的代码可能有问题
AI 生成的代码可能有:
SQL 注入漏洞
XSS 风险
硬编码密钥或密码
缺少权限校验
建议:
AI 生成的代码上线前,走正常的 Code Review 流程
用你的 code-reviewer Agent 做一道安全审查
涉及用户输入、权限、数据的代码,多看一眼
11. 成本控制
Claude Code 很强大,但强大是有代价的——Token 消耗。我在 40 天里消耗了超过 10 亿 Token。这不是个小数字。
11.1 Token 消耗速度比你想象的快
消耗大户:
| 场景 | Token 消耗 | 说明 |
|---|---|---|
| 长对话(200+ 条消息) | 高 | 上下文越来越长,每次回复都要处理全部历史 |
| 大型项目探索 | 高 | AI 要读很多文件来理解项目 |
| Agent Team | 极高 | 每个 Agent 独立消耗,4 个 Agent ≈ 4 倍成本 |
上下文膨胀效应:
1 | Plain Text |
这就是为什么长对话到后期会变慢、变贵。
11.2 不同模型成本差异
Claude Code 支持切换底层模型,不同模型成本差异很大:
| 模型类型 | 成本等级 | 适合场景 |
|---|---|---|
| Claude Opus | 高 | 复杂架构设计、代码审查、深度分析 |
| Claude Sonnet | 中 | 日常开发、功能实现 |
| Claude Haiku | 低 | 简单任务、快速问答 |
| GLM 系列 | 较低 | 日常开发、写代码(性价比选择) |
建议:根据任务复杂度选择模型,不是所有任务都需要 Opus。
11.3 Agent Team 的成本放大效应
Agent Team 很强大,但成本是N 倍放大:
1 | Plain Text |
成本对比:
1 | Plain Text |
Agent Team 适合需要多角度分析的复杂任务,不是所有任务都需要。
建议:
控制 Agent 数量:2-4 个就够了,不要超过 5 个
简单任务不要用 Agent Team
11.4 省钱技巧
1 | 技巧 |
| 及时 /compact | 高 | 压缩上下文,减少后续每次调用的 token 消耗 |
| 用 subagent 干重活 | 高 | subagent 的上下文独立,不会污染主 session |
| 控制 Agent Team 规模 | 高 | 2-4 个 Agent 通常足够 |
| 简单任务用轻量模型 | 中 | Haiku 或 GLM 轻量版处理简单任务 |
| 避免重复探索 | 中 | 写好 CLAUDE.md,让 AI 一次就理解项目 |
| 长任务分段 | 中 | 与其一次 400 条消息,不如分 3 次会话 |
最重要的建议:
用 subagent 去干重活,让主 session 的 context 保持缓慢增长。
这是我最常用的策略。需要探索大量代码、读取很多文件的任务,交给 subagent(或 Agent Team)去做。主 session 只负责协调和决策,这样主 session 的上下文不会爆炸。
12. 我踩过的坑与最佳实践
1 | Plain Text |
最佳实践总结
1 | 实践 |
| 为每个项目写 CLAUDE.md | 一次投入,永久受益 |
| 用 brainstorm 开始新功能 | 写代码前先想清楚 |
| 为重复操作创建 Skill | 一次编写,反复使用 |
| 为专业分析创建 Agent | 让 AI 扮演不同角色 |
| 用文档驱动开发 | docs/ 目录记录设计、计划、审查、报告 |
| 善用 /compact 和 subagent | 长对话及时压缩,重活交给子 Agent |
| 预授权常用命令 | 减少确认弹窗的打断 |
| Agent Team 控制规模 | 2-4 个 Agent 就够了 |
| 多 Session 善用不同模型 | GLM 搬砖、Opus 设计审查,各司其职 |
彩蛋:这篇文章是怎么诞生的
你正在读的这份分享文档,本身就是一个 Claude Code 深度使用的完整案例。它不是在 Word 里一个字一个字敲出来的——而是我和 Claude Code 协作了 3 轮对话、跨 2 个 Session、AI 自动探索了 130 个历史会话、读取了 13 个 JSONL 文件的产物。
第零步:同一个 Session 的前两个话题
这篇文档诞生在一个已经很长的 Session 中。在写这篇文档之前,同一个会话里我已经完成了两个 brainstorming:
Image-to-Template 功能设计:讨论了”业务方上传效果图,AI 自动生成 Vue 模板”的可行性
渲染平台价值定位:质疑了”如果 AI + Puppeteer 就能生成 PDF,渲染平台的意义在哪儿?”
然后我突然想到:这些 Claude Code 的使用方法和工作流本身就值得分享给同事。
第一步:触发 Brainstorming
1 | Plain Text |
第二步:AI 自动探索我的全部配置(07:21-07:30)
AI 派出了 2 个并行 Agent,同时探索:
| Agent | 任务 | 读取内容 |
|---|---|---|
| Agent 1 | 探索配置文件 | settings.json、plugins/ 目录、所有 CLAUDE.md、teams/ 目录 |
| Agent 2 | 搜索历史数据 | 5 个自定义 Agent 定义、3 个 Skill 定义、stats-cache.json 使用统计 |
AI 发现了我的完整使用画像:130 个会话、22,758 条消息、7,861 次工具调用、5 个自定义 Agent、3 个自定义 Skill、10 个插件。
第三步:结构化提问(07:30-07:42)
AI 没有直接开始写,而是一次一个问题地问我:
1 | Plain Text |
从想法到确认,经过了 10 轮 Q&A,保证了我们对文档内容的预期完全对齐。
第四步:一次写完初稿(07:43-07:48)
确认后 AI 一次性写出了 966 行 的完整文档,包括所有 7 个场景的结构、代码示例、配置片段和最佳实践。5 分钟内完成,自动 git commit。
第五步:我手动编辑 + AI 润色(07:49-08:09)
我对初稿不满意的地方:删掉了 MCP Server 配置、”高级配置速查”、3 个 Agent Team 相关的”坑”(太细,听众没接触过);把”双 Session”改成了”多 Session 多模型协作”;加了”总 Token 数超 10 亿”的数据和”尽量用 subagent 去干活”的建议。手动改完后告诉 AI:”请帮我重新润色下。” AI 读取了我的修改,理解了每处变更的意图,重写了场景 7 的整个架构图和对比表。
第六步:贴真实对话案例(08:09-08:50)
我觉得文档里的示例太”干净”了,不够真实。于是让 AI 去翻我的历史对话记录——找到 sessions-index.json,定位到 13 个历史 Session 的 JSONL 文件,并行读取 5 个关键 Session(每个几千到几万行),从中提取出最有代表性的对话片段,整理成可折叠块插入到对应场景下。中途 Session 上下文耗尽,自动切换到新的 continuation session,AI 无缝接续完成了剩余 3 个场景的案例添加。
第七步:你正在读的最终版
最后我又要求丰富了 CLAUDE.md 章节、突出了 Serena 插件的价值、加了 Worktree 和 Agent-to-Agent 的介绍——以及这个”彩蛋”章节本身。
全过程数据
| 维度 | 数据 |
|---|---|
| 从想法到初稿 | 27 分钟(含 10 轮 Q&A) |
| 从初稿到终稿 | 约 1 小时(含手动编辑、润色、案例添加) |
| AI 读取的配置/源文件 | 50+ 个 |
| AI 读取的历史 JSONL 文件 | 13 个 |
| 派出的并行 Agent | 10+ 个 |
| 文档最终长度 | 1500+ 行 |
| 跨越的 Session 数 | 2 个(因上下文耗尽自动续接) |
| 使用的模型 | Claude Opus 4.6 |
这个过程本身说明了什么
AI 不是替代你写文档,是和你协作写文档——我做决策(选方案、删章节、定调性),AI 做执行(探索配置、翻历史、组织内容)
Brainstorming 流程确实有用——如果 AI 直接开始写,绝对不会是这个结构和深度
历史对话是有价值的——那些 JSONL 文件不是垃圾日志,是可以被 AI 挖掘的经验矿藏
上下文耗尽不可怕——Claude Code 的 continuation 机制让长任务可以无缝接续