claude-code/docs/introduction/why-this-whitepaper.mdx
2026-04-01 14:44:21 +08:00

121 lines
5.6 KiB
Plaintext
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

---
title: "为什么写这份白皮书"
description: "对 Anthropic 官方 CLI 的逆向工程分析——不是官方文档"
---
## 这份白皮书是什么
这是对 Anthropic 官方发布的 **Claude Code CLI** 的**逆向工程分析**。
源码经过反编译处理TypeScript 单文件 bundle 逆向),保留了核心功能模块,但包含大量 `unknown`/`never`/`{}` 类型错误——这些不影响 Bun 运行时执行,但意味着我们的分析基于运行时行为 + 残留源码结构,而非原始源码。
**这不是:**
- 官方文档或使用教程
- API 参考手册
- Claude Code 的功能推销
**这是:**
- 一个生产级 agentic system 的架构解构
- 每个设计决策背后的"为什么"
- 可复用的工程模式agentic loop、工具抽象、上下文工程、安全纵深防御
## 逆向过程中最精妙的设计决策
### 1. Agentic Loop 的自愈能力
`src/query.ts` 实现的核心循环不是简单的"发请求→收响应"。它是一个**自愈的状态机**
- API 返回错误限流、token 超限)→ 自动重试/降级
- 工具执行超时 → 后台化 + 通知机制
- 对话过长触发 compaction → 压缩历史后无缝继续
- 用户中断 → 生成 `UserInterruptionMessage` 让 AI 理解发生了什么
这不是"if-else 堆叠",而是让 AI 自己根据上下文决定下一步——即使发生了意外。
### 2. 上下文工程的分层策略
AI 没有真正的"记忆"Claude Code 通过精心分层营造了这个幻觉:
| 层 | 机制 | 持久性 |
|----|------|--------|
| **System Prompt** | 项目结构、git 状态、CLAUDE.md | 每轮重建 |
| **对话历史** | 完整的 User/Assistant/Tool 消息 | 会话内 |
| **Compaction** | 自动压缩过长对话为摘要 | 压缩后替代原始消息 |
| **Memory 文件** | 跨会话持久化的笔记 | 永久(用户可控) |
| **File History** | 文件修改时间戳快照 | 会话内 |
`src/context.ts` 组装 System Prompt 时的策略是:**不变内容在前、变化内容在后**——这利用了 API 的缓存机制,前缀不变时可以复用缓存 token。
### 3. 工具系统的权限双轨制
`src/tools/BashTool/shouldUseSandbox.ts` 展示了一个精巧的双重安全模型:
- **应用层**:权限规则决定"能不能执行"(白名单/黑名单/用户确认)
- **OS 层**:沙箱决定"执行时能做什么"(文件系统/网络/进程隔离)
两层的信任假设不同应用层信任用户配置OS 层不信任任何东西。即使 AI 绕过了应用层权限理论上不可能但纵深防御OS 层沙箱仍然限制实际危害。
### 4. Feature Flag 的全局开关
`src/entrypoints/cli.tsx` 中一行代码决定了整个系统的行为:
```typescript
const feature = (_name: string) => false;
```
所有 `feature('FLAG_NAME')` 调用返回 `false`——这意味着 Anthropic 内部的实验功能COORDINATOR_MODE、KAIROS、PROACTIVE 等)全部禁用。在官方构建中,这些 flag 通过 Bun 的 `bun:bundle` 在编译时注入,不同用户群体看到不同功能。
这是一个**渐进式发布架构**:同一个代码库,通过 feature flag 控制功能可见性,而不需要维护多个分支。
### 5. Compaction 的分档策略
`src/services/compact/` 实现了三种压缩策略:
- **Micro-compact**:单次工具输出过长时,截断结果
- **Auto-compact**:对话 token 接近上限时,自动压缩历史
- **Reactive-compact**API 返回 token 超限错误时,紧急压缩后重试
这不是简单的"砍掉旧消息"——而是用 AI 自身来总结之前的对话,保留语义信息。压缩后插入一条 `TombstoneMessage` 标记边界。
## 阅读路线图
推荐的阅读顺序,每章解决一个核心问题:
```
什么是 Claude Code (你在读的) ← 建立直觉
├── 架构全景 ← 五层架构 + 数据流
├── 安全体系 ← 信任与控制
│ ├── 权限模型 ← 应用层安全
│ ├── 沙箱机制 ← OS 层安全
│ └── Plan Mode ← 用户主导模式
├── 对话引擎 ← AI 如何思考
│ ├── Agentic Loop ← 核心循环
│ ├── 流式响应 ← 实时通信
│ └── 多轮对话 ← 上下文管理
├── 上下文工程 ← 记忆与预算
│ ├── System Prompt ← 上下文组装
│ ├── Token 预算 ← 预算管理
│ └── 项目记忆 ← 跨会话持久化
├── 工具系统 ← AI 的双手
│ ├── 工具概览 ← 统一接口
│ ├── Shell 执行 ← Bash 工具
│ └── 搜索与导航 ← Glob/Grep
└── Agent 与扩展 ← 能力扩展
├── 子 Agent ← 并行任务
├── 自定义 Agent ← 用户定义
└── MCP 协议 ← 外部工具接入
```
## 适合谁读
- **AI Agent 开发者**:想理解生产级 agentic system 的架构模式
- **安全工程师**:对 AI 操作真实环境时的信任模型感兴趣
- **工具构建者**:正在构建类似的 coding assistant 或 CLI 工具
- **好奇心驱动的开发者**:想知道"AI 编程助手到底怎么工作的"