最近在 Twitter 看到 Claude Code MCP 的讨论,让我想起正在使用的两个 MCP 插件。作为需要频繁审计代码的安全工程师,这两个工具确实解决了实际工作中的痛点,分享下使用体验。
痛点一:AI 生成的代码总是过时
记得用 Cursor 写以太坊合约时,需要用到 ethers 库处理链上交互。但 AI 生成的代码全是 v5 语法,而项目用的是 v6 版本。ethers 在 v6 做了大量 API 重构,方法名和调用方式全变了。
graph TD
A[需要使用 ethers 库] --> B[AI 生成代码]
B --> C[使用 v5 语法]
C --> D[运行报错]
D --> E[手动查 v6 文档]
E --> F[告诉 AI 正确写法]
F --> G[重新生成代码]
G --> H{还有错误?}
H -->|是| D
H -->|否| I[终于能用]
style D fill:#ffcccc
style E fill:#fff2cc
style I fill:#d4edda
每次都要经历这样的循环:AI 生成代码 → 运行报错 → 手动查文档 → 教 AI 正确写法 → 重新生成。当需要频繁调用不同方法时,这个过程简直让人抓狂。
直到遇到 Context7 MCP 这个救星。
Context7:实时获取最新文档
核心思路简单却高效:实时抓取官方文档最新内容,直接注入 AI 上下文。从此不再担心 AI 的”知识”过期。
graph LR
A[用户请求] --> B[Context7 MCP]
B --> C[实时抓取官方文档]
C --> D[注入到 AI 上下文]
D --> E[AI 基于最新文档生成代码]
E --> F[一次写对!]
subgraph "支持的文档源"
G[OpenZeppelin]
H[Symbiotic Protocol]
I[ethers.js]
J[React/Next.js]
K[更多...]
end
C --> G
C --> H
C --> I
C --> J
C --> K
style F fill:#d4edda
安装命令:
claude mcp add --transport http context7 https://mcp.context7.com/mcp --header "CONTEXT7_API_KEY: YOUR_API_KEY"
使用更简单: 在 prompt 里加一句 “use context7” 即可。
让人惊喜的是文档覆盖范围:除了 React/Next.js 等主流框架,连 Web3 细分领域都包含:
- OpenZeppelin Contracts:DeFi 项目必备的智能合约安全库文档
- Symbiotic Protocol:较新的共享安全协议,没想到也能支持
- 主流区块链 SDK:从 ethers 到 viem 全面覆盖
现在写相关代码基本一次通过,AI 能根据最新 API 生成准确代码,彻底告别版本错配。
痛点二:单一模型能力有限
代码审计时常需要发现潜在漏洞,实践中发现个有趣现象:
- Claude Code 写代码很”勤快”,能快速实现需求
- GPT-5 更擅长深度分析,尤其在需要逻辑推演的场景
例如审计 DeFi 合约时:
- GPT-5 能剖析经济模型,发现隐蔽攻击向量
- Claude Code 则擅长编写验证漏洞的测试用例
过去不得不在不同工具间来回切换,复制粘贴效率极低。
Zen MCP:多模型协同作战
Zen MCP 完美解决这个问题,让 Claude 能调用其他模型能力。
graph TD
A[安全代码审核任务] --> B[Claude Code + Zen MCP]
B --> C[调用 GPT-5 深度分析]
C --> D[发现潜在风险点]
B --> E[Claude Code 编写测试用例]
D --> E
E --> F[验证安全隐患]
B --> G[调用 Gemini 生成报告]
F --> G
G --> H[结构化审核报告]
subgraph "多模型协作"
I[GPT-5: 深度思考分析]
J[Claude: 代码编写执行]
K[Gemini: 文档报告生成]
end
C -.-> I
E -.-> J
G -.-> K
style H fill:#d4edda
我选择接入 OpenRouter,一次配置即可调用多模型:GPT-5、Gemini、各版本 Claude、DeepSeek 等。当然也支持单独配置各平台 API。
典型工作流:
- 深度分析:调用 GPT-5 识别代码风险点
- 漏洞验证:Claude 根据分析编写测试用例
- 报告生成:用 Gemini 输出结构化报告
这种分工让各模型发挥所长:GPT-5 负责”思考”,Claude 负责”执行”,无缝衔接。
安装配置
Option B: 即时设置(推荐)
在 ~/.claude/settings.json 或 .mcp.json 中添加以下配置:
{
"mcpServers": {
"zen": {
"command": "bash",
"args": ["-c", "for p in $(which uvx 2>/dev/null) $HOME/.local/bin/uvx /opt/homebrew/bin/uvx /usr/local/bin/uvx uvx; do [ -x \"$p\" ] && exec \"$p\" --from git+https://github.com/BeehiveInnovations/zen-mcp-server.git zen-mcp-server; done; echo 'uvx not found' >&2; exit 1"],
"env": {
"PATH": "/usr/local/bin:/usr/bin:/bin:/opt/homebrew/bin:~/.local/bin",
"OPENROUTER_API_KEY": "your-key-here",
"DISABLED_TOOLS": "analyze,refactor,testgen,secaudit,docgen,tracer",
"DEFAULT_MODEL": "auto"
}
}
}
}
配置完成后,就能在 Claude 中灵活调用各类模型。支持 OpenRouter API 或单独配置各平台 API Key。
graph LR
A[Claude Code] --> B[Zen MCP]
B --> C[OpenRouter API]
subgraph "可调用的模型"
D[GPT-5/o3]
E[Gemini Pro]
F[Claude 各版本]
G[DeepSeek]
H[其他模型...]
end
C --> D
C --> E
C --> F
C --> G
C --> H
style A fill:#e1f5fe
style C fill:#f3e5f5
实践建议
Context7 技巧:
- API Key 非必须:不配置也能用,但有 Key 可放宽速率限制
- 善用 topic 参数:聚焦特定功能时指定文档范围
- 网络问题重试:文档获取失败多因临时网络波动
Zen MCP 心得:
- 避免滥用:简单任务直接用 Claude 即可
- 明确分工:分析用 GPT-5,编码用 Claude
- 成本控制:按任务重要性选择 OpenRouter 上的模型
效果对比
| 场景 | 使用前 | 使用后 |
|---|---|---|
| API 文档查询 | 手动查文档→教 AI→重试 | “use context7”→一次成功 |
| 代码审计 | 多工具切换 | 分析→编码→报告全流程闭环 |
| 学习新技术 | 可能学到过时方案 | 实时获取最佳实践 |
| 开发效率 | 反复调试修改 | 显著减少返工 |
总结
这两个 MCP 直击核心痛点:
- Context7 根治文档过期问题
- Zen MCP 打破单模型能力局限
对于处理复杂技术栈的开发者,这俩工具堪称效率神器。它们没有花哨噱头,却实实在在地提升了开发体验。
如果你也在用 Claude,强烈建议试试这两个 MCP,相信你会拍腿感叹:”怎么没早点用!”
相关资源: