基本能力
产品定位
MCP Code Expert System 是一个代码审查工具,旨在通过模拟专家角色提供高质量的代码审查和建议。
核心功能
- 基于Martin Fowler的重构原则进行代码审查
- 基于Robert C. Martin的Clean Code原则进行代码审查
- 知识图谱存储代码、审查和关系
- 与Ollama集成进行AI驱动的代码审查
- 支持服务器端事件(SSE)以便于Web集成
适用场景
- 开发者在编写代码时需要即时反馈和建议
- 团队希望提高代码质量和一致性
- 需要存储和检索代码审查历史
工具列表
ask_martin
: 请求Martin Fowler审查代码并提出重构建议ask_bob
: 请求Robert C. Martin(Uncle Bob)基于Clean Code原则审查代码read_graph
: 读取整个知识图谱search_nodes
: 在知识图谱中搜索节点open_nodes
: 通过名称打开特定节点
常见问题解答
- 如何安装Ollama?
根据操作系统不同,安装方法不同。macOS用户可以直接下载,Linux用户可以通过脚本安装,Windows用户需要通过WSL2安装。 - 如何启动服务器?
可以通过标准模式或HTTP/SSE模式启动服务器,具体命令见安装教程。
使用教程
使用依赖
- Python 3.10+
确保系统已安装Python 3.10或更高版本。 - Ollama
- 安装Ollama:
- macOS: 从ollama.com下载
- Linux:
curl -fsSL https://ollama.com/install.sh | sh
- Windows: 通过WSL2使用Linux指令安装
- 拉取推荐模型:
bash
ollama pull llama3:8b - 启动Ollama服务器:
bash
ollama serve
安装教程
- 运行安装脚本:
bash
chmod +x setup.sh
./setup.sh - 配置环境变量:
编辑.env
文件(如果不存在,从.env.example
创建):
```
# Knowledge Graph Settings
KNOWLEDGE_GRAPH_PATH=data/knowledge_graph.json
# Ollama Configuration (local AI models)
OLLAMA_HOST=http://localhost:11434
OLLAMA_MODEL=llama3:8b
```
调试方式
- 标准模式(用于Cursor集成)
bash
source .venv/bin/activate
python server.py - HTTP/SSE模式(用于Web集成)
bash
source .venv/bin/activate
python server.py --transport sse
服务器将在http://localhost:8000/sse
启动。
自定义端口:
bash
python server.py --transport sse --port 9000 - 在Cursor IDE中安装
bash
source .venv/bin/activate
mcp install server.py --name "Code Expert System"