基本能力
产品定位
Deepseek Thinker MCP Server 是一个为AI客户端提供Deepseek模型推理内容的服务,旨在增强AI客户端的推理和思考能力。
核心功能
- 双模式支持:支持OpenAI API模式和Ollama本地模式。
- 专注推理:捕获Deepseek的思考过程并提供推理输出。
适用场景
- 需要增强AI客户端推理能力的场景。
- 需要本地化运行Deepseek模型的场景。
工具列表
- get-deepseek-thinker:
- 描述:使用Deepseek模型进行推理。
- 输入参数:
originPrompt
(字符串,用户的原始提示)。 - 返回:包含推理过程的结构化文本响应。
常见问题解答
- 错误提示:"MCP error -32001: Request timed out"
- 原因:Deepseek API响应过慢或推理内容输出过长导致MCP服务器超时。
使用教程
使用依赖
- OpenAI API模式:
bash
API_KEY=<Your OpenAI API Key>
BASE_URL=<API Base URL> - Ollama模式:
bash
USE_OLLAMA=true
安装教程
- 安装依赖:
bash
npm install - 构建项目:
bash
npm run build - 运行服务:
bash
node build/index.js
调试方式
- 检查环境变量是否正确设置。
- 确保API密钥和基础URL有效。
- 检查服务日志以排查错误。