Deepseek Thinker MCP Server - MCP服务,MCP服务器,MCP教程

基本能力

产品定位

Deepseek Thinker MCP Server 是一个为AI客户端提供Deepseek模型推理内容的服务,旨在增强AI客户端的推理和思考能力。

核心功能

  • 双模式支持:支持OpenAI API模式和Ollama本地模式。
  • 专注推理:捕获Deepseek的思考过程并提供推理输出。

适用场景

  • 需要增强AI客户端推理能力的场景。
  • 需要本地化运行Deepseek模型的场景。

工具列表

  • get-deepseek-thinker
  • 描述:使用Deepseek模型进行推理。
  • 输入参数originPrompt(字符串,用户的原始提示)。
  • 返回:包含推理过程的结构化文本响应。

常见问题解答

  • 错误提示:"MCP error -32001: Request timed out"
  • 原因:Deepseek API响应过慢或推理内容输出过长导致MCP服务器超时。

使用教程

使用依赖

  • OpenAI API模式
    bash
    API_KEY=<Your OpenAI API Key>
    BASE_URL=<API Base URL>
  • Ollama模式
    bash
    USE_OLLAMA=true

安装教程

  1. 安装依赖:
    bash
    npm install
  2. 构建项目:
    bash
    npm run build
  3. 运行服务:
    bash
    node build/index.js

调试方式

  • 检查环境变量是否正确设置。
  • 确保API密钥和基础URL有效。
  • 检查服务日志以排查错误。

点击访问

搜索工具

Dart MCP Server - MCP服务,MCP服务器,MCP教程

2025-4-29 12:26:43

搜索工具

Radare2 MCP Server - MCP服务,MCP服务器,MCP教程

2025-4-29 12:26:51

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索