Multi-Model Advisor - MCP服务,MCP服务器,MCP教程

基本能力

产品定位

Multi-Model Advisor 旨在通过整合多个 AI 模型的响应,为用户提供更全面、多样化的建议和答案。

核心功能

  • 查询多个 Ollama 模型以获取单一问题的答案
  • 为每个模型分配不同的角色/人格
  • 查看系统上所有可用的 Ollama 模型
  • 为每个模型定制系统提示
  • 通过环境变量进行配置
  • 与 Claude for Desktop 无缝集成

适用场景

  • 需要多角度分析的问题
  • 需要综合不同 AI 模型观点的决策支持
  • 需要多样化创意的场景

工具列表

  1. list-available-models: 显示系统上所有可用的 Ollama 模型
  2. query-models: 向多个模型发送查询问题

常见问题解答

  1. Ollama 连接问题
  2. 确保 Ollama 正在运行 (ollama serve)
  3. 检查 .env 文件中的 OLLAMA_API_URL 是否正确
  4. 尝试在浏览器中访问 http://localhost:11434 验证 Ollama 是否响应

  5. 模型未找到

  6. 检查是否已使用 ollama pull <model-name> 拉取模型
  7. 使用 ollama list 验证确切的模型名称
  8. 使用 list-available-models 工具查看所有可用模型

  9. Claude 未显示 MCP 工具

  10. 确保在更新配置后已重启 Claude
  11. 检查 claude_desktop_config.json 中的绝对路径是否正确
  12. 查看 Claude 的日志以获取错误消息

  13. 内存不足

  14. 尝试指定较小的模型(参见基本用法)
  15. 考虑升级内存

使用教程

使用依赖

  • Node.js 16.x 或更高版本
  • 已安装并运行的 Ollama(参见 Ollama 安装
  • Claude for Desktop(用于完整的顾问体验)

安装教程

通过 Smithery 安装

bash
npx -y @smithery/cli install @YuChenSSR/multi-ai-advisor-mcp --client claude

手动安装
  1. 克隆仓库:
    bash
    git clone https://github.com/YuChenSSR/multi-ai-advisor-mcp.git
    cd multi-ai-advisor-mcp

  2. 安装依赖:
    bash
    npm install

  3. 构建项目:
    bash
    npm run build

  4. 安装所需的 Ollama 模型:
    bash
    ollama pull gemma3:1b
    ollama pull llama3.2:1b
    ollama pull deepseek-r1:1.5b

调试方式

  1. 创建并配置 .env 文件
  2. 连接到 Claude for Desktop
  3. 使用 list-available-models 工具检查可用模型
  4. 使用 query-models 工具测试多模型查询功能

点击访问

搜索工具

MCP Azure DevOps Server - MCP服务,MCP服务器,MCP教程

2025-4-29 12:35:17

搜索工具

Maton Agent Toolkit - MCP服务,MCP服务器,MCP教程

2025-4-29 12:35:27

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索