基本能力
产品定位
Multi-Model Advisor 旨在通过整合多个 AI 模型的响应,为用户提供更全面、多样化的建议和答案。
核心功能
- 查询多个 Ollama 模型以获取单一问题的答案
- 为每个模型分配不同的角色/人格
- 查看系统上所有可用的 Ollama 模型
- 为每个模型定制系统提示
- 通过环境变量进行配置
- 与 Claude for Desktop 无缝集成
适用场景
- 需要多角度分析的问题
- 需要综合不同 AI 模型观点的决策支持
- 需要多样化创意的场景
工具列表
list-available-models
: 显示系统上所有可用的 Ollama 模型query-models
: 向多个模型发送查询问题
常见问题解答
- Ollama 连接问题
- 确保 Ollama 正在运行 (
ollama serve
) - 检查 .env 文件中的 OLLAMA_API_URL 是否正确
-
尝试在浏览器中访问 http://localhost:11434 验证 Ollama 是否响应
-
模型未找到
- 检查是否已使用
ollama pull <model-name>
拉取模型 - 使用
ollama list
验证确切的模型名称 -
使用
list-available-models
工具查看所有可用模型 -
Claude 未显示 MCP 工具
- 确保在更新配置后已重启 Claude
- 检查 claude_desktop_config.json 中的绝对路径是否正确
-
查看 Claude 的日志以获取错误消息
-
内存不足
- 尝试指定较小的模型(参见基本用法)
- 考虑升级内存
使用教程
使用依赖
- Node.js 16.x 或更高版本
- 已安装并运行的 Ollama(参见 Ollama 安装)
- Claude for Desktop(用于完整的顾问体验)
安装教程
通过 Smithery 安装
bash
npx -y @smithery/cli install @YuChenSSR/multi-ai-advisor-mcp --client claude
手动安装
-
克隆仓库:
bash
git clone https://github.com/YuChenSSR/multi-ai-advisor-mcp.git
cd multi-ai-advisor-mcp -
安装依赖:
bash
npm install -
构建项目:
bash
npm run build -
安装所需的 Ollama 模型:
bash
ollama pull gemma3:1b
ollama pull llama3.2:1b
ollama pull deepseek-r1:1.5b
调试方式
- 创建并配置
.env
文件 - 连接到 Claude for Desktop
- 使用
list-available-models
工具检查可用模型 - 使用
query-models
工具测试多模型查询功能