Unity MCP with Ollama Integration - MCP服务,MCP服务器,MCP教程

基本能力

产品定位

Unity MCP with Ollama Integration 旨在为 Unity 开发者提供一个本地化的 LLM 集成解决方案,用于自动化 Unity 编辑器的工作流程和资产管理。

核心功能

  • 资产管理:通过程序创建、导入和操作 Unity 资产
  • 场景控制:管理场景、对象及其属性
  • 材质编辑:修改材质及其属性
  • 脚本集成:查看、创建和更新 Unity 脚本
  • 编辑器自动化:控制 Unity 编辑器功能,如撤销、重做、播放和构建

适用场景

  • 自动化 Unity 编辑器的工作流程
  • 通过自然语言指令操作 Unity 资产和场景
  • 本地化 LLM 集成,无需互联网连接或 API 密钥

工具列表

  • Ollama:用于运行本地 LLM 的框架
  • Python MCP Server:提供 Unity 与 LLM 之间的通信桥梁
  • Unity MCP Editor Window:Unity 编辑器中的界面,用于配置和与 LLM 交互

常见问题解答

  1. Python 服务器未连接:确保 Python 服务器正在运行,检查 Python 控制台中的错误
  2. 找不到 Unity MCP 菜单:确保编辑器脚本已正确导入项目,检查 Unity 控制台中的错误
  3. Ollama 连接问题:确保 Ollama 正在运行,模型已正确拉取,防火墙未阻止端口 11434
  4. MCP 命令执行失败:检查 Python 控制台中的详细错误消息,确保 Unity Bridge 正在运行

使用教程

使用依赖

  • Unity 2020.3 LTS 或更新版本
  • Python 3.10 或更新版本
  • Ollama 安装在系统上
  • 拉取支持的 LLM 模型:
    bash
    ollama pull deepseek-r1:14b
    ollama pull gemma3:12b

安装教程

  1. 下载并安装编辑器脚本
    bash
    git clone https://github.com/ZundamonnoVRChatkaisetu/unity-mcp-ollama.git
    mkdir Assets/UnityMCPOllama
    cp -r unity-mcp-ollama/Editor Assets/UnityMCPOllama/Editor
  2. 设置 Python 环境
    bash
    mkdir PythonMCP
    cd PythonMCP
    python -m venv venv
    source venv/bin/activate # macOS/Linux
    venv\Scripts\activate # Windows
    cd Python
    pip install -e .
  3. 配置 Ollama
    bash
    ollama serve

调试方式

  1. 启动 Unity Bridge:在 Unity 中打开 Window > Unity MCP,点击 Start Bridge
  2. 启动 Python 服务器
    bash
    cd PythonMCP/Python
    python server.py
  3. 配置 Ollama 设置:在 Unity MCP 窗口中配置 Ollama 的主机、端口和模型
  4. 使用聊天界面:在 Unity MCP 窗口中输入指令并发送

性能考虑

  • deepseek-r1:14b:推荐至少 12GB VRAM
  • gemma3:12b:推荐至少 10GB VRAM
  • CPU 操作可能但速度显著较慢

点击访问

搜索工具

Shared Knowledge MCP Server - MCP服务,MCP服务器,MCP教程

2025-4-29 16:58:48

搜索工具

🛡MobSF MCP Tool - MCP服务,MCP服务器,MCP教程

2025-4-29 16:58:57

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索