基本能力
产品定位
Unity MCP with Ollama Integration 旨在为 Unity 开发者提供一个本地化的 LLM 集成解决方案,用于自动化 Unity 编辑器的工作流程和资产管理。
核心功能
- 资产管理:通过程序创建、导入和操作 Unity 资产
- 场景控制:管理场景、对象及其属性
- 材质编辑:修改材质及其属性
- 脚本集成:查看、创建和更新 Unity 脚本
- 编辑器自动化:控制 Unity 编辑器功能,如撤销、重做、播放和构建
适用场景
- 自动化 Unity 编辑器的工作流程
- 通过自然语言指令操作 Unity 资产和场景
- 本地化 LLM 集成,无需互联网连接或 API 密钥
工具列表
- Ollama:用于运行本地 LLM 的框架
- Python MCP Server:提供 Unity 与 LLM 之间的通信桥梁
- Unity MCP Editor Window:Unity 编辑器中的界面,用于配置和与 LLM 交互
常见问题解答
- Python 服务器未连接:确保 Python 服务器正在运行,检查 Python 控制台中的错误
- 找不到 Unity MCP 菜单:确保编辑器脚本已正确导入项目,检查 Unity 控制台中的错误
- Ollama 连接问题:确保 Ollama 正在运行,模型已正确拉取,防火墙未阻止端口 11434
- MCP 命令执行失败:检查 Python 控制台中的详细错误消息,确保 Unity Bridge 正在运行
使用教程
使用依赖
- Unity 2020.3 LTS 或更新版本
- Python 3.10 或更新版本
- Ollama 安装在系统上
- 拉取支持的 LLM 模型:
bash
ollama pull deepseek-r1:14b
ollama pull gemma3:12b
安装教程
- 下载并安装编辑器脚本
bash
git clone https://github.com/ZundamonnoVRChatkaisetu/unity-mcp-ollama.git
mkdir Assets/UnityMCPOllama
cp -r unity-mcp-ollama/Editor Assets/UnityMCPOllama/Editor - 设置 Python 环境
bash
mkdir PythonMCP
cd PythonMCP
python -m venv venv
source venv/bin/activate # macOS/Linux
venv\Scripts\activate # Windows
cd Python
pip install -e . - 配置 Ollama
bash
ollama serve
调试方式
- 启动 Unity Bridge:在 Unity 中打开
Window > Unity MCP
,点击 Start Bridge - 启动 Python 服务器:
bash
cd PythonMCP/Python
python server.py - 配置 Ollama 设置:在 Unity MCP 窗口中配置 Ollama 的主机、端口和模型
- 使用聊天界面:在 Unity MCP 窗口中输入指令并发送
性能考虑
- deepseek-r1:14b:推荐至少 12GB VRAM
- gemma3:12b:推荐至少 10GB VRAM
- CPU 操作可能但速度显著较慢