基本能力
产品定位
Minima是一个开源的RAG(检索增强生成)本地容器化解决方案,旨在为用户提供安全、高效的本地文档搜索和问答功能。
核心功能
- 完全本地化运行:所有神经网络(LLM、reranker、embedding)均在本地运行,无需依赖外部服务。
- 与ChatGPT集成:通过自定义GPT模式,用户可以使用ChatGPT查询本地文档。
- 与Anthropic Claude集成:通过Anthropic Claude应用查询本地文档。
- 支持多种文件格式:包括.pdf、.xls、.docx、.txt、.md、.csv等。
- 灵活的配置:支持多种嵌入模型和重排序模型,用户可以根据需求自定义。
适用场景
- 本地文档搜索:用户可以在本地环境中快速搜索和查询文档内容。
- 安全数据查询:适用于对数据安全性要求较高的场景,所有数据处理均在本地完成。
- 与大型语言模型集成:用户可以通过ChatGPT或Claude等LLM增强本地文档的查询能力。
工具列表
- Docker Compose:用于容器化部署Minima。
- Ollama:用于本地运行LLM模型。
- Qdrant:用于向量存储和检索。
- Smithery:用于自动化安装和配置Minima。
常见问题解答
- 如何配置.env文件:确保包含必要的环境变量,如LOCAL_FILES_PATH、EMBEDDING_MODEL_ID等。
- 如何运行完全本地化安装:使用
docker compose -f docker-compose-ollama.yml --env-file .env up --build
命令。 - 如何与ChatGPT集成:使用
docker compose -f docker-compose-chatgpt.yml --env-file .env up --build
命令,并复制OTP到Minima GPT。 - 如何与Claude集成:修改
claude_desktop_config.json
文件并添加Minima配置。
使用教程
使用依赖
- Docker:确保已安装Docker和Docker Compose。
- Python:确保Python版本≥3.10,并安装
uv
。
安装教程
- 创建.env文件:在项目根目录创建.env文件,并复制env.sample中的变量。
- 完全本地化安装:运行
docker compose -f docker-compose-ollama.yml --env-file .env up --build
。 - ChatGPT集成安装:运行
docker compose -f docker-compose-chatgpt.yml --env-file .env up --build
。 - MCP集成安装:运行
docker compose -f docker-compose-mcp.yml --env-file .env up --build
。 - 通过Smithery安装:运行
npx -y @smithery/cli install minima --client claude
。
调试方式
- 访问本地UI:导航至
http://localhost:3000
。 - 检查日志:查看Docker容器的日志以排查问题。
- 验证配置:确保.env文件中的变量配置正确。