基本能力
产品定位
MCP-Mem0 是一个为 AI 代理提供长期记忆能力的服务,通过语义搜索增强 AI 的上下文理解能力。
核心功能
save_memory
: 存储信息到长期记忆,并进行语义索引。get_all_memories
: 检索所有存储的记忆,提供全面的上下文。search_memories
: 使用语义搜索查找相关记忆。
适用场景
- AI 代理需要长期记忆能力的场景。
- 需要增强 AI 上下文理解的应用程序。
- 构建自定义 MCP 服务器的开发场景。
工具列表
save_memory
: 存储信息到长期记忆。get_all_memories
: 检索所有记忆。search_memories
: 语义搜索记忆。
常见问题解答
- 如何配置环境变量? 在
.env
文件中配置相关变量,如TRANSPORT
,LLM_PROVIDER
,DATABASE_URL
等。 - 如何运行服务器? 可以通过
uv
或Docker
运行,具体命令见安装教程。
使用教程
使用依赖
- Python 3.12+
- Supabase 或 PostgreSQL 数据库
- LLM 提供商的 API 密钥(OpenAI, OpenRouter, 或 Ollama)
- Docker(推荐)
安装教程
使用 uv
- 安装 uv:
bash
pip install uv - 克隆仓库:
bash
git clone https://github.com/coleam00/mcp-mem0.git
cd mcp-mem0 - 安装依赖:
bash
uv pip install -e . - 创建
.env
文件:
bash
cp .env.example .env - 配置
.env
文件。
使用 Docker
- 构建 Docker 镜像:
bash
docker build -t mcp/mem0 --build-arg PORT=8050 . - 创建并配置
.env
文件。
调试方式
SSE Transport
bash
uv run src/main.py
或
bash
docker run --env-file .env -p:8050:8050 mcp/mem0
Stdio Transport
无需额外命令,MCP 客户端会自动启动服务器。