基本能力
产品定位
mcp-server-ragdocs 是一个文档检索与处理服务,通过向量搜索技术为 AI 助手提供相关文档上下文,增强其响应能力。
核心功能
- 基于向量的文档搜索与检索
- 支持多种文档来源
- 支持本地(Ollama)或 OpenAI 的嵌入生成
- 语义搜索能力
- 自动化文档处理
- 实时上下文增强
适用场景
- 增强 AI 响应,提供相关文档支持
- 构建具备文档意识的 AI 助手
- 为开发者创建上下文感知工具
- 实现语义文档搜索
- 扩展现有知识库
工具列表
- search_documentation:通过自然语言查询搜索存储的文档,返回相关片段。
-
输入:
query
(字符串),limit
(可选,数字) -
list_sources:列出系统中当前存储的所有文档来源。
-
extract_urls:从给定网页提取并分析所有 URL。
-
输入:
url
(字符串),add_to_queue
(可选,布尔值) -
remove_documentation:通过 URL 从系统中删除特定文档来源。
-
输入:
urls
(字符串数组) -
list_queue:列出文档处理队列中当前等待的所有 URL。
-
run_queue:处理和索引文档队列中的所有 URL。
-
clear_queue:从文档处理队列中删除所有待处理的 URL。
常见问题解答
-
如何配置 OpenAI 嵌入生成?
设置EMBEDDINGS_PROVIDER
为openai
并提供OPENAI_API_KEY
。 -
如何配置本地 Ollama 嵌入生成?
设置EMBEDDINGS_PROVIDER
为ollama
并提供OLLAMA_BASE_URL
。 -
如何部署到云端?
使用托管的 Qdrant Cloud 服务并设置QDRANT_URL
和QDRANT_API_KEY
。
使用教程
使用依赖
-
安装 Ollama(用于本地嵌入生成):
bash
curl -fsSL https://ollama.com/install.sh | sh -
下载 nomic-embed-text 模型:
bash
ollama pull nomic-embed-text -
验证安装:
bash
ollama list
安装教程
-
使用 npm 安装:
bash
npx -y @sanderkooger/mcp-server-ragdocs -
配置环境变量(参考配置部分)。
调试方式
-
启动本地开发环境(使用 Docker Compose):
bash
docker compose up -d -
访问端点:
- Qdrant: http://localhost:6333
-
Ollama: http://localhost:11434
-
使用工具进行测试(如
search_documentation
)。