MCP-server-ragdocs - MCP服务,MCP服务器,MCP教程

基本能力

产品定位

mcp-server-ragdocs 是一个文档检索与处理服务,通过向量搜索技术为 AI 助手提供相关文档上下文,增强其响应能力。

核心功能

  • 基于向量的文档搜索与检索
  • 支持多种文档来源
  • 支持本地(Ollama)或 OpenAI 的嵌入生成
  • 语义搜索能力
  • 自动化文档处理
  • 实时上下文增强

适用场景

  • 增强 AI 响应,提供相关文档支持
  • 构建具备文档意识的 AI 助手
  • 为开发者创建上下文感知工具
  • 实现语义文档搜索
  • 扩展现有知识库

工具列表

  1. search_documentation:通过自然语言查询搜索存储的文档,返回相关片段。
  2. 输入:query(字符串),limit(可选,数字)

  3. list_sources:列出系统中当前存储的所有文档来源。

  4. extract_urls:从给定网页提取并分析所有 URL。

  5. 输入:url(字符串),add_to_queue(可选,布尔值)

  6. remove_documentation:通过 URL 从系统中删除特定文档来源。

  7. 输入:urls(字符串数组)

  8. list_queue:列出文档处理队列中当前等待的所有 URL。

  9. run_queue:处理和索引文档队列中的所有 URL。

  10. clear_queue:从文档处理队列中删除所有待处理的 URL。

常见问题解答

  • 如何配置 OpenAI 嵌入生成?
    设置 EMBEDDINGS_PROVIDERopenai 并提供 OPENAI_API_KEY

  • 如何配置本地 Ollama 嵌入生成?
    设置 EMBEDDINGS_PROVIDERollama 并提供 OLLAMA_BASE_URL

  • 如何部署到云端?
    使用托管的 Qdrant Cloud 服务并设置 QDRANT_URLQDRANT_API_KEY

使用教程

使用依赖

  1. 安装 Ollama(用于本地嵌入生成):
    bash
    curl -fsSL https://ollama.com/install.sh | sh

  2. 下载 nomic-embed-text 模型:
    bash
    ollama pull nomic-embed-text

  3. 验证安装:
    bash
    ollama list

安装教程

  1. 使用 npm 安装:
    bash
    npx -y @sanderkooger/mcp-server-ragdocs

  2. 配置环境变量(参考配置部分)。

调试方式

  1. 启动本地开发环境(使用 Docker Compose):
    bash
    docker compose up -d

  2. 访问端点:

  3. Qdrant: http://localhost:6333
  4. Ollama: http://localhost:11434

  5. 使用工具进行测试(如 search_documentation)。

点击访问

搜索工具

OpenAPI to MCP Generator - MCP服务,MCP服务器,MCP教程

2025-4-29 15:58:47

搜索工具

🎥 Demo - MCP服务,MCP服务器,MCP教程

2025-4-29 15:58:54

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索