Shared Knowledge MCP Server - MCP服务,MCP服务器,MCP教程

基本能力

产品定位

Shared Knowledge MCP Server 是一个为多种AI助手提供共享知识库的服务器,支持高效的信息检索和利用。

核心功能

  • 支持多个AI助手间共享知识库
  • 利用RAG技术实现高精度信息检索
  • TypeScript实现的类型安全
  • 支持多种向量存储(HNSWLib, Chroma, Pinecone, Milvus, Weaviate)
  • 抽象化接口提供高扩展性

适用场景

  • 多AI助手间的知识共享
  • 高效信息检索和利用
  • 开发环境中的知识管理

工具列表

  • rag_search: 用于从知识库中检索信息,支持多种过滤和包含选项。

常见问题解答

  • 需要配置OPENAI_API_KEY和KNOWLEDGE_BASE_PATH环境变量
  • 支持多种向量存储,需根据需求选择并配置

使用教程

使用依赖

  • Node.js环境
  • Git

安装教程

bash
git clone https://github.com/yourusername/shared-knowledge-mcp.git
cd shared-knowledge-mcp
npm install

调试方式

  • 开发模式启动: npm run dev
  • 生产环境启动: npm start
  • 构建项目: npm run build

配置示例

  • VSCode配置示例见README
  • Pinecone配置示例见README
  • Weaviate配置示例见README

仕組み

  1. 读取指定目录的Markdown和文本文件
  2. 分割文档并使用OpenAI API向量化
  3. 使用选择的向量存储创建索引
  4. 返回与查询相似的文档

支持的向量存储

  • HNSWLib
  • Chroma
  • Pinecone
  • Milvus
  • Weaviate

环境变量配置

| 环境变量 | 描述 | 默认值 |
|----------|------|--------|
| KNOWLEDGE_BASE_PATH | 知识库路径 | - |
| OPENAI_API_KEY | OpenAI API密钥 | - |
| SIMILARITY_THRESHOLD | 相似度阈值 | 0.7 |
| CHUNK_SIZE | 文本分块大小 | 1000 |
| CHUNK_OVERLAP | 分块重叠大小 | 200 |
| VECTOR_STORE_TYPE | 向量存储类型 | "hnswlib" |
| VECTOR_STORE_CONFIG | 向量存储配置 | {} |

点击访问

搜索工具

fastify-mcp - MCP服务,MCP服务器,MCP教程

2025-4-29 16:58:45

搜索工具

Unity MCP with Ollama Integration - MCP服务,MCP服务器,MCP教程

2025-4-29 16:58:52

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索