基本能力
产品定位
Shared Knowledge MCP Server 是一个为多种AI助手提供共享知识库的服务器,支持高效的信息检索和利用。
核心功能
- 支持多个AI助手间共享知识库
- 利用RAG技术实现高精度信息检索
- TypeScript实现的类型安全
- 支持多种向量存储(HNSWLib, Chroma, Pinecone, Milvus, Weaviate)
- 抽象化接口提供高扩展性
适用场景
- 多AI助手间的知识共享
- 高效信息检索和利用
- 开发环境中的知识管理
工具列表
- rag_search: 用于从知识库中检索信息,支持多种过滤和包含选项。
常见问题解答
- 需要配置OPENAI_API_KEY和KNOWLEDGE_BASE_PATH环境变量
- 支持多种向量存储,需根据需求选择并配置
使用教程
使用依赖
- Node.js环境
- Git
安装教程
bash
git clone https://github.com/yourusername/shared-knowledge-mcp.git
cd shared-knowledge-mcp
npm install
调试方式
- 开发模式启动:
npm run dev
- 生产环境启动:
npm start
- 构建项目:
npm run build
配置示例
- VSCode配置示例见README
- Pinecone配置示例见README
- Weaviate配置示例见README
仕組み
- 读取指定目录的Markdown和文本文件
- 分割文档并使用OpenAI API向量化
- 使用选择的向量存储创建索引
- 返回与查询相似的文档
支持的向量存储
- HNSWLib
- Chroma
- Pinecone
- Milvus
- Weaviate
环境变量配置
| 环境变量 | 描述 | 默认值 |
|----------|------|--------|
| KNOWLEDGE_BASE_PATH | 知识库路径 | - |
| OPENAI_API_KEY | OpenAI API密钥 | - |
| SIMILARITY_THRESHOLD | 相似度阈值 | 0.7 |
| CHUNK_SIZE | 文本分块大小 | 1000 |
| CHUNK_OVERLAP | 分块重叠大小 | 200 |
| VECTOR_STORE_TYPE | 向量存储类型 | "hnswlib" |
| VECTOR_STORE_CONFIG | 向量存储配置 | {} |