MCP Research Router - Intelligent tool selection and parallel execution for research tasks
npm install mcp-research-router你是否遇到过这些问题?
- 有多个 MCP 服务器,每次都要逐个添加到客户端,很麻烦?
- 工具太多,不知道该用哪个?
- 需要同时调用多个工具,但只能一个一个来?
MCP Research Router 就是为你准备的。
它是一个 MCP 聚合器和智能路由器,帮你:
- ✅ 一次连接,访问所有 MCP 服务器
- ✅ 自动推荐最适合的工具
- ✅ 批量并行执行,性能提升 3-5 倍
- 有多个 MCP 服务器需要统一管理
- 工具数量多,不知道该用哪个
- 需要批量调用多个工具
- 想通过 LLM 智能推荐工具
- 只有一个 MCP 服务器
- 工具数量少,能直接选择
- 不需要智能推荐功能
如果你的客户端已经支持添加多个 MCP,并且你只有少量工具,那么你不需要这个工具。
聚合多个 MCP 服务器,一次连接即可访问所有工具。无需在每个客户端中逐个添加。
根据你的需求,通过 LLM 自动推荐最合适的工具。不用再翻阅长长的工具列表。
同时调用多个相关工具,性能提升 3-5 倍。适合需要综合多个工具结果的场景。
``bash`
npm install -g mcp-research-router或直接运行
npx mcp-research-router
推荐:使用环境变量
在 MCP 客户端中添加环境变量:
``
MCP_LLM_ENABLED=true
MCP_LLM_API_KEY=your-api-key-here
MCP_LLM_BASE_URL=https://open.bigmodel.cn/api/paas/v4
MCP_LLM_MODEL=glm-4.7-flash
MCP_SERVER_URL=http://127.0.0.1:3000/mcp/your-group-id
编辑配置文件(适用于 Claude Desktop、Cursor 等支持 MCP 的客户端):
- Claude Desktop:
- Windows: %APPDATA%\Claude\claude_desktop_config.json~/Library/Application Support/Claude/claude_desktop_config.json
- Mac: %APPDATA%\Cursor\User\globalStorage\mcp_settings.json
- Cursor:
- Windows: ~/Library/Application Support/Cursor/User/globalStorage/mcp_settings.json
- Mac:
最小配置(仅连接服务):
`json`
{
"mcpServers": {
"mcp-research-router": {
"command": "npx",
"args": ["mcp-research-router"]
}
}
}
包含环境变量:
`json`
{
"mcpServers": {
"mcp-research-router": {
"command": "npx",
"args": ["mcp-research-router"],
"env": {
"MCP_LLM_ENABLED": "true",
"MCP_LLM_BASE_URL": "https://ark.cn-beijing.volces.com/api/coding/v3",
"MCP_LLM_API_KEY": "your-api-key-here",
"MCP_LLM_MODEL": "ark-code-latest",
"MCP_SERVER_ENABLED": "true",
"MCP_SERVER_URL": "http://your-server-url/mcp/endpoint",
"MCP_SERVER_NAME": "my-server",
"MCP_SERVER_HEADERS": "{\"Authorization\": \"Bearer your-token\"}"
}
}
}
}
`json`
{
"name": "get_tool_list"
}
`json`
{
"name": "get_tool_list",
"arguments": {
"user_query": "搜索关于人工智能的最新新闻",
"max_tools": 3
}
}
系统会根据你的需求推荐最合适的工具。
`json`
{
"name": "execute_tools",
"arguments": {
"tools": [
{
"tool_name": "server-name-metaso-metaso_web_search",
"arguments": {"q": "人工智能最新发展"}
}
]
}
}
| 环境变量 | 说明 | 默认值 |
|---------|------|--------|
| MCP_LLM_ENABLED | 是否启用 LLM 推荐 | false |MCP_LLM_API_KEY
| | LLM API 密钥 | - |MCP_LLM_BASE_URL
| | LLM 基础 URL | https://api.siliconflow.cn/v1 |MCP_LLM_MODEL
| | LLM 模型名称 | Qwen/Qwen2.5-7B-Instruct |MCP_LLM_TIMEOUT
| | LLM 调用超时时间(毫秒) | 90000 |MCP_SERVER_ENABLED
| | 是否启用 MCP 服务器 | false |MCP_SERVER_URL
| | MCP 服务器 URL | - |MCP_SERVER_NAME
| | MCP 服务器名称(工具名前缀) | default |MCP_SERVER_HEADERS
| | MCP 服务器请求头(JSON 格式) | {} |MCP_PROMPTS_PATH
| | 自定义提示词目录路径 | 包内 prompts 目录 |MCP_MAX_RECOMMENDATIONS
| | 最大推荐数 | 5 |MCP_MAX_ITERATIONS
| | 最大迭代次数 | 3 |MCP_MIN_CONFIDENCE
| | 最小置信度 | 0.7 |
需要填写 JSON 格式的字符串:
``
MCP_SERVER_HEADERS={"Authorization": "Bearer your-token"}
示例:
- Bearer Token 认证:{"Authorization": "Bearer your-token"}{"X-API-Key": "your-api-key"}
- API Key 认证:{"Authorization": "Bearer your-token", "X-Custom-Header": "value"}
- 多个请求头:
如果需要使用配置文件,编辑 config.json:
`json`
{
"subAgent": {
"enabled": true,
"type": "openai",
"baseUrl": "https://open.bigmodel.cn/api/paas/v4",
"apiKey": "your-api-key-here",
"model": "glm-4.7-flash",
"timeout": 90000
},
"mcpServers": {
"enabled": true,
"servers": [
{
"name": "my-favorites",
"type": "streamable-http",
"url": "http://127.0.0.1:3000/mcp/your-group-id"
}
]
}
}
完整配置示例请参考 config.full.example.json。
系统支持多种提示词模式,你可以根据需求选择:
- tool_recommendation(默认):快速工具推荐
- deep_research:深度研究模式,适合复杂任务
在 prompts/ 文件夹中创建新文件夹:
``
prompts/
└── my_mode/
├── system.txt
└── user.txt
使用时传入 prompt_mode: "my_mode"。
详细说明请查看 prompts/README.md。
1. 在 MCPHub 网页端创建分组
2. 添加常用的 MCP 服务器到分组
3. 复制分组 ID
4. 配置环境变量:MCP_SERVER_URL=http://127.0.0.1:3000/mcp/分组ID
⚠️ 不要把 MCP Research Router 自己添加到分组里,否则会无限套娃。
可以,但功能受限:
- ✅ 可以获取工具列表
- ✅ 可以执行工具
- ❌ 无法使用智能推荐功能
`bash安装依赖
pnpm install
MIT
如果你觉得这个项目对你有帮助,欢迎通过微信赞赏支持我的开发工作:
