n8n node for ModelScope API-Inference services including LLM, Vision, and Text-to-Image models
npm install n8n-nodes-modelscope-llm

这是一个用于 n8n 的 ModelScope API 集成节点包,提供双节点架构支持大语言模型、视觉模型和文生图模型的调用,以及 AI Agent/Chain 集成功能。
本包提供两个互补的节点:
- 🔐 安全认证: 使用 ModelScope API Token 进行身份验证
- 🎛️ 丰富配置: 支持温度、最大令牌数、图像尺寸等参数调节
- 🚀 双重集成: 既支持传统 API 调用,也支持现代 AI Agent 工作流
- 📊 完善错误处理: 包含详细的错误处理和状态反馈机制
``bash`
npm install n8n-nodes-modelscope-llm
1. 在 n8n 界面中,转到 Settings > Community Nodes
2. 点击 Install a community node
3. 输入 n8n-nodes-modelscope-llm
4. 点击 Install
1. 访问 ModelScope 并注册账号
2. 登录后,进入 个人中心 - API Token
3. 创建新的 API Token
4. 复制生成的 Token
1. 在 n8n 工作流中添加 ModelScope 节点
2. 点击 Create New Credential
3. 输入您的 ModelScope API Token
4. 保存凭据
#### 大语言模型 (LLM)
支持与大语言模型进行对话:
- 模型选择: ZhipuAI/GLM-4.6、deepseek-ai/DeepSeek-V3.1、Qwen/Qwen3-235B-A22B-Instruct-2507 等
- 消息模板: 自定义、代码生成、文本分析、翻译等预设模板
- 参数配置: 温度、最大令牌数、流式输出等
示例配置:
`json`
{
"resource": "llm",
"operation": "chatCompletion",
"model": "ZhipuAI/GLM-4.6",
"messages": [
{
"role": "user",
"content": "请帮我写一个 Python 函数来计算斐波那契数列"
}
],
"temperature": 0.7,
"maxTokens": 2048
}
#### 视觉模型 (Vision)
支持图像理解和视觉问答:
- 模型选择: Qwen/Qwen3-VL-235B-A22B-Instruct、Qwen/Qwen3-VL-30B-A3B-Instruct 等
- 图像输入: 支持图像 URL
- 视觉问答: 对图像内容进行描述、分析、问答
示例配置:
`json`
{
"resource": "vision",
"operation": "visionChat",
"model": "Qwen/Qwen3-VL-235B-A22B-Instruct",
"imageUrl": "https://example.com/image.jpg",
"prompt": "请描述这张图片的内容",
"temperature": 0.7,
"maxTokens": 2048
}
#### 文生图模型 (Image)
支持根据文本描述生成图像:
- 模型选择: Qwen/Qwen-Image 等
- 提示词: 支持正面和负面提示词
- 图像配置: 多种尺寸选择、生成步数调节
- 异步处理: 自动处理异步任务和状态轮询
示例配置:
`json`
{
"resource": "image",
"operation": "textToImage",
"model": "Qwen/Qwen-Image",
"prompt": "一只可爱的小猫坐在花园里,阳光明媚,高质量,4K",
"negativePrompt": "blurry, low quality, distorted",
"size": "1024x1024",
"steps": 30,
"timeout": 5
}
ModelScope Chat Model 节点专为 n8n AI 工作流设计,可与 AI Agent 和 AI Chain 节点无缝集成:
#### AI Agent 集成
1. 在工作流中添加 AI Agent 节点
2. 在 AI Agent 的 Chat Model 配置中选择 ModelScope Chat Model
3. 配置模型参数和选项
#### AI Chain 集成
1. 在工作流中添加 AI Chain 节点
2. 在 AI Chain 的 Language Model 配置中选择 ModelScope Chat Model
3. 配置模型参数和选项
#### 配置选项
- 模型选择: 支持多种大语言模型
- 温度 (Temperature): 控制输出的随机性 (0.0-2.0)
- 最大令牌数 (Max Tokens): 限制输出长度
- 频率惩罚 (Frequency Penalty): 减少重复内容 (-2.0-2.0)
- 存在惩罚 (Presence Penalty): 鼓励话题多样性 (-2.0-2.0)
- Top P: 核采样参数 (0.0-1.0)
- 响应格式: 文本或 JSON 格式
- 推理努力: 控制模型推理深度 (低/中/高)
- 每用户每天总计 2000 次 API 调用
- 单个模型每天不超过 500 次调用
- 部分大模型限制 200 次/天
- 文生图任务为异步处理,生成时间通常为 30 秒 - 5 分钟
节点包含完善的错误处理机制:
- 401 错误: API Token 无效或过期
- 429 错误: 请求频率超限或配额不足
- 400 错误: 请求参数错误
- 500 错误: 服务器内部错误
`bash克隆仓库
git clone https://github.com/xwang152-jack/n8n-nodes-modelscope-llm.git
cd n8n-nodes-modelscope-llm
$3
`
n8n-nodes-modelscope-llm/
├── nodes/
│ ├── ModelScope/ # 传统 API 调用节点
│ │ ├── ModelScope.node.ts # 主节点文件
│ │ ├── ModelScopeApi.credentials.ts # API 凭证配置
│ │ └── resources/
│ │ ├── llm/ # 大语言模型资源
│ │ ├── vision/ # 视觉模型资源
│ │ └── image/ # 图像生成资源
│ └── ModelScopeChain/ # AI Agent/Chain 集成节点
│ ├── ModelScopeChain.node.ts # Chat Model 节点文件
│ └── utils/
│ └── loadModels.ts # 模型加载工具
├── package.json # 项目配置
├── tsconfig.json # TypeScript 配置
└── README.md # 项目文档
``欢迎提交 Issue 和 Pull Request!
MIT License - 详见 LICENSE 文件