第 11 期:唤醒模型 — 配置大模型凭证与基础 LLM 节点
从自动化到智能化的飞跃
前 10 期,我们的工作流都是确定性的——每个节点的行为完全由配置决定,输入 A 永远产出 B。从本期开始,我们引入概率性的大语言模型 (LLM),让工作流具备理解自然语言、推理判断和内容生成的能力。
graph TB
subgraph "Ep 01-10: 确定性工作流"
D1[输入] --> D2[固定规则处理] --> D3[确定输出]
end
subgraph "Ep 11-30: 智能化工作流"
I1[输入] --> I2[🤖 大模型理解与推理] --> I3[动态输出]
I2 -->|"可能调用工具"| I4[外部 API]
I4 -->|"结果返回"| I2
I2 -->|"可能多轮思考"| I2
end
style I2 fill:#ff6d5b,stroke:#e55a4e,color:#fff1. n8n 的 AI 节点体系
n8n 将 AI 能力拆分为多个专职节点,各司其职:
graph TB
subgraph "n8n AI 节点层次结构"
Top[🤖 AI Agent 节点
最高层:自主决策]
Top --> LLM[🧠 Chat Model 节点
底层引擎:OpenAI / Claude / Gemini]
Top --> Memory[💾 Memory 节点
对话记忆管理]
Top --> Tools[🔧 Tool 节点
可调用的外部能力]
LLM --> OpenAI[OpenAI Chat Model]
LLM --> Claude[Anthropic Chat Model]
LLM --> Gemini[Google Gemini Chat Model]
LLM --> Ollama[Ollama Chat Model
本地部署]
end
style Top fill:#ff6d5b,stroke:#e55a4e,color:#fff
style LLM fill:#8b5cf6,stroke:#7c3aed,color:#fff关键概念区分
| 节点 | 角色 | 类比 |
|---|---|---|
| Chat Model | 底层引擎,只负责"文本进/文本出" | 汽车的发动机 |
| AI Agent | 高层调度,决定何时调用什么工具 | 驾驶员 |
| Memory | 存储对话历史 | 驾驶员的记忆 |
| Tools | 可供 Agent 调用的外部能力 | 汽车的方向盘/油门 |
⚠️ 常见误区:Chat Model 节点不能直接连接到工作流的线缆上。它必须被"嵌入"到 AI Agent 节点或 LLM Chain 节点内部作为子节点使用。
2. 配置 OpenAI 凭证
sequenceDiagram
participant User as 👤 用户
participant N8N as 🤖 n8n
participant Cred as 🔐 凭证管理器
participant OAI as 🌐 OpenAI API
User->>N8N: 拖入 "OpenAI Chat Model" 节点
N8N->>User: 提示: 请配置 Credentials
User->>Cred: 创建新的 "OpenAI Account" 凭证
User->>Cred: 输入 API Key: sk-proj-xxxxxxxx
Cred->>Cred: AES-256 加密存储 (使用 N8N_ENCRYPTION_KEY)
Cred-->>User: ✅ 凭证已保存
Note over N8N,OAI: 后续每次执行
N8N->>Cred: 读取并解密 API Key
N8N->>OAI: 调用 Chat Completion API
OAI-->>N8N: 返回生成结果# ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
# 获取 OpenAI API Key 的步骤
# ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
# 1. 访问 https://platform.openai.com/api-keys
# 2. 点击 "Create new secret key"
# 3. 命名为 "n8n-production" (方便管理)
# 4. 复制 Key (仅显示一次!): sk-proj-xxxxxxxxxxxxxxxx
# 5. 在 n8n Credentials 中粘贴
# ⚠️ 安全提醒:
# - 永远不要把 API Key 写在工作流的表达式中
# - 始终通过 n8n 的 Credentials 管理器存储
# - n8n 会使用 N8N_ENCRYPTION_KEY 对其 AES 加密
3. 各大模型接入对比
| 模型提供商 | n8n 节点名 | 推荐模型 | 价格定位 | 特色 |
|---|---|---|---|---|
| OpenAI | OpenAI Chat Model | gpt-4o |
中高 | 全能王,工具调用最成熟 |
| Anthropic | Anthropic Chat Model | claude-3.5-sonnet |
中高 | 长上下文 200K,逻辑推理强 |
| Google Gemini Chat Model | gemini-2.0-flash |
低 | 多模态原生,价格极低 | |
| Ollama | Ollama Chat Model | llama3.2 |
免费 | 本地部署,数据隔离 |
| Azure | Azure OpenAI Chat Model | gpt-4o |
企业级 | 企业合规,SLA 保障 |
4. 基础 LLM Chain 实战
在引入完整的 AI Agent 之前,先用更简单的 Basic LLM Chain 节点体验大模型调用:
graph TB
Trigger[⚡ Manual Trigger] --> Chain[🔗 Basic LLM Chain]
subgraph "LLM Chain 内部结构"
Chain --> Prompt[📝 Prompt Template
系统提示 + 用户输入]
Prompt --> Model[🧠 OpenAI Chat Model
gpt-4o-mini]
end
Chain --> Output[📤 输出: AI 生成的文本]
style Chain fill:#8b5cf6,stroke:#7c3aed,color:#fff
style Model fill:#ff6d5b,stroke:#e55a4e,color:#fff// ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
// Basic LLM Chain 节点配置
// ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
// Prompt Template (系统提示):
// "你是一位专业的产品文案撰写师。
// 请根据用户提供的产品名称和特点,生成一段 50 字以内的营销文案。
// 要求: 语气活泼、包含一个 emoji。"
// User Message (用户输入 - 使用表达式引用上游数据):
// "产品: {{ $json.productName }}
// 特点: {{ $json.features }}"
// Chat Model 配置:
// - Model: gpt-4o-mini // 性价比最高的选择
// - Temperature: 0.7 // 0=确定性 1=创造性
// - Max Tokens: 200 // 限制输出长度,控制成本
// 📤 输出:
// {
// "json": {
// "text": "🌟 XX智能耳机,主动降噪+40小时续航,让通勤变成私人音乐会!",
// "usage": {
// "prompt_tokens": 85, // 输入消耗的 Token 数
// "completion_tokens": 42, // 输出消耗的 Token 数
// "total_tokens": 127 // 总计 (用于计费)
// }
// }
// }
5. Temperature 参数详解
graph LR
subgraph "Temperature 调节效果"
T0["Temperature = 0
━━━━━━━━━━━
确定性输出
适合: 数据提取、分类
每次回答几乎相同"]
T05["Temperature = 0.5
━━━━━━━━━━━
平衡模式
适合: 摘要、翻译
略有变化"]
T1["Temperature = 1.0
━━━━━━━━━━━
创造性输出
适合: 文案、头脑风暴
每次回答差异大"]
end
T0 --- T05 --- T1
style T0 fill:#3b82f6,stroke:#2563eb,color:#fff
style T05 fill:#f59e0b,stroke:#d97706,color:#fff
style T1 fill:#ef4444,stroke:#dc2626,color:#fff| 场景 | 推荐 Temperature | 理由 |
|---|---|---|
| 从邮件提取发票号 | 0 |
需要精确稳定的结果 |
| 翻译文档 | 0.3 |
需要准确但允许微调措辞 |
| 生成营销文案 | 0.7 |
需要创意但不能太离谱 |
| 写小说/诗歌 | 1.0 |
鼓励最大程度的创造力 |
成本控制策略
// ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
// n8n 中控制 LLM 成本的三个关键手段
// ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
// 1. 选择合适的模型
// - 简单任务 (分类/提取): gpt-4o-mini ($0.15/1M tokens)
// - 复杂推理: gpt-4o ($2.5/1M tokens)
// - 成本差距约 16 倍!
// 2. 限制 Max Tokens
// - 设置合理的 maxTokens 上限
// - 防止模型长篇大论消耗预算
// 3. 在 Code 节点中预处理
// - 先用免费的 Code 节点做初步过滤/格式化
// - 只把真正需要 AI 理解的内容发给 LLM
// - 减少 Prompt 长度 = 减少 Token 数 = 减少费用
下一步
在 Ep 12 中,我们将把 Chat Model 升级为完整的 AI Agent——连接 Chat Trigger 构建一个能进行多轮对话的智能客服机器人。