第 11 期:唤醒模型 — 配置大模型凭证与基础 LLM 节点

⏱ 预计阅读 12 分钟 更新于 2026/4/9

从自动化到智能化的飞跃

前 10 期,我们的工作流都是确定性的——每个节点的行为完全由配置决定,输入 A 永远产出 B。从本期开始,我们引入概率性的大语言模型 (LLM),让工作流具备理解自然语言、推理判断和内容生成的能力。

graph TB
    subgraph "Ep 01-10: 确定性工作流"
        D1[输入] --> D2[固定规则处理] --> D3[确定输出]
    end
    
    subgraph "Ep 11-30: 智能化工作流"
        I1[输入] --> I2[🤖 大模型理解与推理] --> I3[动态输出]
        I2 -->|"可能调用工具"| I4[外部 API]
        I4 -->|"结果返回"| I2
        I2 -->|"可能多轮思考"| I2
    end
    
    style I2 fill:#ff6d5b,stroke:#e55a4e,color:#fff

1. n8n 的 AI 节点体系

n8n 将 AI 能力拆分为多个专职节点,各司其职:

graph TB
    subgraph "n8n AI 节点层次结构"
        Top[🤖 AI Agent 节点
最高层:自主决策] Top --> LLM[🧠 Chat Model 节点
底层引擎:OpenAI / Claude / Gemini] Top --> Memory[💾 Memory 节点
对话记忆管理] Top --> Tools[🔧 Tool 节点
可调用的外部能力] LLM --> OpenAI[OpenAI Chat Model] LLM --> Claude[Anthropic Chat Model] LLM --> Gemini[Google Gemini Chat Model] LLM --> Ollama[Ollama Chat Model
本地部署] end style Top fill:#ff6d5b,stroke:#e55a4e,color:#fff style LLM fill:#8b5cf6,stroke:#7c3aed,color:#fff

关键概念区分

节点 角色 类比
Chat Model 底层引擎,只负责"文本进/文本出" 汽车的发动机
AI Agent 高层调度,决定何时调用什么工具 驾驶员
Memory 存储对话历史 驾驶员的记忆
Tools 可供 Agent 调用的外部能力 汽车的方向盘/油门

⚠️ 常见误区:Chat Model 节点不能直接连接到工作流的线缆上。它必须被"嵌入"到 AI Agent 节点或 LLM Chain 节点内部作为子节点使用。


2. 配置 OpenAI 凭证

sequenceDiagram
    participant User as 👤 用户
    participant N8N as 🤖 n8n
    participant Cred as 🔐 凭证管理器
    participant OAI as 🌐 OpenAI API
    
    User->>N8N: 拖入 "OpenAI Chat Model" 节点
    N8N->>User: 提示: 请配置 Credentials
    User->>Cred: 创建新的 "OpenAI Account" 凭证
    User->>Cred: 输入 API Key: sk-proj-xxxxxxxx
    Cred->>Cred: AES-256 加密存储 (使用 N8N_ENCRYPTION_KEY)
    Cred-->>User: ✅ 凭证已保存
    
    Note over N8N,OAI: 后续每次执行
    N8N->>Cred: 读取并解密 API Key
    N8N->>OAI: 调用 Chat Completion API
    OAI-->>N8N: 返回生成结果
# ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
# 获取 OpenAI API Key 的步骤
# ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

# 1. 访问 https://platform.openai.com/api-keys
# 2. 点击 "Create new secret key"
# 3. 命名为 "n8n-production" (方便管理)
# 4. 复制 Key (仅显示一次!): sk-proj-xxxxxxxxxxxxxxxx
# 5. 在 n8n Credentials 中粘贴

# ⚠️ 安全提醒:
# - 永远不要把 API Key 写在工作流的表达式中
# - 始终通过 n8n 的 Credentials 管理器存储
# - n8n 会使用 N8N_ENCRYPTION_KEY 对其 AES 加密

3. 各大模型接入对比

模型提供商 n8n 节点名 推荐模型 价格定位 特色
OpenAI OpenAI Chat Model gpt-4o 中高 全能王,工具调用最成熟
Anthropic Anthropic Chat Model claude-3.5-sonnet 中高 长上下文 200K,逻辑推理强
Google Google Gemini Chat Model gemini-2.0-flash 多模态原生,价格极低
Ollama Ollama Chat Model llama3.2 免费 本地部署,数据隔离
Azure Azure OpenAI Chat Model gpt-4o 企业级 企业合规,SLA 保障

4. 基础 LLM Chain 实战

在引入完整的 AI Agent 之前,先用更简单的 Basic LLM Chain 节点体验大模型调用:

graph TB
    Trigger[⚡ Manual Trigger] --> Chain[🔗 Basic LLM Chain]
    
    subgraph "LLM Chain 内部结构"
        Chain --> Prompt[📝 Prompt Template
系统提示 + 用户输入] Prompt --> Model[🧠 OpenAI Chat Model
gpt-4o-mini] end Chain --> Output[📤 输出: AI 生成的文本] style Chain fill:#8b5cf6,stroke:#7c3aed,color:#fff style Model fill:#ff6d5b,stroke:#e55a4e,color:#fff
// ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
// Basic LLM Chain 节点配置
// ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

// Prompt Template (系统提示):
// "你是一位专业的产品文案撰写师。
//  请根据用户提供的产品名称和特点,生成一段 50 字以内的营销文案。
//  要求: 语气活泼、包含一个 emoji。"

// User Message (用户输入 - 使用表达式引用上游数据):
// "产品: {{ $json.productName }}
//  特点: {{ $json.features }}"

// Chat Model 配置:
// - Model: gpt-4o-mini           // 性价比最高的选择
// - Temperature: 0.7              // 0=确定性  1=创造性
// - Max Tokens: 200               // 限制输出长度,控制成本

// 📤 输出:
// {
//   "json": {
//     "text": "🌟 XX智能耳机,主动降噪+40小时续航,让通勤变成私人音乐会!",
//     "usage": {
//       "prompt_tokens": 85,       // 输入消耗的 Token 数
//       "completion_tokens": 42,   // 输出消耗的 Token 数
//       "total_tokens": 127        // 总计 (用于计费)
//     }
//   }
// }

5. Temperature 参数详解

graph LR
    subgraph "Temperature 调节效果"
        T0["Temperature = 0
━━━━━━━━━━━
确定性输出
适合: 数据提取、分类
每次回答几乎相同"] T05["Temperature = 0.5
━━━━━━━━━━━
平衡模式
适合: 摘要、翻译
略有变化"] T1["Temperature = 1.0
━━━━━━━━━━━
创造性输出
适合: 文案、头脑风暴
每次回答差异大"] end T0 --- T05 --- T1 style T0 fill:#3b82f6,stroke:#2563eb,color:#fff style T05 fill:#f59e0b,stroke:#d97706,color:#fff style T1 fill:#ef4444,stroke:#dc2626,color:#fff
场景 推荐 Temperature 理由
从邮件提取发票号 0 需要精确稳定的结果
翻译文档 0.3 需要准确但允许微调措辞
生成营销文案 0.7 需要创意但不能太离谱
写小说/诗歌 1.0 鼓励最大程度的创造力

成本控制策略

// ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
// n8n 中控制 LLM 成本的三个关键手段
// ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

// 1. 选择合适的模型
//    - 简单任务 (分类/提取): gpt-4o-mini ($0.15/1M tokens)
//    - 复杂推理: gpt-4o ($2.5/1M tokens)
//    - 成本差距约 16 倍!

// 2. 限制 Max Tokens
//    - 设置合理的 maxTokens 上限
//    - 防止模型长篇大论消耗预算

// 3. 在 Code 节点中预处理
//    - 先用免费的 Code 节点做初步过滤/格式化
//    - 只把真正需要 AI 理解的内容发给 LLM
//    - 减少 Prompt 长度 = 减少 Token 数 = 减少费用

下一步

在 Ep 12 中,我们将把 Chat Model 升级为完整的 AI Agent——连接 Chat Trigger 构建一个能进行多轮对话的智能客服机器人。