News

LLM应用如何轻松实现多模型回退?10分钟搞定OpenAI故障备援

LLM应用如何轻松实现多模型回退?10分钟搞定OpenAI故障备援

在生产环境中运行基于OpenAI的应用程序,面临着一个关键的脆弱点:单点故障。一旦OpenAI服务遭遇中断(例如,返回500或429错误),您的应用程序将对用户不可用,通常缺乏即时回退机制或对故障原因的可见性。

传统的做法是直接调用OpenAI API:

from openai import OpenAI

client = OpenAI(api_key="sk-...")

resp = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "Summarise this text..."}],
)

这种直接调用方式意味着任何OpenAI的问题都会直接影响您的服务,缺少回退机制,也无法在不需要GPT-4级别质量时,动态路由到更经济的替代提供商。

解决方案:API 网关

InferBridge 提供了一个与OpenAI兼容的API网关,旨在解决这些挑战。通过将您的OpenAI SDK指向InferBridge而不是直接指向OpenAI,该网关可以处理智能路由、自动回退和每次请求的可观测性——所有这些都无需修改您的核心应用程序逻辑。

实施步骤

步骤 1:获取 InferBridge 密钥(一次性设置)

注册InferBridge账户将为您提供一个唯一的API密钥,这是与网关进行身份验证所必需的。

curl -X POST https://api.inferbridge.dev/v1/users \
  -H 'Content-Type: application/json' \
  -d '{"email":"[email protected]"}'

# 示例响应:{"api_key": "ib_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx", ...}

此密钥应妥善保存。

步骤 2:注册您现有的 OpenAI 密钥

您的OpenAI API密钥需要注册到InferBridge。这允许网关代表您向OpenAI发出认证请求。

curl -X POST https://api.inferbridge.dev/v1/keys \
  -H 'Authorization: Bearer ib_xxx...' \
  -H 'Content-Type: application/json' \
  -d '{"provider":"openai","api_key":"sk-..."}'

InferBridge 确保您的密钥通过 Fernet 加密技术在静态存储时是安全的。它明确声明不会记录请求内容或对推理进行标记,确保与提供商的直接通信。

步骤 3:修改您的应用程序代码(仅两行)

通过对您的OpenAI客户端初始化进行两个小改动,即可将InferBridge集成到您的应用程序中:

from openai import OpenAI

client = OpenAI(
    api_key="ib_xxx...",                          # 使用 InferBridge API 密钥
    base_url="https://api.inferbridge.dev/v1",    # 指向 InferBridge 网关
)

resp = client.chat.completions.create(
    model="ib/balanced",                          # 使用 InferBridge 路由层
    messages=[{"role": "user", "content": "Summarise this text..."}],
)

通过将 api_key 更新为您的 InferBridge 密钥并设置 base_url,您的应用程序现在将通过 InferBridge 路由请求。此外,指定一个 InferBridge 路由层(例如 "ib/balanced")将启用网关的智能回退和提供商选择逻辑。

InferBridge 路由层解析

InferBridge 采用明确的路由层来管理 LLM 请求,根据特定需求提供不同的提供商链:

  • ib/cheap:通过 Groq → DeepSeek → Together → Sarvam → OpenAI 路由。适用于高流量、成本敏感且对质量有一定灵活度的应用程序。
  • ib/balanced:通过 OpenAI → Sarvam → Anthropic 路由。这是大多数生产应用程序的默认推荐,旨在平衡成本和性能。
  • ib/premium:通过 Anthropic → OpenAI 路由。专为需要最高质量和鲁棒性的复杂任务设计。

这种设置通过将提供商管理抽象到智能API网关之后,为增强依赖OpenAI的应用程序的弹性和灵活性提供了一个强大的解决方案。

↗ 阅读原文