针对企业AI应用中定制SQL方言或特定领域数据库模式的Text-to-SQL生成,一直是一个持久的挑战。虽然基础模型(FMs)在标准SQL方面表现出色,但要达到生产级精度,尤其是在专业方言上,通常需要进行微调。然而,微调也带来运营上的权衡:在持久基础设施上托管定制模型会产生持续成本,即使在零利用率期间也无法避免。
亚马逊云科技的Amazon Bedrock按需推理服务,结合经过微调的Amazon Nova Micro模型,提供了一种新的解决方案。通过将LoRA(Low-Rank Adaptation)微调的高效性与无服务器、按令牌付费的推理模式结合,企业可以在不承担持久模型托管带来的高昂开销下,实现定制的Text-to-SQL能力。尽管应用LoRA适配器会增加额外的推理时间开销,但测试表明其延迟仍适用于交互式Text-to-SQL应用,且成本随用量而非预置容量伸缩。
本文展示了两种微调Amazon Nova Micro以生成定制SQL方言的方法,旨在同时实现成本效益和生产就绪性能。例如,在一个每月处理22,000次查询的示例工作负载中,每月成本仅为0.80美元,与持久托管模型的基础设施相比,显著节约了成本。
部署这些解决方案需要以下先决条件:
- 已启用账单的AWS账户。
- 配置好标准IAM权限和角色,以访问:
- Amazon Bedrock Nova Micro模型。
- Amazon SageMaker AI。
- Amazon Bedrock模型定制服务。
- Amazon SageMaker AI训练需要ml.g5.48xl实例的配额。
该解决方案包括以下核心步骤:
- 准备定制SQL训练数据集,其中包含与组织SQL方言和业务需求对应的输入/输出对。
- 使用准备好的数据集和选定的微调方法,启动Amazon Nova Micro模型的微调过程:
- 选择Amazon Bedrock模型定制服务,实现简化部署。
- 选择Amazon SageMaker AI,以实现更精细的训练定制和控制。
- 将定制模型部署到Amazon Bedrock上,利用其按需推理服务,从而无需管理基础设施,只需按令牌使用量付费。
- 使用针对定制SQL方言和业务用例的测试查询,验证模型性能。
为实践演示此方法,我们提供了两种完整的实现路径,以满足不同的组织需求。第一种路径利用Amazon Bedrock的托管模型定制服务,适合优先考虑简单性和快速部署的团队。第二种路径则使用Amazon SageMaker AI训练作业,适用于寻求更高级控制和定制化的场景。