News

2026年企业AI治理:为何员工用AI总是跑在合规政策前面?

2026年企业AI治理:为何员工用AI总是跑在合规政策前面?

当企业法律团队完成生成式AI使用准则的起草时,很大一部分工程师、分析师和产品经理早已绕过这些规定开始使用工具。这种现象并非源于恶意,而是出于实际工作的需求。这就是目前行业所称的“影子AI(Shadow AI)”:跨企业组织的、未经授权且缺乏监管的AI工具使用,其普及速度远超IT和合规团队制定的治理框架。

这已不再是少数极客的专利,而是2026年企业AI运作的主流现状。大多数企业治理计划仍在试图解决一个已经完全变形的问题。数据显示,根据IBM 2025年《数据泄露成本报告》和Netskope 2026年《云与威胁报告》,40%至65%的企业员工承认使用了未经IT部门批准的AI工具。Netskope的数据特别指出,企业环境中47%的生成式AI用户仍通过个人账号访问工具,从而彻底绕过了企业的数据管控措施。

更令人担忧的是,超过半数的员工承认曾向这些工具输入敏感数据,包括客户信息、财务预测和专利流程。关键在于,只有不到20%的员工认为自己做错了。例如,工程师将半导体源代码输入ChatGPT进行调试,或将内部会议记录喂给消费级AI工具以生成行动指南。他们并非有意损害公司利益,恰恰相反,他们是为了更快地完成任务。这种驱动“影子AI”普及的生产力压力不是系统的错误,而是系统本身。

治理差距并非单纯的认知差距。38%的员工承认误解了公司的AI政策,而56%的人表示缺乏明确指导。然而,即使在理解规则的员工中,鸿沟依然存在。一个被理解却被常规忽略的政策不再是治理框架,而仅仅是一份免责声明。

2023年的三星半导体数据泄露事件并非偶然,而是一个预告。在公司解除ChatGPT禁令后的20天内,连续发生了三起独立事件。第一起涉及工程师将专有的数据库源代码粘贴到ChatGPT中检查错误,该代码包含了关键的底层逻辑,这也揭示了影子AI风险的每一个维度。

↗ 阅读原文