在埃隆·马斯克试图叫停OpenAI营利性业务的诉讼中,一个核心论点是:这家公司最初应是一个专注于AI安全的慈善机构,但在追求利润的过程中迷失了方向。为支持这一论点,马斯克的律师援引了OpenAI创始人早期关于需要一个与谷歌DeepMind抗衡的公共精神机构的邮件和声明。
此次庭审中,唯一一位直接就AI技术作证的专家证人是加州大学伯克利分校的计算机科学教授斯图尔特·罗素。他已研究AI数十年,其任务是提供AI背景信息,并证明这项技术具有足够的危险性,值得我们担忧。
罗素教授在2023年3月曾签署一封公开信,呼吁暂停AI研究六个月。具有讽刺意味的是,马斯克本人也签署了同一封信,尽管他当时正在启动自己的营利性AI实验室xAI。
在向陪审员和法官伊冯娜·冈萨雷斯·罗杰斯陈述时,罗素指出AI发展伴随着多种风险,涵盖了从网络安全威胁到对齐问题,以及通用人工智能(AGI)研发中“赢家通吃”的本质。他最终表示,追求AGI与AI安全之间存在着内在的紧张关系。
尽管罗素教授关于不受约束AI所带来生存威胁的更深层次担忧,在OpenAI律师的反对下被法官限制,未能充分在公开庭审中阐述。但罗素长期以来一直批评全球顶尖实验室为抢先实现AGI而形成的“军备竞赛”动态,并呼吁政府对该领域进行更严格的监管。
OpenAI的律师在交叉质询环节中,主要致力于确立罗素并未直接评估该公司的公司结构或其具体的安全政策。
此案的关键在于,如何权衡企业逐利与AI安全担忧之间的关系。几乎所有OpenAI的创始人都曾强烈警告AI风险,同时也强调其益处,并试图尽快构建AI,甚至策划建立他们能控制的以AI为中心的营利性企业。
从外部视角看,一个明显的问题是OpenAI在成立后逐渐意识到,如果想取得成功,它需要投入更多的计算资源。而这笔资金只能来源于营利性投资者。创始团队对AGI落入单一机构手中的恐惧,促使他们寻求资本,但这最终导致团队分裂,催生了我们今天所见的“军备竞赛”,并最终引发了这场诉讼。
类似的动态已在国家层面显现:美国参议员伯尼·桑德斯推动立法,要求暂停数据中心建设,这也反映了对AI的深层担忧。