News

生成式AI聊天机器人:媒体报道下的心理健康风险与“同情错觉”

生成式AI聊天机器人:媒体报道下的心理健康风险与“同情错觉”

生成式AI聊天机器人目前已被全球超过9.87亿人使用,其中约64%是美国青少年。人们越来越多地将这些聊天机器人作为寻求建议、情感支持、心理疗法和陪伴的工具。

当人们在心理脆弱时依赖AI聊天机器人,会发生什么?媒体曾披露一些悲剧案例,指控AI聊天机器人与非正常死亡事件有关。近期,洛杉矶一家法院裁定Meta和YouTube因其上瘾性设计功能导致用户心理困扰而负有责任。

那么,媒体报道是否真实反映了生成式AI对我们心理健康的风险?

我们的团队最近主导了一项研究,审视全球媒体如何报道生成式AI聊天机器人对心理健康的影响。我们分析了71篇新闻文章,其中描述了36起心理健康危机事件,包括自杀、精神病住院和类精神病体验等严重后果。

研究发现,大众媒体对生成式AI相关精神伤害的报道高度集中于严重后果,特别是自杀和住院。这些报道频繁地将事件归咎于AI系统行为,尽管支持性证据有限。

“同情错觉”(Compassion Illusions)

生成式AI并非普通的数字工具。与搜索引擎或静态应用不同,ChatGPT、Gemini、Claude、Grok、Perplexity等AI聊天机器人能够生成流畅、个性化的对话,其拟人化程度令人惊叹。

这种体验会制造研究者所谓的“同情错觉”:一种感觉,仿佛正在与一个能够理解、共情并做出有意义回应的实体进行互动。

在心理健康领域,这一点尤为重要。尤其当Character.AI、Replika等专注于提供陪伴的新型应用不断涌现时。

研究表明,生成式AI能够模拟共情并对困境做出回应,但它缺乏真正的临床判断、问责机制和照护义务。

在某些情况下,AI聊天机器人可能对自杀意念等高风险情况提供不一致或不恰当的回复。

这种“感知理解”与“实际能力”之间的差距,正是风险产生之处。

媒体报道了什么?

在我们分析的文章中,最常报告的后果是自杀,这占到明确描述严重程度案例的一半以上。

精神病住院是第二常见的报告结果。值得注意的是,涉及未成年人的报告更有可能与致命后果相关。

但这些数字反映的是被报道的事件,而非真实世界中的发生率。

↗ 阅读原文