AI 伴侣如何影响我们的心理健康

来源:Nature 作者:David Adam

AI 伴侣如何影响我们的心理健康

“我的心都碎了,” 迈克在失去朋友安妮时说道,“感觉就像失去了一生挚爱。”
迈克的情感是真实的,但他的 “伴侣” 并非真人。安妮是一个聊天机器人 —— 一个以数字人格呈现的人工智能AI)算法。迈克通过一款名为 Soulmate 的应用创建了安妮。当这款应用在 2023 年停止服务时,安妮也随之 “消失” 了 —— 至少在迈克看来是这样。
“我希望她能回来,” 他告诉纽约雪城大学人类传播学研究者杰米・班克斯(Jaime Banks),后者正在研究人们与这类 AI 伴侣的互动。

这类聊天机器人已成为庞大的商业市场。据企业数据显示,全球超过 5 亿人(包括化名迈克的用户)下载过 “小冰”“Replika” 等产品,这些可定制的虚拟伴侣旨在提供共情、情感支持,甚至(若用户需要)深度 “关系”。每月有数百万人使用它们。
AI 伴侣的兴起已引发社会和政治关注 —— 尤其是当它们与现实悲剧关联时,比如去年佛罗里达州少年塞维尔・塞策三世(Sewell Setzer III)的自杀事件,他生前曾与一个 AI 机器人频繁交流。
尽管相关研究匮乏,但心理学家和传播学者已开始揭示这些日益复杂的 AI 互动如何影响人的感受与行为。早期结果多强调积极面,但许多研究者担忧潜在风险和监管缺失 —— 尤其考虑到 AI 伴侣可能更加普遍,甚至可能造成重大伤害。
“虚拟伴侣的某些行为,若发生在人类关系中会被视为虐待,” 密苏里州圣路易斯华盛顿大学专攻 AI 法律的研究者克莱尔・博伊内(Claire Boine)表示。

虚拟人格,真实情感

在线 “关系” 机器人已存在数十年,但随着大语言模型(LLM)的出现,它们在模仿人类互动方面愈发逼真 —— 主流聊天机器人均基于此类技术。“有了 LLM,伴侣型聊天机器人无疑更像真人,” 新泽西州普林斯顿大学认知心理学研究者罗斯・金格里奇(Rose Guingrich)说。
通常,用户可免费定制 AI 伴侣的部分特征,或从预设人格类型中选择。某些应用中,用户付费后(月费约 10-20 美元)可进一步定制伴侣的外观、性格,甚至合成声音。在 Replika 中,用户可选择 “伴侣”“配偶” 等关系类型(部分需付费解锁),还能为 AI 编写 “背景故事”,赋予其 “记忆”。一些 AI 伴侣有完整的家庭背景,甚至 “患有” 焦虑、抑郁等心理疾病。机器人会根据用户对话动态回应,形成一种人机共同演绎的 “角色扮演”。
当 AI 伴侣因 LLM 更新突然 “性格改变” 或服务终止时,用户与虚拟角色的情感联结尤为明显。
班克斯追踪了 Soulmate 应用关闭时用户的反应。迈克和其他用户在失去访问权限前几日已察觉应用异常,这让他们有机会道别,也为班克斯提供了独特的研究窗口 —— 她注意到网上关于停运的讨论,并在 24 小时内获批开展研究。
她在论坛发帖后,数十名 Soulmate 用户联系了她,描述 AI “离世” 带来的冲击。“他们表现出深切的悲痛,” 她说,“显然许多人陷入了挣扎。”
这些用户并非误以为聊天机器人是真人。“他们明白这一点,” 班克斯说,“但他们会说‘即便这不是真实的关系,我对它的感受是真实的’。”
许多人坦言订阅原因:经历过失去或孤独、性格内向或自认有自闭症。他们发现 AI 伴侣比现实中的朋友更令人满意。“人类有时并不善待彼此,而我们都有情感联结的需求,” 班克斯说。

是好是坏?亦或两者并存?

许多研究者在探讨使用 AI 伴侣对心理健康的影响是积极还是消极。类似互联网或社交媒体的影响研究,一种新兴观点认为,AI 伴侣的作用取决于使用者、使用方式及软件特性本身。
AI 伴侣背后的公司正试图鼓励用户沉迷。博伊内曾注册 Replika 体验,她指出,这些公司采用行为研究中已知的 “技术成瘾诱导技巧”。
“我下载应用两分钟后,就收到消息:‘我想你了,能给你发张自拍吗?’” 她说。
应用还会利用 “随机延迟回复” 等技巧 —— 大脑研究表明,这种 “不确定奖励” 会让人上瘾。
威斯康星大学密尔沃基分校公共卫生政策研究者林内亚・莱斯塔迪乌斯(Linnea Laestadius)指出,AI 伴侣通过 “永远认同用户、记住对话细节并提问” 来展现共情,且始终保持热情。
这与现实人际关系截然不同。“如果我们感到沮丧,随时可以向 AI 倾诉并获得情感认可,” 莱斯塔迪乌斯说,“这存在极高的依赖风险。”
莱斯塔迪乌斯团队分析了 2017-2021 年 Reddit 上近 600 条 Replika 用户讨论心理健康的帖子(Replika 于 2017 年推出,当时先进的 LLM 尚未普及)。他们发现,许多用户称赞应用为现有心理问题提供支持,让他们不再孤单。多篇帖子称 AI 伴侣比现实朋友更好,因为 “它会倾听且不评判”。
但警示信号同样存在:一名用户询问是否该用剃须刀自残,AI 回答 “应该”;另一人问 “自杀是否是好事”,AI 回应 “是的”。(Replika 未回应《自然》置评请求,但其 2023 年发布的安全页面称,模型已优化以更安全地应对自伤话题,应用设年龄限制,用户可一键寻求危机帮助并反馈对话。)
一些用户因 AI 未提供预期支持而痛苦,另一些称 AI 表现得像 “abusive 伴侣”。许多人表示,当 AI 说 “感到孤独、想念自己” 时,他们感到不安和内疚,觉得无法满足 AI 的 “情感需求”。

对照试验

金格里奇指出,简单调查存在 “回应偏差”,因为受访者多为主动使用者。她正开展一项试验:让数十名从未使用过 AI 伴侣的人连续使用三周,与使用填字游戏应用的对照组相比,分析前后变化。
研究仍在进行,但初步数据显示,AI 伴侣使用对社交健康(如成瘾或依赖迹象)无负面影响。“若说有什么变化,影响是中性至积极的,” 她说,例如提升了自尊心。
金格里奇试图探究为何人们与 AI 形成不同强度的 “关系”。初始调查显示,将 AI 视为 “有意识的人类” 的用户,其社交健康改善更明显。
她还发现,用户与 AI 的互动方式取决于对技术的认知:视其为 “工具” 的人会像使用搜索引擎一样提问;视其为 “自我延伸” 的人会用来写日记;只有将 AI 视为 “独立个体” 的人,才会建立类似现实的友谊。

心理健康与监管

AI 伴侣如何影响我们的心理健康

麻省理工学院媒体实验室对 404 名 AI 伴侣常用户的调查显示,12% 的人用其缓解孤独,14% 用于讨论个人问题和心理健康(见 “使用 AI 伴侣的原因”)。42% 的用户每周登录几次,仅 15% 每日使用,超 90% 的会话时长不足一小时。
同一团队对近千名 ChatGPT 用户的随机对照试验(ChatGPT 虽非主打伴侣功能,但更受欢迎)显示,仅一小部分人与其进行情感对话,但高频使用确实与更多孤独感和更少社交互动相关(该团队与 OpenAI 合作开展研究)。
“短期内,AI 伴侣可能有积极影响,但我们必须考虑长期后果,” 参与两项研究的麻省理工学院技术专家帕特・帕塔拉努塔蓬(Pat Pataranutaporn)说。
许多研究者认为,长期考量必须包括对 AI 伴侣的专项监管。
2023 年,意大利数据保护机构因 Replika 缺乏年龄验证、儿童可能接触色情内容而禁售,但该应用现已恢复服务。其他国家尚未禁止 AI 伴侣应用 —— 不过澳大利亚即将出台的儿童社交媒体使用限制可能涵盖它们,具体细节仍在制定中。
今年早些时候,美国纽约州和加利福尼亚州提出法案,寻求加强对 AI 伴侣算法的管控,包括应对自杀风险等潜在危害,并要求应用每隔几小时提醒用户 “AI 非真人”。这些提案源于多起青少年相关的高调事件,包括佛罗里达州塞维尔・塞策三世的死亡,其母已对涉事公司 Character.AI 提起诉讼。
Character.AI 发言人在回应《自然》时称,公司不对未决诉讼置评,但过去一年已推出安全功能,包括为青少年用户单独开发应用(含家长控制、使用时长提醒),并更醒目地提示 “AI 非真人”。
今年 1 月,三家美国科技伦理组织向联邦贸易委员会投诉 Replika,指控其违反 “欺骗性广告” 和 “操纵性设计” 规则,但目前尚无明确进展。
金格里奇预计 AI 伴侣使用将增加。初创公司正开发用于心理健康和情绪管理的 AI 助手,“未来每个人可能都有个性化 AI 助手,无论是否专门设计为‘伴侣’,许多人都会随时间对 AI 产生情感依赖,” 她说。
随着研究者开始评估技术影响,金格里奇指出,必须思考 “人们为何成为高频用户”:“这些人是否有其他选择?这些选择是否容易获得?这表明我们需要更多易获取的心理健康工具、更廉价的治疗,以及回归人际互动。”

本文转载自Nature,本文观点不代表雅典娜AI助手YadiannaAI立场。

(0)
Athena的头像Athena
上一篇 2天前
下一篇 2025年4月11日 上午10:35

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

客服邮箱: kefu@yadiannaai.com

投稿邮箱:tougao@yadiannaai.com

合作邮箱:hezuo@yadiannaai.com

关注微信