来源:HBR 作者:Marc Zao-Sanders

一年前,我曾在此撰写过一篇关于人们如何使用生成式人工智能的文章。那篇文章引起了共鸣:它广受欢迎,被一些热门帖子引用,而且文章中精美的信息图表也被广泛分享。那些应用案例在个人需求和商业需求之间几乎平均分配,大约一半的案例同时涉及这两个方面。
从那以后,围绕人工智能、生成式人工智能和大语言模型(LLMs)的炒作愈演愈烈。用户的兴趣翻倍,对人工智能的投资大幅增长,政府也采取了更为坚决和明确的立场,而且利害关系也达到了极高的程度 —— 据一些人说,这关乎人类的未来。
《哈佛商业评论》的编辑和我认为有必要更新这项研究。在过去的 12 个月里,发生了很多变化。如今我们有了定制化的 GPT:为更狭窄的需求而量身定制的人工智能。新的参与者进入市场,比如 DeepSeek 和 Grok,带来了更多的竞争和选择。当谷歌推出其播客生成器 NotebookLM 时,吸引了数百万人的关注。OpenAI 推出了许多新模型(同时承诺将所有模型整合到一个统一的界面中)。思维链推理也开始发挥作用,即人工智能在给出最终答案之前,会与用户分享中间推理步骤,牺牲速度以换取更深入的分析和更好的答案。语音指令实现了更多不同的交互,例如让我们在开车时也能使用生成式人工智能。在过去忙碌的 12 个月里,使用成本大幅降低,使用范围也更加广泛。
重启这项研究的目的和一年前一样。当人们看到其他人有效地利用某项技术并从中获益时,他们也会效仿。现实世界中的应用案例改变行为的方式和程度,是公关宣传、思想领导力和卓越技术所无法做到的。所以,通过挖掘数百个 Reddit 子版块中的应用案例,我们希望提高人们的意识,加速生成式人工智能的许多积极有益的应用。
为了撰写这篇文章,我采用了与去年相同的方法,但搜索了更多的数据(可搜索的内容也更多了),并将结果限定在过去的 12 个月内。我查看了在线论坛(如 Reddit、Quora),以及包含该技术明确具体应用的文章。或许是因为 Reddit 具有匿名性,它再次提供了最丰富的见解。我亲自阅读这些内容,并将每个相关帖子归入相应类别进行统计。几天后,我得出了前 100 个应用案例的数量和引用内容。
《2025 年生成式人工智能前 100 个应用案例报告》列出了 2025 年的前 10 个应用案例,并根据感知到的有用性和影响规模(通过专家评审进行定性评估)进行了排名,每个案例都有相应的引用。和以前一样,这里面蕴含着真正有价值的信息(但请注意,这些内容是原始的、未经编辑的,所以可能不适合那些心态不够强大的人!)。这一次,我更努力地选取那些明确且立即可用的引用内容。
结果与趋势
在前 100 个应用案例中,有 38 个新案例。这进一步证明了我们所知道的一点:变化仍在大量发生。以下是前 10 个应用案例:

治疗(稍后会详细介绍这一点)成为新的首要应用案例。在前 5 个应用案例中,还有另外两个新出现的案例:“规划我的生活” 和 “寻找目标”。这三个应用案例反映了人们对自我实现的追求,标志着过去一年里,应用从技术领域向更具情感性的领域转变。
我将这些应用案例归纳为六个更广泛的主题,并发现与 2024 年相比有以下变化:

“个人和职业支持” 现在是最大的主题,其新增案例大多来自 “技术协助和故障排除” 主题。
用户当前的使用情况
以下是今年前 100 个应用案例中的一些案例,每个案例都有相应的引用内容(完整列表见此处)。我挑选了一些能清晰展示人们如何使用这项技术的例子:
- 治疗 / 陪伴(第 1 名):“在我来自的南非,心理健康服务几乎不存在;每 10 万人中才有一名心理学家,每 30 万人中才有一名精神科医生。大语言模型人人都能使用,而且它们能提供帮助。不幸的是,当你的健康状况恶化时,数据安全就顾不上了,生存才是首要任务。”
- 规划我的生活(第 2 名):“我只是让它为我制定一个在客人来访前打扫和整理房子的时间表。”
- 增强学习(第 4 名):“我一直在参加一个在线数据分析课程,我使用 ChatGPT 作为学习指南,来解释课程中一带而过的内容,然后我会把这些内容添加到我的笔记中。这有助于我巩固所学知识,到目前为止非常有用。”
- 健康生活(第 10 名):“我刚开始尝试一种新的饮食计划,用在线‘膳食规划器’的电子表格计算宏量营养素让我抓狂。现在我只需根据每餐的宏量营养素需求询问食谱,然后拿着清单去购物。之后我使用空气炸锅和电饭煲 —— 非常简单。”
- 制定旅行行程(第 24 名):“我让 ChatGPT 为我制定一份详细的度假行程,包括质朴的住宿和用餐地点、关键景点以及小众景点,同时尽量减少驾车时间。它给出的结果非常完美。”
- 对罚款提出异议(第 83 名):“我因进入公交车道收到了一份罚款通知单(PCN)。市政当局要我交 80 英镑,而我只是短暂停留了大约 20 秒。我让 ChatGPT 帮我写一份申诉书,今天早上我收到通知,罚款通知单已被撤销。感谢人工智能,因为如果让我自己写一份冗长乏味的申诉信,我可能就直接交钱了。”
目标与意义
越来越多的人使用大语言模型来寻找目标并提升自我。
“治疗与陪伴” 现在是排名第一的应用案例。这个应用案例包含两个不同但相关的方面。治疗涉及到结构化的支持和指导,以应对心理挑战,而陪伴则包括持续的社交和情感联系,有时还涉及浪漫的层面。去年和今年我都将它们归为一类,因为它们都满足了人类对情感联系和支持的基本需求。
许多发帖者谈到基于人工智能模型的治疗如何帮助他们处理悲伤或创伤。基于人工智能的治疗有三个明显的优势:它可以随时提供服务,相对便宜(在某些情况下甚至免费),而且不会受到他人的评判。人工智能用于治疗的现象在中国也受到了关注。尽管关于计算机化治疗的全部潜力仍存在争议,但最近的研究提供了令人安心的观点 —— 人工智能提供的治疗干预已经达到了相当高的水平,与人类提供的治疗反应难以区分。
现在,越来越多的专业服务部分由生成式人工智能提供 —— 从治疗和医疗建议到法律咨询、税务指导和软件开发。在安永(EY),这种转变已经在进行中。安永的全球学习与发展负责人西蒙・布朗(Simon Brown)向我解释说,该组织正在培训员工掌握生成式人工智能技能,使他们能够使用一系列特定行业的自主性系统,这些系统支持近 40 万名员工的专业服务工作 —— 包括部署 150 个人工智能代理专门用于税务相关任务。
在应用案例中,排名上升最快的新案例是 “规划我的生活”,位列第 2。这些应用大多是人们使用模型来更好地了解自己的意图(比如日常习惯、新年计划和内省的见解),并找到简单易行的方法来实现这些意图。人们在家里通过私人购买的生成式人工智能订阅服务(如 ChatGPT、Claude 和 Perplexity)来进行规划,在工作中(主要是使用微软的 Copilot)也是如此。微软现代工作与商业应用副总裁贾里德・斯帕塔罗(Jared Spataro)告诉我:“最引人注目的人工智能应用场景之一是作为工作中的个人助手。当它与你所有的工作数据(电子邮件、聊天记录、文件和会议)相连时,人工智能可以让你摆脱繁琐的工作,并成为一个非常有价值的思维伙伴。它能让员工节省时间,提高生产力和创造力。”
另一个新出现的重要案例是 “寻找目标”,排名第 3。确定和定义个人价值观、克服障碍以及采取自我发展的步骤(例如,就下一步该做什么提供建议、重新审视问题、帮助你保持专注)现在都属于这个类别。
在列表中还有其他一些案例,表明人工智能在帮助我们处理人类情感方面发挥着作用。我们使用人工智能来增强自信(第 18 名)、进行深入且有意义的对话(第 29 名),甚至尝试与逝者交流(第 33 名)。
大多数专家曾预计人工智能将首先在技术领域证明其价值。虽然人工智能在技术领域确实发挥了很大作用,但这项研究表明,它在满足我们人类内心的需求和欲望方面也能提供同样多甚至更多的帮助。
独立思考
关于大语言模型对我们自身思考能力来说是福还是祸,存在很多分歧和争议。一位用户坦率地承认他们 “过度依赖” 人工智能。另一位用户说:“我确实越来越依赖它了…… 遇到复杂任务时,我不再自己思考,而是直接求助于 GPT。” 另一方面,这项技术增强个人学习和思考的能力也得到了认可和赞扬:“如果你不把它当作学习工具,那么它会阻碍你的职业发展,使你的知识停滞不前,受到限制。”
这种担忧在年轻人身上表现得更为明显。许多人担心生成式人工智能对大学教育的影响(第 23 名),因为在这个世界里,人工智能生成的论文可以做到切题、高质量且按需生成。家长们担心生成式人工智能对年幼孩子教育发展的影响(第 41 名),因为大语言模型可以瞬间完成许多 K-12 阶段的作业。
但生成式人工智能也可能在此方面提供帮助,使我们能够更深入、更清晰地思考,减少恐惧。财富 500 强人工智能顾问艾丽・米勒(Allie Miller)对这些应用案例评论道:
当我们在心理上感到安全时,我们才能发挥出最佳水平,与人工智能合作时也是如此。没有评判且不受限制的探索使它成为实现远大梦想、提出可能令人尴尬的问题或追求模糊、尚未成型目标的理想场所。这些应用案例预示着这样一种未来:从一个想法的萌芽(无论是创建一个新网站还是实现个人生活的转变)到采取有价值的行动,成本几乎降为零。
更加成熟的用户
有几个迹象表明,2025 年的生成式人工智能用户对生成式人工智能、其开发者以及它所处的生态系统有了更深入的理解,同时也产生了怀疑。
最尖锐的质疑是关于大语言模型在政治正确性方面的表现。在美国 2024 年选举年期间,这种质疑可能更为明显。因此,至少有一位用户取消了订阅:“出于这个原因,我取消了订阅。我不想支持一个试图让世界变得更加胆小和拘谨的工具。”
数据隐私问题也反复被提及。对生成式人工智能的热情常常伴随着对大型科技公司如何处理收集到的数据的警告。对此,人们发出了抗议的声音,Reddit 上的一条评论很好地体现了这种情绪:
已经太晚了:我的银行有我的数据,我的信用卡公司有我的数据,谷歌有我的数据,必应有我的数据,T-Mobile 有我的数据,我的牙医和医生也有我的数据…… 仔细想想:短信、电子邮件、语音邮件、应用程序、照片、视频、位置历史记录、浏览历史记录、保存的密码、联系人、日历、社交媒体账号、提醒事项、购物清单、支付方式、会员卡、步数统计、睡眠数据、屏幕使用时间统计、流媒体偏好,甚至我的食品订单都包含我的个人信息。
具有讽刺意味的是,另一个常见的抱怨是大语言模型对用户了解不足,即它们无法保留足够的记忆:“我觉得对记忆存储施加如此严格的限制太离谱了。”
正如人们所预期的那样,今年用户似乎对大语言模型的工作原理有了更好的理解。更多的人似乎理解了一个基本观点,即要让人工智能对人类有用,我们需要明确自己的意图:“当然,只有当我清楚自己想做什么时,它才会有帮助。” 所引用的提示也更加完善(通常在大语言模型的明确支持下生成),你可以在完整报告中列出的许多例子中看到这一点。
话虽如此,在线公共论坛也是产生缺乏深度、两极分化观点的地方。有人认为生成式人工智能是 “最令人惊叹的发明,我无法相信还有人不使用它”。但也有人认为它毫无用处:“我想不出这项技术能带来什么好处。” 甚至更糟糕的是:“我甚至想不出一个不是恶意的应用案例。”
未来展望
在线论坛一直是人们进行无端猜测的沃土。
大多数预测要么认为结果会极其糟糕,要么认为会极其美好。一个常见且更细致的预测是,希望大语言模型从提供建议和信息转变为采取行动,即具备自主性。例如,一位用户希望有一个模型能 “在开始收费前取消我的订阅”。
去年,我做出了一个正确但相当保守的预测,即人工智能将继续发展,我们对它的应用也会不断发展。现在我做出同样的预测。2026 年见。

本文转载自HBR,本文观点不代表雅典娜AI助手YadiannaAI立场。