一个即将与人工智能对抗的人

无需人工干预,生成式人工智能可以做什么?

执行摘要

生成式人工智能 (AI)——一种使机器能够创建文本、图像、代码等的技术——近年来经历了爆炸式增长。本白皮书以通俗易懂的语言概述了生成式人工智能目前无需人工干预即可可靠地完成的工作,以及未来十年的预期发展方向。我们调查了其在写作、艺术、编程、客户服务、医疗保健、教育、物流和金融领域的应用,重点介绍了人工智能在哪些领域可以自主运行,以及哪些领域仍然需要人工监督。白皮书还通过现实世界的案例来说明其成功之处和局限性。主要发现包括:

  • 广泛应用: 2024年,65%的受访公司表示将定期使用生成式人工智能,这一比例几乎是上一年的两倍(《 2024年初人工智能发展状况》 | 麦肯锡)。应用领域涵盖营销内容创作、客户支持聊天机器人、代码生成等。

  • 当前的自主能力:如今的生成式人工智能能够在极少的监督下可靠地处理结构化、重复性的任务。例如,自动生成公式化的新闻报道(例如公司盈利摘要)( Philana Patterson – ONA 社区简介)、在电商网站上生成产品描述和评论重点,以及自动完成代码。在这些领域,人工智能通常会接管日常内容生成工作,从而增强人类工作者的能力。

  • 复杂任务的人机协同:对于更复杂或开放式的任务(例如创意写作、详细分析或医疗建议),通常仍需要人工监督,以确保事实准确性、伦理判断和质量。如今,许多人工智能部署都采用“人机协同”模型,即由人工智能起草内容,人工审核。

  • 近期改进:未来5到10年,生成式人工智能预计将变得更加可靠和自主。模型精度和护栏机制的进步,或许能让人工智能以最少的人工投入处理更多创造性和决策任务。例如,专家预测,到2030年,人工智能将实时处理大部分客户服务互动和决策(《重塑客户体验转型:营销人员必须做到这两点》 ),一部热门影片的制作内容中90%可能由人工智能生成(《工业和企业的生成式人工智能用例》 )。

  • 到2035年:十年后,我们预计自主人工智能代理将在众多领域普及。人工智能导师可以大规模提供个性化教育,人工智能助理可以可靠地起草法律合同或医疗报告以供专家签核,自动驾驶系统(借助生成式模拟)可以端到端地运行物流操作。然而,某些敏感领域(例如高风险的医疗诊断、最终法律决策)可能仍需要人类判断,以确保安全和问责。

  • 伦理与可靠性担忧:随着人工智能自主性的增长,担忧也随之增加。目前存在的问题包括幻觉(人工智能编造事实)、生成内容的偏见、缺乏透明度以及可能被滥用于虚假信息。确保人工智能在无人监管的情况下仍然值得信赖至关重要。目前人工智能领域正在取得进展,例如,各组织正在加大对风险缓解的投入(解决准确性、网络安全和知识产权问题)( 《人工智能现状:全球调查》| 麦肯锡),但仍需建立健全的治理和伦理框架。

  • 本文结构:首先,我们将介绍生成式人工智能以及自主应用与监督应用的概念。然后,我们将针对每个主要领域(写作、艺术、编程等),讨论人工智能目前能够可靠地完成哪些任务,以及未来将如何发展。最后,我们将探讨跨领域挑战、未来预测,以及负责任地利用生成式人工智能的建议。

总体而言,生成式人工智能已被证明能够在无需人类持续指导的情况下处理一系列令人惊讶的任务。通过了解其当前的局限性和未来的潜力,组织和公众可以更好地为一个人工智能不再仅仅是工具,而是工作和创造力的自主协作者的时代做好准备。

介绍

人工智能早已能够分析数据,但直到最近,AI系统才学会了创作——撰写散文、创作图像、编写软件等等。这些生成式AI模型(例如用于文本的GPT-4或用于图像的DALL·E)基于海量数据集进行训练,能够根据提示生成新颖的内容。这一突破引发了各行各业的创新浪潮。然而,一个关键问题随之而来:我们究竟能信任AI自主完成哪些工作,而无需人工反复检查其输出?

要回答这个问题,区分监督自主

  • 人工监督的AI是指AI输出在最终定稿之前需要人工审核或筛选的场景。例如,记者可能会使用AI写作助手撰写文章,但编辑会对其进行编辑和审批。

  • 自主人工智能(无需人工干预的人工智能)是指能够执行任务或生成内容并直接投入使用的人工智能系统,几乎无需人工编辑。例如,自动聊天机器人无需人工代理即可解决客户查询,或者新闻机构自动发布由人工智能生成的体育赛事比分摘要。

生成式人工智能已在两种模式下得到部署。2023年至 2025 年,其采用率将大幅提升,各组织都在积极尝试。2024 年的一项全球调查发现,65% 的公司正在定期使用生成式人工智能,而一年前这一数字仅为三分之一左右( 2024 年初人工智能发展状况 | 麦肯锡)。个人也开始使用 ChatGPT 等工具——预计到 2023 年中期,将有 79% 的专业人士至少接触过生成式人工智能( 2023 年人工智能发展状况:生成式人工智能的突破之年 | 麦肯锡)。这种快速发展是由效率和创造力提升所驱动。然而,现在仍处于“早期阶段”,许多公司仍在制定如何负责任地使用人工智能的政策( 2023 年人工智能发展状况:生成式人工智能的突破之年 | 麦肯锡)。

自主性为何重要:让人工智能在无人监督的情况下运行,可以带来巨大的效率提升——彻底自动化繁琐的任务——但这也提高了可靠性的要求。自主的人工智能代理必须做到正确无误(或了解其局限性),因为可能没有人类实时发现错误。有些任务比其他任务更适合这样做。通常,人工智能在以下情况下自主运行效果最佳:

  • 该任务具有清晰的结构或模式(例如,从数据生成常规报告)。

  • 错误的风险较低或容易容忍(例如,如果不令人满意,可以丢弃图像生成,而不是医学诊断)。

  • 有大量的训练数据涵盖各种场景,因此人工智能的输出以真实的例子为基础(减少猜测)。

相比之下,开放式高风险或需要细致判断的任务如今不太适合零监督。

在以下章节中,我们将探讨一系列领域,以了解生成式人工智能的现状和未来发展方向。我们将通过具体案例——从人工智能撰写的新闻文章和人工智能生成的艺术作品,到代码编写助手和虚拟客服人员——重点介绍哪些任务可以由人工智能端到端完成,哪些任务仍然需要人工参与。对于每个领域,我们都将当前能力(大约 2025 年)与 2035 年可能实现的可靠现实预测进行清晰区分。

通过描绘跨领域自主人工智能的现状和未来,我们旨在为读者提供一个平衡的理解:既不过度炒作人工智能神奇般地万无一失,也不低估其真实存在且不断增长的能力。在此基础上,我们将探讨在无人监管的情况下信任人工智能所面临的主要挑战,包括伦理考量和风险管理,最后总结出一些关键要点。

写作和内容创作中的生成式人工智能

生成式人工智能最早引起轰动的领域之一是文本生成。大型语言模型可以生成各种内容,从新闻文章、营销文案到社交媒体帖子和文档摘要。但是,这些写作有多少可以在没有人工编辑的情况下完成呢?

当前能力(2025年):人工智能作为日常内容的自动编写者

如今,生成式人工智能能够可靠地处理各种日常写作任务,几乎无需人工干预。新闻业就是一个典型的例子:美联社多年来一直使用自动化技术,直接从财务数据源中每季度生成数千份公司收益报告( Philana Patterson – ONA 社区简介)。这些简短的新闻报道遵循模板(例如,“X 公司报告收益为 Y,增长 Z%……”),而人工智能(使用自然语言生成软件)可以比任何人类更快地填充数字和措辞。美联社的系统会自动发布这些报道,大大扩展了其覆盖范围(每季度超过 3,000 篇报道),而无需人工撰写(自动化收益报道成倍增加 | 美联社)。

体育新闻也得到了类似的增强:人工智能系统可以收集体育赛事统计数据并生成回顾报道。由于这些领域是数据驱动且公式化的,只要数据正确,错误就很少发生。在这些情况下,我们看到了真正的自主性——人工智能撰写内容,内容立即发布。

企业也在使用生成式人工智能来撰写产品描述、电子邮件简报和其他营销内容。例如,电商巨头亚马逊现在使用人工智能来汇总客户对产品的评论。人工智能会扫描许多个人评论的文本,并生成一个简洁的突出显示段落,以突出人们对该产品的喜好,然后将其显示在产品页面上,无需手动编辑(亚马逊利用人工智能改善客户评论体验)。下图是此功能在亚马逊移动应用程序上部署的示意图,其中“客户评价”部分完全由人工智能根据评论数据生成:

亚马逊利用人工智能提升客户评论体验电商产品页面上的人工智能生成的评论摘要。亚马逊的系统将用户评论中的共同点(例如易用性、性能)总结成一个简短的段落,并向购物者展示“人工智能根据客户评论文本生成的评论”。

这些用例表明,当内容遵循可预测的模式或从现有数据中聚合而成时,AI通常可以单独处理。其他当前示例包括:

  • 天气和交通更新:媒体使用人工智能根据传感器数据汇编每日天气报告或交通公告。

  • 财务报告:公司自动生成直观的财务摘要(季度业绩、股市简报)。自2014年以来,彭博社和其他新闻机构一直使用人工智能协助撰写公司盈利新闻摘要——一旦输入数据,这一过程基本自动运行(美联社的“机器人记者”现在正在撰写自己的报道 | The Verge )(怀俄明州记者被抓到使用人工智能制造虚假引言和报道)。

  • 翻译和转录:转录服务如今利用人工智能生成会议记录或字幕,无需人工打字。虽然这些语言任务并非创造性地生成,但它们能够自主运行,并保持高精度,从而获得清晰的音频。

  • 草稿生成:许多专业人士使用 ChatGPT 等工具来起草电子邮件或文档的初版,如果内容风险较低,偶尔会几乎不做任何编辑就发送。

然而,对于更复杂的文章,即使在 2025 年,人工监督仍是常态。新闻机构很少直接发布来自人工智能的调查性或分析性文章——编辑将对人工智能撰写的草稿进行事实核查和修改。人工智能可以模仿风格和结构,但可能会引入事实错误(通常称为“幻觉”)或人类需要纠正的尴尬措辞。例如,德国报纸《快报》引入了一位名为 Klara 的人工智能“数字同事”来帮助撰写最初的新闻稿。Klara 可以高效地起草体育报道,甚至可以写出吸引读者的标题,为《快报》 11% 的文章做出了贡献——但人类编辑仍然会审查每篇文章的准确性和新闻诚信,尤其是对于复杂的故事记者在新闻编辑室使用人工智能工具的 12 种方式 - Twipe )。这种人机合作关系在今天很常见:人工智能负责生成文本的繁重工作,人类根据需要进行整理和修改。

2030-2035年展望:迈向可信自主写作

未来十年,我们预计生成式人工智能将在生成高质量、符合事实的文本方面变得更加可靠,这将拓宽其能够自主处理的写作任务范围。以下几个趋势支持了这一观点:

  • 提升准确性:正在进行的研究正在迅速降低人工智能生成虚假或不相关信息的倾向。到2030年,经过更完善训练的高级语言模型(包括实时与数据库核实事实的技术)将能够实现接近人类水平的内部事实核查。这意味着人工智能可以自动从源材料中提取正确的引文和统计数据,撰写一篇完整的新闻稿,几乎无需任何编辑。

  • 领域特定人工智能:我们将看到更专业的生成模型,这些模型针对特定领域(法律、医学、技术写作)进行了微调。2030年的法律人工智能模型或许能够可靠地起草标准合同或总结案例——这些任务结构公式化,但目前需要律师投入大量时间。如果人工智能接受过经过验证的法律文件的训练,其草稿可能足够可靠,律师只需快速浏览一下即可。

  • 自然风格与连贯性:模型在长篇文档中保持上下文的能力日益提升,从而能够生成更加连贯、切中要点的长篇内容。到 2035 年,人工智能有望能够独立创作出一本像样的非虚构类书籍或技术手册的初稿,而人类主要扮演顾问的角色(例如设定目标或提供专业知识)。

这在实践中会是什么样子?常规新闻工作在某些领域可能几乎完全实现自动化。我们可能会在 2030 年看到一家新闻机构使用人工智能系统撰写每一份收益报告、体育报道或选举结果更新的第一个版本,而编辑只需抽取其中几个内容进行质量保证。事实上,专家预测,越来越多的在线内容将由机器生成——行业分析师的一项大胆预测表明,到 2026 年,高达 90% 的在线内容可能由人工智能生成到 2026 年,非人类生成的在线内容将大大超过人类生成的内容 - OODAloop ),尽管这个数字尚有争议。即使是更保守的结果也意味着,到 2030 年代中期,大多数常规网络文章、产品文案,甚至个性化新闻推送都将由人工智能创作。

市场营销和企业传播领域,生成式人工智能很可能会被委托自主运营整个营销活动。它可以生成并发送个性化的营销邮件、社交媒体帖子和广告文案变体,并根据客户反应不断调整信息内容——所有这些都无需人工文案的介入。Gartner 分析师预测,到 2025 年,至少 30% 的大型企业对外营销信息将由人工智能合成生成(行业和企业的生成式人工智能用例),而这一比例到 2030 年只会上升。

然而,值得注意的是,人类的创造力和判断力仍将发挥重要作用,尤其是在高风险内容方面。到2035年,人工智能或许能够独立处理新闻稿或博客文章,但对于涉及问责或敏感话题的调查性新闻报道,媒体机构可能仍会坚持人工监督。未来可能会出现一种分层模式:人工智能自主制作大部分日常内容,而人类则专注于编辑和制作战略性或敏感内容。本质上,随着人工智能能力的提升,“常规”工作的界限将会扩大。

人工智能生成的交互式叙述或个性化报告等新形式的内容也可能出现。例如,一份公司年度报告可以由人工智能生成多种风格——面向高管的简介版、面向员工的叙述版、面向分析师的数据丰富版——每种风格都基于相同的基础数据自动生成。在教育领域,人工智能可以动态编写教科书,以适应不同的阅读水平。这些应用程序可以在很大程度上实现自动化,但以经过验证的信息为基础。

写作的发展轨迹表明,到2030年代中期,人工智能将成为一位高产的作家。真正自主运行的关键在于建立对其输出的信任。如果人工智能能够始终如一地展现事实准确性、文体质量并符合伦理标准,那么对逐行人工审核的需求将会减少。到2035年,这份白皮书的某些部分很可能由人工智能研究人员自行起草,而无需编辑——只要有适当的保障措施到位,我们对这一前景持谨慎乐观的态度。

视觉艺术与设计中的生成式人工智能

生成式人工智能 (Generative AI) 创作图像和艺术作品的能力激发了公众的想象力,从赢得艺术比赛的 AI 生成画作,到与真实影像难以区分的深度伪造视频。在视觉领域,诸如生成对抗网络 (GAN) 和扩散模型(例如稳定扩散模型、Midjourney 模型)之类的 AI 模型可以根据文本提示生成原创图像。那么,AI 现在能否成为一名自主的艺术家或设计师呢?

当前能力(2025年):人工智能作为创意助手

截至 2025 年,生成模型已能够按需创建图像。用户可以要求图像 AI 绘制“梵高风格的中世纪日落城市”,并在几秒钟内获得一幅令人信服的艺术图像。这使得 AI 在平面设计、市场营销和娱乐领域得到广泛应用,可用于概念艺术、原型设计,甚至在某些情况下用于最终视觉效果的制作。值得注意的是:

  • 平面设计与图片库:公司通过人工智能生成网站图形、插图或库存照片,从而减少了每件作品都委托艺术家创作的必要性。许多营销团队使用人工智能工具制作各种广告或产品图片,以测试哪些内容能吸引消费者。

  • 艺术与插画:个人艺术家与人工智能合作,集思广益或完善细节。例如,插画家可能会使用人工智能生成背景场景,然后将其与人类绘制的角色融合在一起。一些漫画创作者已经尝试使用人工智能生成画板或着色。

  • 媒体和娱乐:人工智能生成的艺术作品已出现在杂志封面和书籍封面上。一个著名的例子是2022年8月刊《Cosmopolitan》的封面,封面上有一位宇航员——据报道,这是第一张由人工智能(OpenAI的DALL·E)在艺术总监指导下创作的杂志封面图像。虽然这涉及到人工的提示和选择,但实际的艺术作品是由机器渲染的。

至关重要的是,目前大多数此类应用仍然需要人工筛选和迭代。AI 可以生成数十张图片,然后由人类从中挑选出最佳方案,并可能进行润色。从这个意义上讲,AI 自主生成选项,而人类则引导创作方向并做出最终选择。AI 可以快速生成大量内容,但无法保证一次性满足所有要求。诸如细节错误(例如,AI 画的手的手指数量不对,这是一个已知的怪癖)或结果不符合预期等问题,通常需要人类艺术总监来监督输出质量。

然而,在某些领域,人工智能已经接近完全自主:

  • 生成式设计:在建筑和产品设计等领域,人工智能工具可以自主创建满足特定约束条件的设计原型。例如,给定一件家具所需的尺寸和功能,生成式算法可能会输出几种可行的设计(其中一些设计非常独特),无需人工干预,使其超出初始规格。这些设计随后可以被人类直接使用或改进。同样,在工程领域,生成式人工智能可以设计出针对重量和强度进行优化的零件(例如飞机部件),从而创造出人类可能从未想过的新颖形状。

  • 电子游戏素材: AI 可以自动生成电子游戏的纹理、3D 模型,甚至整个关卡。开发者利用这些来加速内容创作。一些独立游戏已经开始融入程序生成的艺术作品,甚至对话(通过语言模型),以极少的人工素材创建出广阔而动态的游戏世界。

  • 动画和视频(新兴):虽然视频生成式人工智能不如静态图像成熟,但正在不断发展。人工智能已经可以根据提示生成短视频片段或动画,尽管质量参差不齐。Deepfake 技术(一种生成式技术)可以制作逼真的换脸或语音克隆。在受控环境下,工作室可以使用人工智能自动生成背景场景或人群动画。

值得注意的是,Gartner 预测,到 2030 年,我们将看到一部90% 的内容由 AI 生成的大片(从剧本到视觉效果)(行业和企业的生成式 AI 用例)。截至 2025 年,我们还没有实现这一目标——AI 还无法独立制作一部长篇电影。但这个难题的各个部分正在发展:剧本生成(文本 AI)、角色和场景生成(图像/视频 AI)、配音(AI 语音克隆)以及剪辑辅助(AI 已经可以辅助剪辑和转场)。

2030-2035年展望:人工智能生成的媒体规模化

展望未来,生成式人工智能在视觉艺术和设计领域的作用将大幅扩展。到 2035 年,我们预计人工智能将成为主要内容创造者,通常除了初始引导外,几乎无需人工干预即可运行。以下是一些预期:

  • 完全由人工智能生成的电影和视频:未来十年,我们很有可能看到首批主要由人工智能制作的电影或电视剧。人类或许可以提供高级指导(例如剧本大纲或所需的风格),然后人工智能将渲染场景、创建演员肖像并制作所有动画。早期短片实验可能在未来几年内进行,到2030年代将尝试制作长片。这些人工智能电影最初可能只是小众产品(例如实验动画),但随着质量的提高,它们可能会成为主流。Gartner 预测到2030年,90%的电影将由人工智能生成(工业和企业的生成式人工智能用例),尽管这一预测雄心勃勃,但也突显了业界的信念:人工智能内容创作将足够成熟,足以承担电影制作的大部分工作。

  • 设计自动化:在时尚或建筑等领域,生成式人工智能将可能被用于根据“成本、材料、X 风格”等参数自主起草数百个设计概念,最终由人类来选择。这将颠覆当前的格局:未来的设计师不再是从零开始创作,或许还会借助人工智能来获取灵感,而是更多地扮演策展人的角色,挑选出最佳的人工智能生成设计,并对其进行调整。到 2035 年,建筑师或许只需输入建筑需求,就能从人工智能那里获得完整的蓝图建议(所有这些蓝图都基于嵌入式工程规则,结构合理)。

  • 个性化内容创作:我们或许会看到人工智能为个人用户即时创作视觉效果。想象一下,在2035年,一款电子游戏或虚拟现实体验中的场景和角色会根据玩家的喜好进行调整,并由人工智能实时生成。又或者,根据用户的一天生活生成个性化的连载漫画——一个自主的“每日日记漫画”人工智能,每天晚上自动将你的文字日记转换成插​​图。

  • 多模态创造力:生成式人工智能系统日益趋向多模态化——这意味着它们可以同时处理文本、图像、音频等。通过整合这些内容,人工智能可以接收一个简单的提示,例如“为我制作一个产品 X 的营销活动”,它不仅可以生成文字文案,还可以生成匹配的图形,甚至可能是风格一致的短片宣传视频。这种一键式内容套件很可能在 2030 年代初成为现实。

人工智能会取代人类艺术家吗?这个问题经常被提出。人工智能很可能会接管大量的生产工作(尤其是商业所需的重复性或快速周转的艺术),但人类的艺术才能仍将保留下来,以追求原创和创新。到2035年,自主的人工智能或许能够可靠地模仿著名艺术家的风格进行创作——但创造一种新的风格或具有深刻文化共鸣的艺术作品可能仍然是人类的强项(可能需要人工智能作为合作伙伴)。我们预见到未来人类艺术家将与自主的人工智能“合作艺术家”一起工作。例如,人们可以委托个人人工智能持续为家中的数字画廊创作艺术作品,营造不断变化的创意氛围。

从可靠性的角度来看,视觉生成AI在某些方面比文本更容易实现自主化:图像即使不完美,也可以主观地“足够好”,而文本中的事实错误则更成问题。因此,我们已经看到了相对低风险的采用——如果AI生成的设计丑陋或错误,你根本不会使用它,但它本身不会造成任何损害。这意味着到2030年代,公司可能会放心地让AI在无人监督的情况下大量生产设计,只有在真正需要创新或有风险的时候才需要人工参与。

总而言之,到2035年,生成式人工智能预计将成为视觉领域强大的内容创造者,很可能负责我们周围很大一部分图像和媒体。它将可靠地为娱乐、设计和日常交流生成内容。自主艺术家即将出现——尽管人工智能究竟应该被视为具有创造力,还是仅仅是一个非常智能的工具,这是一个争论的焦点,随着其输出与人类作品变得难以区分,这一争论还将持续下去。

软件开发中的生成式人工智能(编码)

软件开发看似是一项高度分析性的任务,但它也蕴含着创造性的元素——编写代码本质上是用结构化语言创建文本。现代生成式人工智能,尤其是大型语言模型,已被证明在编码方面非常出色。GitHub Copilot、Amazon CodeWhisperer 等工具可以充当 AI 结对编程员,在开发人员输入代码时提供代码片段甚至整个函数的建议。这在实现自主编程方面能走多远?

当前能力(2025年):人工智能作为编码副驾驶

到 2025 年,AI 代码生成器将在许多开发人员的工作流程中变得普遍。这些工具可以自动完成代码行,生成样板代码(例如标准函数或测试),甚至可以根据自然语言描述编写简单的程序。但至关重要的是,它们在开发人员的监督下运行——开发人员审查并整合 AI 的建议。

一些当前的事实和数据:

  • 到 2023 年底,超过一半的专业开发人员已经采用了人工智能编码助手( Copilot 上的编码:2023 年数据显示代码质量面临下行压力(含 2024 年预测)- GitClear ),这表明其应用正在快速发展。GitHub Copilot 是首批广泛使用的工具之一,据报道,它平均能生成使用它的项目中 30-40% 的代码(编码不再是护城河。GitHub 上 46% 的代码已经是…… )。这意味着人工智能已经在编写大量代码,尽管是由人类来引导和验证的。

  • 这些 AI 工具擅长执行诸如编写重复性代码(例如数据模型类、getter/setter 方法)、将一种编程语言转换为另一种编程语言,或生成类似于训练示例的简单算法等任务。例如,开发人员可以注释“// 按姓名对用户列表进行排序的函数”,AI 几乎可以立即生成合适的排序函数。

  • 它们还能协助修复和解释错误:开发人员可以粘贴一条错误消息,AI 可能会建议修复方案,或者询问“这段代码的作用是什么?”并获得自然语言解释。从某种意义上说,这是自主的(AI 可以自行诊断问题),但是否应用修复方案则由人类决定。

  • 重要的是,当前的AI编程助手并非万无一失。它们可能会建议不安全的代码,或者几乎可以解决问题但却存在细微错误的代码。因此,目前的最佳做法是让人类参与其中——开发人员像测试和调试人类编写的代码一样测试和调试AI编写的代码。在受监管的行业或关键软件(例如医疗或航空系统)中,任何AI贡献都需经过严格审查。

目前,没有哪个主流软件系统是完全由人工智能从零开始编写,且无需开发人员监督的。然而,一些自主或半自主的用途正在兴起:

  • 自动生成的单元测试: AI 可以分析代码并生成单元测试,以涵盖各种情况。测试框架可以自主生成并运行这些 AI 编写的测试来捕获错误,从而增强人工编写的测试。

  • 低代码/无代码人工智能平台:一些平台允许非程序员描述他们的需求(例如,“构建一个包含联系表单和数据库以保存条目的网页”),然后系统生成代码。虽然目前仍处于早期阶段,但这预示着未来人工智能可以自主创建用于标准用例的软件。

  • 脚本和粘合代码: IT 自动化通常涉及编写脚本来连接系统。AI 工具通常可以自动生成这些小脚本。例如,编写一个脚本来解析日志文件并发送电子邮件警报——AI 只需极少的编辑甚至无需编辑即可生成可用的脚本。

2030-2035年展望:迈向“自主开发”软件

未来十年,生成式人工智能预计将承担更大比例的编码工作,使某些类型的项目更接近完全自主的软件开发。以下是一些预期的发展:

  • 完整的功能实现:到 2030 年,我们预计 AI 将能够端到端地实现简单的应用程序功能。产品经理可以用通俗易懂的语言描述一项功能(“用户应该能够通过电子邮件链接重置密码”),AI 就能生成必要的代码(前端表单、后端逻辑、数据库更新、电子邮件发送)并将其集成到代码库中。AI 可以有效地充当初级开发人员,遵循规范。而人类工程师可能只需要进行代码审查和运行测试。随着 AI 可靠性的提高,代码审查甚至可能只是快速浏览。

  • 自主代码维护:软件工程的很大一部分不仅仅是编写新代码,还包括更新现有代码——修复错误、提升性能、适应新需求。未来的人工智能开发者很可能在这方面表现出色。给定一个代码库和一个指令(“当过多用户同时登录时,我们的应用程序会崩溃”),人工智能可能会找到问题所在(例如并发错误)并进行修补。到2035年,人工智能系统可能会在夜间自动处理例行维护工单,成为软件系统不知疲倦的维护团队。

  • 集成和 API 使用:随着越来越多的软件系统和 API 附带 AI 可读文档,AI 代理可以通过编写粘合代码,独立地找出如何将系统 A 与服务 B 连接起来。例如,如果一家公司希望其内部人力资源系统与新的薪资 API 同步,他们可能会要求 AI“让它们相互通信”,然后在读取两个系统的规范后,AI 会编写集成代码。

  • 质量与优化:未来的代码生成模型可能会融入反馈循环,以验证代码是否有效(例如,在沙盒中运行测试或模拟)。这意味着人工智能不仅可以编写代码,还可以通过测试进行自我修正。到2035年,我们可以想象一个人工智能在接到任务后,会不断迭代其代码,直到所有测试都通过——这个过程可能不需要人类逐行监控。这将极大地提升人们对自主生成代码的信任。

我们可以设想这样一个场景:到2035年,一个小型软件项目——比如一个为企业定制的移动应用程序——将主要由人工智能代理根据高层指令进行开发。在这种情况下,人类“开发者”更像是一个项目经理或验证者,负责指定需求和约束(例如安全性、代码风格指南),并让人工智能完成实际编码的繁重工作。

然而,对于复杂的大型软件(操作系统、先进的人工智能算法本身等),人类专家仍将深度参与。软件中的创造性问题解决和架构设计可能在一段时间内仍由人类主导。人工智能或许可以处理大量的编码任务,但决定什么以及设计整体架构则是另一项挑战。话虽如此,随着生成式人工智能开始协作——多个人工智能代理处理系统的不同组件——可以想象它们可以在某种程度上共同设计架构(例如,一个人工智能提出一个系统设计方案,另一个人工智能对其进行评审,然后它们进行迭代,整个过程由人类监督)。

人工智能在编码领域的一个主要预期优势是生产力提升。Gartner 预测,到 2028 年,90% 的软件工程师将使用人工智能代码助手(而 2024 年这一比例还不到 15%)( GitHub Copilot 荣登《Visual Studio Magazine》人工智能代码助手研究报告榜首)。这意味着,不使用人工智能的例外情况将非常少。我们或许还会看到某些领域人类开发人员的短缺问题,而人工智能可以填补这一缺口;实际上,每个开发人员都可以借助能够自主编写代码的人工智能助手完成更多工作。

信任仍将是一个核心问题。即使到了2035年,组织仍需确保自主生成的代码的安全性(AI不得引入漏洞),并符合法律/道德规范(例如,AI不得包含未经适当许可的开源库中抄袭的代码)。我们期待改进的AI治理工具能够验证和追踪AI编写代码的来源,从而帮助实现更自主的编码,避免风险。

总而言之,到 2030 年代中期,生成式人工智能很可能承担大部分常规软件任务的编码工作,并在复杂任务中提供显著协助。软件开发生命周期将更加自动化——从需求到部署——人工智能有可能自动生成和部署代码更改。人类开发人员将更多地关注高级逻辑、用户体验和监督,而人工智能代理则负责处理实现细节。

客户服务和支持中的生成式人工智能

如果您最近曾与在线客服聊天互动,那么很有可能至少有一部分对话是由人工智能完成的。客户服务是一个非常适合人工智能自动化的领域:它涉及响应用户查询,而生成式人工智能(尤其是对话模型)在这方面表现相当出色;此外,它通常遵循脚本或知识库文章,而这些是人工智能可以学习的。那么,人工智能能够自主地处理客户问题吗?

当前能力(2025):聊天机器人和虚拟代理占据前沿

如今,许多组织已部署人工智能聊天机器人作为客户服务的第一联络点。这些机器人种类繁多,从简单的基于规则的机器人(“按 1 进行结算,按 2 获取支持……”),到能够理解自由形式问题并以对话方式做出回应的高级生成式人工智能聊天机器人,不一而足。要点:

  • 处理常见问题: AI 代理擅长解答常见问题、提供信息(例如营业时间、退款政策、已知问题的故障排除步骤),并指导用户完成标准流程。例如,银行的 AI 聊天机器人可以自主帮助用户查询账户余额、重置密码或解释如何申请贷款,而无需人工协助。

  • 自然语言理解:现代生成模型能够实现更流畅、更“人性化”的交互。客户可以用自己的语言输入问题,AI 通常能够理解其意图。多家公司报告称,如今的 AI 客服代理比几年前笨重的机器人更能满足客户需求——近一半的客户认为 AI 客服代理在解决问题时能够富有同理心且高效( 2025 年 59 项 AI 客户服务统计数据),这表明人们对 AI 驱动服务的信任度日益提升。

  • 多渠道支持: AI 的应用范围不仅仅局限于聊天。语音助手(例如搭载 AI 的电话 IVR 系统)也开始处理来电,AI 还可以针对客户咨询撰写电子邮件回复,如果回复准确,回复可能会自动发送。

  • 当人类介入时:通常情况下,如果AI感到困惑或问题过于复杂,它会将任务交给人工代理。当前的系统在很多情况下都能够充分了解自身的局限性。例如,如果客户提出一些不寻常的问题或表现出沮丧(“这是我第三次联系您了,我非常沮丧……”),AI可能会标记这种情况,以便人工接手。交接的门槛由公司设定,以平衡效率和客户满意度。

许多公司报告称,相当一部分互动问题仅靠人工智能就能解决。根据行业调查,目前约有70-80%的常规客户咨询可以由人工智能聊天机器人处理,约40%的公司跨渠道客户互动已实现自动化或人工智能辅助(《你应该知道的52个人工智能客户服务统计数据 - Plivo 》)。IBM的《全球人工智能采用指数》(2022年)显示,到2025年,80%的公司将使用或计划使用人工智能聊天机器人进行客户服务。

一个有趣的发展是,人工智能不仅能响应客户,还能主动协助人工客服。例如,在实时聊天或通话过程中,人工智能可以倾听客户需求,并立即为人工客服提供建议答案或相关信息。这模糊了自主性的界限——人工智能并非独自面对客户,而是主动参与,无需人工明确提问。它实际上充当了客服的自主顾问。

2030-2035年展望:客户互动将主要由人工智能驱动

到2030年,预计大多数客户服务互动都将涉及人工智能,许多互动将完全由人工智能处理。以下预测和趋势支持这一观点:

  • 解决更高复杂度的查询:随着人工智能模型整合海量知识并提升推理能力,它们将能够处理更复杂的客户请求。未来的人工智能将不再仅仅回答“如何退货?”,而是能够处理多步骤问题,例如“我的网络断了,我试过重启了,请问您能帮忙吗?”,具体方法是通过对话诊断问题,引导客户进行高级故障排除,并且只有在其他所有方法都失败时才安排技术人员——而这些任务在今天很可能需要人工支持。在医疗保健客户服务领域,人工智能可以端到端地处理患者预约或保险查询。

  • 端到端服务解决方案:我们或许会看到人工智能不仅能告诉客户该做什么,还能在后端系统中真正完成这些操作。例如,如果客户说“我想将航班改到下周一,并添加一件行李”,那么到2030年,人工智能客服人员可能会直接与航空公司的预订系统交互,执行更改、处理行李付款,并向客户确认——所有这些都是自主完成的。人工智能将成为一个全方位服务的客服人员,而不仅仅是一个信息来源。

  • 无处不在的人工智能代理:企业可能会在所有客户接触点部署人工智能——电话、聊天、电子邮件、社交媒体。许多客户甚至可能意识不到自己是在与人工智能还是人类对话,尤其是在人工智能语音变得更加自然、聊天回复更加语境感知的情况下。到 2035 年,联系客服通常意味着与智能人工智能互动,它会记住你过去的互动,理解你的偏好,并适应你的语气——本质上,它就是为每位客户提供个性化的虚拟客服。

  • 人工智能在交互中的决策:除了回答问题之外,人工智能将开始做出目前需要管理层批准的决策。例如,如今,人工客服人员可能需要主管批准才能提供退款或特殊折扣以安抚愤怒的客户。未来,人工智能可以根据计算出的客户生命周期价值和情绪分析,在规定的限度内负责这些决策。Futurum/IBM 的一项研究预测,到 2030 年,约 69% 的实时客户互动决策将由智能机器做出(要重新构想向客户体验的转变,营销人员必须做到这两点)——人工智能将在互动中有效地决定最佳行动方案。

  • 100% AI 参与:每一次客户互动中发挥作用 2025 年 59 项 AI 客户服务统计数据),无论是在前台还是后台。这可能意味着,即使人工与客户互动,他们也会得到 AI 的协助(提供建议、检索信息)。或者说,任何时候,客户的任何疑问都能得到解答——即使人工离线,AI 也始终在线。

到2035年,我们或许会发现,人类客服人员已经变得只专注于处理最敏感或高接触场景(例如VIP客户或需要人类同理心的复杂投诉)。从银行业务到零售业务再到技术支持,常规咨询将由一支全天候工作的人工智能客服团队处理,这些团队会不断从每次互动中学习。这种转变将使客户服务更加一致、更加及时,因为人工智能不会让员工长时间等待,而且理论上可以同时处理无限数量的客户。

要实现这一愿景,需要克服诸多挑战:人工智能必须非常强大,才能应对人类客户的不可预测性。它必须能够应对俚语、愤怒、困惑以及人们千变万化的沟通方式。它还需要掌握最新的知识(如果人工智能的信息过时,那就毫无意义)。通过投资人工智能与公司数据库的集成(用于获取订单、停运等实时信息),这些障碍是可以克服的。

从伦理道德角度来看,公司需要决定何时披露“您正在与人工智能对话”,并确保公平(人工智能不会因为训练存在偏见而对某些客户区别对待)。假设这些都能得到妥善管理,其商业案例将非常强劲:人工智能客户服务可以大幅降低成本并缩短等待时间。随着企业加大对人工智能能力的投资,预计到 2030 年,人工智能客户服务市场规模将增长至数百亿美元(《 2025-2030 年人工智能客户服务市场报告:案例》)( 《生成式人工智能如何促进物流发展 | Ryder 》)。

总而言之,未来自主AI客服将成为常态。获得帮助通常意味着与能够快速解决问题的智能机器进行交互。人类仍将参与监督和处理边缘情况,但更多地扮演AI团队的主管角色。只要AI得到适当的训练和监控,避免出现过去“机器人热线”的糟糕体验,消费者就能获得更快速、更个性化的服务。

医疗保健和医学领域的生成式人工智能

医疗保健是一个高风险的领域。人工智能在医学领域无需人工监督即可运行的想法,既引发了人们的兴奋(出于效率和覆盖范围的考量),也引发了人们的谨慎(出于安全和同理心的考量)。生成式人工智能已开始在医学影像分析、临床文档甚至药物研发等领域取得进展。那么,它能够独立完成哪些负责任的工作呢?

当前能力(2025):协助临床医生,而不是取代他们

目前,医疗领域的生成式人工智能主要充当得力助手,而非自主决策者。例如:

  • 医疗文档:人工智能在医疗保健领域最成功的应用之一是帮助医生处理文书工作。自然语言模型可以转录患者就诊记录,并生成临床记录或出院小结。一些公司配备“人工智能抄写员”,可以在检查过程中(通过麦克风)聆听,并自动生成诊疗记录草稿供医生审阅。这节省了医生的打字时间。一些系统甚至可以自动填充部分电子健康记录。这几乎不需要干预——医生只需纠正草稿上的小错误,这意味着记录的撰写基本上是自主的。

  • 放射学和影像学:人工智能(包括生成模型)可以分析 X 光片、核磁共振成像 (MRI) 和 CT 扫描,以检测异常情况(例如肿瘤或骨折)。2018 年,美国食品药品监督管理局 (FDA) 批准了一款用于自主检测视网膜图像中糖尿病视网膜病变(一种眼部疾病)的人工智能系统——值得注意的是,该系统被授权在特定的筛查环境下无需专家审核即可做出诊断。该系统并非生成型人工智能,但它表明监管机构已在有限情况下允许人工智能自主诊断。生成模型可用于创建综合报告。例如,人工智能可能会检查胸部 X 光片并起草一份放射科医生的报告内容为“无急性发现。肺部清晰。心脏大小正常”。放射科医生只需确认并签字即可。在一些常规病例中,如果放射科医生信任人工智能并进行快速检查,这些报告无需编辑即可发出。

  • 症状检查器和虚拟护士:生成式人工智能聊天机器人正被用作一线症状检查器。患者可以输入自己的症状并获得建议(例如,“这可能是普通感冒;注意休息和补水,但如果出现X或Y症状,请就医。”)。像Babylon Health这样的应用程序使用人工智能提供建议。目前,这些建议通常仅作为信息性建议,而非权威的医疗建议,它们鼓励患者就严重问题寻求人类临床医生的后续治疗。

  • 药物研发(生成化学):生成式人工智能模型可以提出新的药物分子结构。这更多地应用于研究领域,而非患者护理。这些人工智能能够自主工作,推荐数千种具有所需特性的候选化合物,然后由人类化学家在实验室中审核和测试。像 Insilico Medicine 这样的公司已经利用人工智能在显著缩短的时间内生成新的候选药物。虽然这不会直接与患者互动,但它是人工智能自主创建解决方案(分子设计)的一个例子,而人类需要花费更长时间才能找到这些解决方案。

  • 医疗保健运营:人工智能正在帮助优化医院的排班、供应管理和其他物流。例如,生成模型可以模拟患者流量,并建议调整排班以减少等待时间。虽然这些决策并非直观可见,但人工智能只需极少的人工干预即可做出。

需要强调的是,截至2025年,任何一家医院都不会允许AI在未经人类授权的情况下独立做出重大医疗决策或治疗。诊断和治疗计划仍牢牢掌握在人类手中,AI提供输入。AI完全自主地告诉患者“您患有癌症”或开药所需的信任尚未实现,也不应该在没有经过广泛验证的情况下实现。医疗专业人员将AI用作第二双眼睛或节省时间的工具,但他们需要验证关键的输出。

2030-2035 年展望:人工智能将成为医生的同事(也可能是护士或药剂师)

在未来十年,我们预计生成式人工智能将自主承担更多常规临床任务,并扩大医疗服务的覆盖范围:

  • 自动初步诊断:到2030年,人工智能将能够可靠地处理许多常见疾病的初步分析。想象一下,诊所里的人工智能系统可以通过摄像头读取患者的症状、病史,甚至他们的语气和面部表情,并提供诊断建议和推荐的检查——所有这些都在人类医生就诊之前完成。这样,医生就可以专注于确认和讨论诊断结果。在远程医疗中,患者可以先与人工智能聊天,缩小诊断范围(例如,可能是鼻窦感染,还是更严重的疾病),然后在需要时将其转接给临床医生。如果人工智能被证明极其准确,监管机构可能会允许其正式诊断某些轻微疾病,而无需人工监督——例如,人工智能可以通过耳镜图像诊断出简单的耳部感染。

  • 个人健康监测器:随着可穿戴设备(智能手表、健康传感器)的普及,人工智能将持续监测患者并自主发出问题预警。例如,到2035年,可穿戴设备的人工智能可能会检测到心律异常,并自动安排紧急虚拟问诊,甚至在检测到心脏病发作或中风的迹象时呼叫救护车。这进入了自主决策领域——判断情况紧急并采取行动——这是人工智能可能用于挽救生命的一种应用。

  • 治疗建议:基于医学文献和患者数据进行训练的生成式人工智能或许能够提供个性化的治疗方案。到2030年,对于癌症等复杂疾病,人工智能肿瘤委员会可以分析患者的基因构成和病史,并自主制定推荐的治疗方案(化疗方案、药物选择)。人类医生会审核该方案,但随着时间的推移,随着医生对方案的信心逐渐增强,他们可能会开始接受人工智能生成的方案,尤其是在常规病例中,并仅在必要时进行调整。

  • 虚拟护士与家庭护理:能够对话并提供医疗指导的人工智能可以处理大量的后续护理和慢性病护理监测。例如,患有慢性病的居家患者可以向人工智能护士助理报告每日指标,该助理会提供建议(“您的血糖有点高,请考虑调整您的晚间零食摄入量”),并且只有在读数超出范围或出现问题时才会调用人类护士。这种人工智能可以在医生的远程监督下基本自主地运行。

  • 医学影像与实验室分析——全自动化流程:到2035年,在某些领域,医学扫描结果的解读可能主要由人工智能完成。放射科医生将负责监督人工智能系统并处理复杂病例,但大多数正常扫描结果(确实正常的)可由人工智能直接“解读”并签字。同样,病理切片分析(例如,在活检中检测癌细胞)也可自主完成初步筛查,从而显著加快实验室结果的出具速度。

  • 药物研发和临床试验:人工智能不仅能设计药物分子,还能生成用于试验的合成患者数据,或找到最佳的试验候选药物。它或许能够自主运行虚拟试验(模拟患者的反应),以便在正式​​试验之前缩小选择范围。这可以减少人工实验,从而更快地将药物推向市场。

AI医生的愿景仍然遥不可及,且仍存在争议。即使到2035年,人们仍然期望AI能够成为同事,而不是取代人类的诊疗。复杂的诊断通常需要直觉、伦理道德以及通过沟通来理解患者的具体情况——而这些正是人类医生擅长的领域。即便如此,AI或许可以处理80%的常规工作量:文书工作、简单病例、监测等等,让人类临床医生专注于那20%的棘手工作,以及与患者的关系。

存在重大障碍:医疗领域自主人工智能的监管审批非常严格(这是理所当然的)。人工智能系统需要大量的临床验证。我们或许会看到逐渐被接受——例如,允许人工智能在缺乏医生的医疗资源匮乏的地区进行自主诊断或治疗,以此扩大医疗服务的可及性(想象一下,到2030年,偏远村庄将开设一家“人工智能诊所”,由城市医生定期进行远程监督)。

伦理考量至关重要。问责制(如果自主AI诊断错误,谁来负责?)、知情同意(患者需要知道AI是否参与了他们的护理)以及确保公平性(AI适用于所有人群,避免偏见)都是亟待解决的挑战。假设这些问题得到解决,到2030年代中期,生成式AI将融入医疗保健服务,执行许多任务,从而解放人类医护人员,并有可能惠及目前难以获得医疗服务的患者。

总而言之,到2035年,医疗保健领域很可能会深度整合人工智能,但主要还是在幕后或扮演辅助角色。我们会相信人工智能能够独立完成很多工作——读取扫描结果、监测生命体征、制定计划——但关键决策仍需人工监督的安全保障。最终结果可能是建立一个更高效、响应更迅速的医疗保健系统,人工智能负责处理繁重的工作,人类则提供同理心和最终判断。

教育中的生成式人工智能

教育是生成式人工智能蓬勃发展的另一个领域,从人工智能辅导机器人到自动评分和内容创作,不一而足。教学与学习息息相关,沟通和创造力正是生成式模型的优势所在。但是,在没有教师监督的情况下,我们真的可以信任人工智能进行教育吗?

当前能力(2025):导师和内容生成器

目前,人工智能在教育领域的应用主要作为一种补充工具,而非独立教师。以下是一些当前应用示例:

  • AI 辅导助手:像可汗学院的“Khanmigo”(由 GPT-4 提供支持)这样的工具,以及各种语言学习应用程序,都使用 AI 来模拟一对一导师或对话伙伴。学生可以用自然语言提问并获得答案或解释。AI 可以为家庭作业提供提示,以不同的方式解释概念,甚至可以在互动历史课中扮演历史人物。然而,这些 AI 导师通常在监督下使用;教师或应用程序维护人员通常会监控对话内容或限制 AI 的讨论范围(以避免出现错误信息或不当内容)。

  • 教师内容创作:生成式人工智能可以通过创建测验题目、阅读材料摘要、课程计划大纲等来帮助教师。教师可能会要求人工智能“生成 5 道二次方程练习题并附答案”,从而节省备课时间。这是自主的内容生成,但教师通常会审查输出结果的准确性以及是否与课程大纲一致。因此,它更像是一种省力设备,而非完全独立的设备。

  • 评分与反馈:人工智能可以自动评分多项选择题考试(这并非新鲜事),并且越来越多地用于评估简答题或论文。一些学校系统使用人工智能对书面作文进行评分,并向学生提供反馈(例如,语法更正、扩展论点的建议)。虽然人工智能本身并非一项生成性任务,但新的人工智能甚至可以生成个性化的反馈报告,突出需要改进的地方。由于担心细节问题,教师通常会在这个阶段仔细检查人工智能评分的论文。

  • 自适应学习系统:这些平台会根据学生的表现调整学习材料的难度或风格。生成式人工智能则通过根据学生的需求动态创建新的问题或示例来增强这种能力。例如,如果学生对某个概念感到困惑,人工智能可能会生成另一个围绕该概念的类比或练习题。这在某种程度上是自主的,但属于教育工作者设计的系统。

  • 学生用于学习:学生自己使用 ChatGPT 等工具辅助学习——寻求澄清、翻译,甚至使用人工智能获取论文草稿的反馈(“改进我的引言段落”)。这些操作是自主的,无需教师参与。在这种情况下,人工智能可以充当按需辅导老师或校对员。挑战在于确保学生将其用于学习,而不仅仅是获取答案(学术诚信)。

显然,到2025年,人工智能在教育领域将发挥巨大作用,但通常需要一位人类教育者参与其中,负责管理人工智能的贡献。人们对此抱有谨慎的态度是可以理解的:我们不希望相信人工智能会教授错误的信息,也不想在孤立无援的情况下处理敏感的学生互动。教师们将人工智能导师视为得力助手,它们可以为学生提供更多练习机会,并立即解答常规问题,从而使教师能够专注于更深入的指导。

2030-2035年展望:个性化人工智能导师和自动化教学助手

在未来十年,我们预计生成式人工智能将实现更加个性化和自主的学习体验,同时教师的角色也将发生变化:

  • 为每位学生配备人工智能私人导师:到2030年,可汗学院的萨尔·可汗等专家的愿景是,每个学生都能接触到一位在许多方面与人类导师一样高效的人工智能导师(其创造者称,这种人工智能导师可以让人类的智力提高10倍)。这些人工智能导师将全天候待命,深入了解学生的学习历史,并相应地调整教学风格。例如,如果一个学生是视觉学习者,正在努力学习代数概念,人工智能可能会动态地创建视觉解释或交互式模拟来提供帮助。由于人工智能可以跟踪学生的学习进度,它可以自主决定接下来要复习什么主题或何时学习新技能——从微观上有效地管理该学生的课程计划

  • 减轻教师日常任务负担:批改作业、制作练习题、起草教材——到2030年代,这些任务几乎可以完全交给人工智能。人工智能可以为一个班级生成一周的定制作业,对上周的所有作业(甚至是开放式作业)进行评分并提供反馈,并向老师强调哪些学生在哪些方面可能需要额外帮助。这几乎不需要老师的投入,老师只需快速浏览一下,确保人工智能的成绩看起来公平即可。

  • 自主自适应学习平台:我们或许会看到某些科目完全由人工智能驱动的课程。想象一下,一门在线课程没有真人授课,而是由人工智能代理介绍学习内容、提供示例、解答问题并根据学生情况调整学习进度。学生的学习体验可能是独一无二的,并且是实时生成的。一些企业培训和成人学习可能会更早地转向这种模式,到2035年,员工可以说“我想学习高级Excel宏”,然后人工智能导师就会通过个性化课程进行授课,包括生成练习题和评估他们的答案,而无需真人教练。

  • 课堂AI助手:无论是在实体教室还是虚拟教室,AI都可以聆听课堂讨论,并随时为教师提供帮助(例如,通过耳机低声给出建议:“有几个学生对这个概念感到困惑,或许可以再举一个例子”)。它还可以主持在线课堂论坛,回答学生提出的简单问题(“作业什么时候交?”,甚至澄清课堂要点),这样教师就不会被邮件轰炸。到2035年,在课堂上配备AI辅助教师,而真人教师则专注于更高层次的指导和激励,这可能会成为一种常态。

  • 全球教育普及:自主人工智能导师可以帮助教师短缺地区的学生接受教育。一台配备人工智能导师的平板电脑可以作为主要教师,为那些受教育程度有限的学生提供基础的读写和数学指导。到2035年,这或许将成为最具影响力的用途之一——人工智能将在缺乏人类教师的地区弥合差距。然而,确保人工智能教育在不同环境下的质量和文化适应性至关重要。

人工智能会取代教师吗?不太可能完全取代。教学不仅仅是传授内容,它还包括指导、启发和社交情感支持。这些人类的因素是人工智能难以复制的。但人工智能可以成为第二位老师,甚至是知识传递的第一位老师,让人类教育者专注于人类最擅长的领域:同理心、激励和培养批判性思维。

需要解决的问题包括:确保人工智能提供准确的信息(避免虚假事实的教育幻觉)、避免教育内容的偏见、维护学生数据隐私以及保持学生的参与度(人工智能需要激励,而不仅仅是正确)。我们可能会看到人工智能教育系统的认证或认证——类似于教科书的审批——以确保它们符合标准。

另一个挑战是过度依赖:如果AI导师过于轻易地给出答案,学生可能无法培养毅力或解决问题的能力。为了缓解这个问题,未来的AI导师可能会被设计成有时让学生自己摸索(就像人类导师那样),或者鼓励他们通过提示来解决问题,而不是直接给出答案。

到2035年,课堂或许会发生翻天覆地的变化:每个学生都将拥有一台连接人工智能的设备,按照自己的节奏进行指导,而老师则负责安排小组活动并提供人性化的见解。教育将变得更加高效和个性化。其承诺是每个学生都能在需要时获得所需的帮助——一种真正规模化的“私人导师”体验。风险在于失去一些人情味或滥用人工智能(例如学生利用人工智能作弊)。但总体而言,如果管理得当,生成式人工智能将成为学生学习旅程中一位随时可用、知识渊博的伙伴,从而实现学习的民主化并提升学习效果。

物流和供应链中的生成人工智能

物流——运输货物和管理供应链的艺术与科学——似乎并非“生成式”人工智能的传统应用领域,但创造性的问题解决和规划能力正是该领域的关键。生成式人工智能可以通过模拟场景、优化计划甚至控制机器人系统来提供帮助。物流的目标是提高效率和节约成本,这与人工智能在分析数据和提出解决方案方面的优势不谋而合。那么,人工智能在运营供应链和物流业务方面究竟能达到怎样的自主性呢?

当前能力(2025):通过人工监督进行优化和精简

决策支持工具应用于物流领域:

  • 路线优化: UPS 和 FedEx 等公司已开始使用人工智能算法来优化配送路线,确保司机选择最高效的路线。传统上,这些算法属于运筹学算法,但现在生成式方法可以帮助探索各种条件下(交通、天气等)的替代路线策略。人工智能负责建议路线,而人工调度员或管理人员则负责设置参数(例如优先级),并可根据需要进行调整。

  • 装载和空间规划:对于卡车或集装箱的装卸,AI 可以生成最佳装载计划(哪个箱子放在哪里)。生成式 AI 可能会生成多种装载配置,以最大限度地利用空间,本质上是“创造”可供人类选择的解决方案。一项研究强调了这一点,该研究指出,在美国,卡车的空载率通常高达 30%,而借助 AI 进行更合理的规划可以减少这种浪费(物流领域生成式 AI 的典型用例)。这些 AI 生成的装载计划旨在降低燃料成本和排放,在某些仓库中,这些计划的执行几乎无需人工干预。

  • 需求预测与库存管理:人工智能模型可以预测产品需求并生成补货计划。生成模型可以模拟不同的需求场景(例如,人工智能“设想”即将到来的假期导致需求激增),并据此制定库存计划。这有助于供应链经理做好准备。目前,人工智能提供预测和建议,但最终决定生产水平或订单的通常是人类。

  • 风险评估:全球供应链面临中断(自然灾害、港口延误、政治问题)。人工智能系统如今会梳理新闻和数据,以识别即将出现的风险。例如,一家物流公司使用生成人工智能扫描互联网并标记高风险的运输路线(例如,可能因飓风或动乱等原因而出现问题的区域)(物流领域的主要生成人工智能用例)。有了这些信息,规划人员可以自主地重新规划运输路线,绕过问题区域。在某些情况下,人工智能可能会自动建议更改路线或运输方式,然后由人工审核。

  • 仓库自动化:许多仓库采用半自动化操作,使用机器人进行拣货和包装。生成式人工智能可以动态地将任务分配给机器人和人类,以实现最佳流程。例如,人工智能可能会每天早上根据订单生成机器人拣货员的作业队列。这通常是完全自主执行的,管理人员只需监控关键绩效指标 (KPI)——如果订单意外激增,人工智能会自行调整操作。

  • 车队管理:人工智能通过分析模式并生成最佳维护计划来帮助安排车辆维护,从而最大限度地减少停机时间。它还可以分组发货以减少行程。只要满足服务要求,这些决策就可以由人工智能软件自动完成。

总体而言,截至2025年,人类设定目标(例如,“最小化成本,但确保两天送达”),人工智能则负责制定解决方案或计划以实现目标。系统可以日复一日地运行,无需干预,直到出现异常情况。许多物流环节涉及重复性决策(例如,这批货物应该何时出发?从哪个仓库发货?),而人工智能可以学习并持续做出这些决策。企业逐渐信任人工智能来处理这些细微的决策,并且只在出现异常时才向管理人员发出警报。

2030-2035年展望:自动驾驶供应链

在人工智能的推动下,物流领域将实现更加自主的协调

  • 自动驾驶汽车和无人机:自动驾驶卡车和送货无人机虽然是一个更广泛的人工智能/机器人技术主题,但却直接影响着物流。到2030年,如果监管和技术挑战得到克服,我们或许能够拥有人工智能在高速公路上常规驾驶卡车,或无人机在城市中处理最后一英里的配送。这些人工智能将在没有人类驾驶员的情况下做出实时决策(例如路线变更、避障)。其生成性在于这些车辆人工智能如何从海量数据和模拟中学习,有效地在无数场景中进行“训练”。一个完全自动驾驶的车队可以全天候运营,人类只需进行远程监控。这将从物流运营中消除大量的人力因素(驾驶员),从而显著提高自主性。

  • 自我修复型供应链:生成式人工智能将可能被用于持续模拟供应链场景并制定应急计划。到2035年,人工智能或许能够自动检测供应商工厂何时停工(通过新闻或数据反馈),并立即将采购转向已在模拟中审核过的替代供应商。这意味着供应链能够在人工智能的主动作用下,从中断中“自我修复”。人类管理人员将获悉人工智能的操作,而不是主动采取应急措施的人员。

  • 端到端库存优化:人工智能可以自主管理整个仓库和门店网络的库存。它可以决定何时何地转移库存(或许可以使用机器人或自动驾驶汽车),并在每个位置保持适量的库存。人工智能基本上负责运营供应链控制塔:监控所有流程并实时进行调整。到2035年,“自动驾驶”供应链的概念可能意味着系统每天可以自行制定最佳配送计划、订购产品、安排工厂运行并安排运输。人类将负责监督整体战略,并处理人工智能目前无法理解的异常情况。

  • 物流中的生成式设计:我们有望看到人工智能设计新的供应链网络。假设一家公司扩张到一个新的地区,人工智能可以根据数据为该地区生成最佳的仓库位置、运输线路和库存策略——这正是如今顾问和分析师正在做的事情。到 2030 年,企业可能会依赖人工智能的建议来制定供应链设计方案,相信它能够更快地权衡各种因素,并可能找到人类容易忽略的创新解决方案(例如不明显的配送中心)。

  • 与制造业的集成(工业 4.0):物流并非孤立存在,而是与生产紧密相连。未来的工厂可能拥有生成式人工智能,能够调度生产流程,及时订购原材料,并指示物流网络立即发货。这种集成式人工智能可能意味着整体上减少人工规划——从制造到交付的无缝衔接,由优化成本、速度和可持续性的算法驱动。到 2025 年,高性能供应链已经由数据驱动;到 2035 年,它们可能主要由人工智能驱动。

  • 物流中的动态客户服务:基于客户服务人工智能,供应链人工智能可以直接与客户或客户互动。例如,如果一个大客户想在最后一刻更改批量订单,人工智能代理可以协商可行的替代方案(例如“由于条件限制,我们现在可以交付一半,下周再交付另一半”),而无需等待人类经理。这需要生成式人工智能理解双方需求(客户需求与运营能力),并做出决策,确保运营顺畅,同时满足客户需求。

预期效益是打造一个更高效、更具弹性、响应速度更快的物流系统。企业预计将节省巨额成本——麦肯锡估计,人工智能驱动的供应链优化可以显著降低成本并提升服务水平,为各行各业带来数万亿美元的价值增长潜力(《 2023 年人工智能发展状况:生成式人工智能的突破之年》 | 麦肯锡)。

然而,将更多控制权交给人工智能也存在风险,例如如果人工智能的逻辑存在缺陷,可能会引发连锁错误(例如,臭名昭著的场景:由于建模错误,人工智能供应链无意中导致公司缺货)。诸如“重大决策人机参与”之类的保障措施,或者至少是允许人类快速覆写决策的仪表盘,很可能将持续到2035年。随着时间的推移,随着人工智能决策的有效性得到证实,人类将更加乐意退居二线。

有趣的是,通过优化效率,人工智能有时可能会做出与人类偏好或传统做法相冲突的选择。例如,纯粹的优化可能会导致库存非常少,这虽然高效,但可能会让人感到风险。2030年的供应链专业人士可能不得不调整他们的直觉,因为人工智能在处理海量数据时,可能会证明其非同寻常的策略实际上效果更好。

最后,我们必须考虑到物理限制(基础设施、物理处理速度)限制了物流变革的速度,因此,这里的革命在于更智能的规划和资产利用,而非全新的物理现实。但即使在这些限制之内,生成式人工智能的创造性解决方案和持续优化也能在极少的人工规划下,显著改善全球货物运输的方式。

总而言之,到 2035 年,物流可能类似于一台运转良好的自动化机器:货物高效流动,路线实时调整以应对中断,仓库通过机器人进行自我管理,整个系统不断从数据中学习和改进——所有这一切都由作为操作大脑的生成人工智能来协调。

金融和商业领域的生成式人工智能

金融行业大量处理信息——报告、分析、客户沟通——这为生成式人工智能提供了沃土。从银行到投资管理再到保险,各大机构都在探索利用人工智能实现自动化和洞察生成。问题是,鉴于准确性和信任在金融领域的重要性,人工智能能够在没有人工监督的情况下可靠地处理哪些金融任务?

当前能力(2025年):自动化报告和决策支持

截至目前,生成式人工智能正在以多种方式为金融领域做出贡献,而且通常是在人类的监督下:

  • 报告生成:银行和金融公司制作大量报告——收益摘要、市场评论、投资组合分析等。人工智能已被用于起草这些报告。例如,彭博社开发了BloombergGPT ,这是一个经过金融数据训练的大型语言模型,以协助其终端用户完成新闻分类和问答等任务(生成式人工智能即将进入金融领域)。虽然它的主要用途是帮助人类查找信息,但它显示了人工智能日益增长的作用。Automated Insights(美联社合作的公司)也生成了金融文章。许多投资通讯使用人工智能来回顾每日市场走势或经济指标。通常,人工会在发送给客户之前审查这些内容,但这是一种快速编辑,而不是从头开始编写。

  • 客户沟通:在零售银行业务中,人工智能聊天机器人处理客户关于账户余额、交易或产品信息的查询(融入客户服务领域)。此外,人工智能还可以生成个性化的财务建议信或提醒。例如,人工智能可能会识别出客户可以节省费用,并自动撰写一条消息,建议他们切换到其他账户类型,然后在极少的人工干预下发送。这种大规模的个性化沟通是人工智能在金融领域的当前应用。

  • 欺诈检测与警报:生成式人工智能可以帮助创建由欺诈系统检测到的异常情况的叙述或解释。例如,如果标记了可疑活动,人工智能可能会为客户生成一条解释消息(“我们注意到有人从新设备登录……”)或为分析师生成一份报告。检测是自动化的(使用人工智能/机器学习异常检测),并且沟通也日益自动化,尽管最终操作(例如冻结账户)通常需要人工审核。

  • 财务咨询(有限):一些机器人顾问(自动化投资平台)使用算法(不一定是生成式人工智能)来管理投资组合,无需人工顾问。生成式人工智能正在进入这一领域,例如,它可以生成关于某些交易原因的评论,或根据客户需求定制的投资组合业绩摘要。然而,纯粹的财务建议(例如复杂的财务规划)仍然主要依赖于人工或基于规则的算法;缺乏监管的自由形式的生成式建议存在风险,因为一旦出错,需要承担责任。

  • 风险评估与承保:保险公司正在测试人工智能自动撰写风险评估报告,甚至自动起草保单文件。例如,根据某项财产的数据,人工智能可以生成一份保单草案或一份描述风险因素的承保人报告。目前,这些输出结果的审核工作仍由人工完成,因为合同中的任何错误都可能造成高昂的代价。

  • 数据分析与洞察:人工智能可以梳理财务报表或新闻并生成摘要。分析师可以使用这些工具,立即将长达100页的年度报告概括为关键点,或从收益电话会议记录中提取主要内容。这些摘要可以节省时间,并可直接用于决策或传达,但谨慎的分析师会仔细检查关键细节。

本质上,目前金融领域的人工智能就像不知疲倦的分析师/作家,创作内容并由人类进行润色。完全自主的应用主要集中在定义明确的领域,例如数据驱动的新闻(无需主观判断)或客户服务响应。由于高风险和监管审查,直接将资金决策(例如资金转移、执行超出预设算法的交易)委托给人工智能的情况很少见。

2030-2035年展望:人工智能分析师和自主财务运营

展望未来,到 2035 年,生成式人工智能可能会深入嵌入金融运营中,并有可能自主处理许多任务:

  • 人工智能金融分析师:我们或许会看到人工智能系统能够分析公司和市场,并生成与人类股票研究分析师水平相当的建议或报告。到2030年,人工智能或许能够读取公司的所有财务报告,与行业数据进行比较,并自行生成投资建议报告(基于推理的“买入/卖出”)。一些对冲基金已经在使用人工智能生成交易信号;到2030年代,人工智能研究报告可能会变得非常普遍。人类投资组合经理或许会开始将人工智能生成的分析作为众多输入之一。人工智能甚至有可能自主管理投资组合:根据预先设定的策略持续监控和重新平衡投资。事实上,算法交易已经高度自动化——生成式人工智能可以通过自行生成和测试新的交易模型,使策略更具适应性。

  • 自动化财务规划:面向消费者的人工智能顾问可以为个人处理日常财务规划。到2030年,你可以告诉人工智能你的目标(例如买房、大学储蓄),它就能为你量身定制一份完整的财务计划(包括预算、投资配置、保险建议)。最初,人类理财规划师可能会审核你的计划,但随着信心的增强,这类建议可能会直接提供给消费者,并附带适当的免责声明。关键在于确保人工智能的建议符合法规并符合客户的最佳利益。如果这个问题得到解决,人工智能可以让基本的财务建议更容易获得,而且成本更低。

  • 后台自动化:生成式人工智能或许能够自主处理许多后台文档——贷款申请、合规报告、审计摘要。例如,人工智能可以收集所有交易数据,并生成一份审计报告,标记所有疑点。2035年的审计人员可能会花费更多时间审查人工智能标记的异常情况,而不是亲自梳理所有内容。同样,在合规方面,人工智能可以为监管机构生成可疑活动报告 (SAR),而无需分析师从头开始编写。这些常规文档的自主生成,以及人工监督转向异常情况的生成,可能会成为行业标准。

  • 保险理赔与承保:人工智能可以处理保险理赔(提供照片证据等),确定理赔范围,并自动生成赔付决定书。我们或许能够实现这样的目标:简单的理赔(例如,数据清晰的车祸)在提交后几分钟内就能完全由人工智能处理。新保单的承保也可能类似:人工智能评估风险并生成保单条款。到2035年,或许只有复杂或边缘案件才会上报给人类承保人。

  • 欺诈与安全:人工智能在金融领域检测和应对欺诈或网络威胁方面可能发挥更为关键的作用。自主人工智能代理可以实时监控交易,并在满足特定条件时立即采取行动(例如冻结账户、冻结交易),并给出合理解释。速度至关重要,因此需要尽量减少人工干预。其关键在于将这些行动清晰地传达给客户或监管机构。

  • 高管支持:想象一下,一位人工智能“参谋长”可以随时为高管生成业务报告。只需问一句:“我们欧洲分部本季度的业绩如何?与去年相比,主要驱动因素是什么?”,人工智能就能根据数据,生成一份简明扼要的报告,其中包含精准的图表。这种动态、自主的报告和分析将变得像对话一样简单。到2030年,向人工智能查询商业智能并相信它能给出正确答案,将在很大程度上取代静态报告,甚至可能取代一些分析师角色。

一个有趣的预测是:到2030年代,大多数金融内容(新闻、报告等)可能由人工智能生成。道琼斯和路透社等媒体已经将自动化技术应用于某些新闻片段。如果这种趋势持续下去,考虑到金融数据的爆炸式增长,人工智能可能会负责过滤和传达大部分信息。

然而,信任和验证才是核心。金融行业受到严格监管,任何自主运营的人工智能都需要满足严格的标准:

  • 确保没有幻觉(你不能让人工智能分析师发明一个不真实的财务指标——这可能会误导市场)。

  • 避免偏见或非法行为(例如由于有偏见的训练数据而无意中在贷款决策中划定红线)。

  • 可审计性:监管机构可能会要求人工智能的决策具有可解释性。如果人工智能拒绝贷款或做出交易决策,必须有可检验的理由。生成模型可能有点像黑匣子,因此可解释的人工智能技术有望发展,使其决策更加透明。

未来十年,人工智能与金融专业人士之间可能会展开密切合作,随着信心的增长,逐步实现自主化。早期的胜利将体现在低风险的自动化领域(例如报告生成)。信贷决策或投资选择等核心判断将变得更加困难,但即便如此,随着人工智能业绩的积累,企业也可能会赋予其更多自主权。例如,一支人工智能基金或许将由一位人类监督者来管理,只有在业绩出现偏差或人工智能发出不确定性信号时,他才会介入。

从经济角度来看,麦肯锡估计,人工智能(尤其是生成人工智能)每年可为银行业创造约 2000 亿至 3400 亿美元的价值,并对保险和资本市场产生类似的巨大影响( 2023 年人工智能现状:生成人工智能的突破之年 | 麦肯锡)(生成人工智能的未来如何? | 麦肯锡)。这通过提高效率和改善决策结果得以实现。为了实现这一价值,许多常规的财务分析和沟通工作可能会被转交给人工智能系统。

总而言之,到2035年,生成式人工智能可能就像一支由初级分析师、顾问和文员组成的大军,在金融领域工作,自主完成大量繁重工作和一些复杂的分析工作。人类仍将设定目标,并处理高层战略、客户关系和监管。金融界将谨慎行事,逐步扩大自主权——但方向明确,越来越多的信息处理甚至决策建议将来自人工智能。理想情况下,这将带来更快的服务(即时贷款、全天候咨询)、更低的成本,以及更高的客观性(基于数据模式的决策)。但维护信任至关重要;金融领域一个引人关注的人工智能错误就可能造成巨大的损失(想象一下人工智能引发的闪电崩盘,或者数千人的福利被错误地拒绝)。因此,即使后台流程已经高度自动化,尤其是在面向消费者的行动中,护栏和人工检查仍可能持续存在。

挑战和伦理考量

在所有这些领域,随着生成式人工智能承担起更多自主责任,一系列共同的挑战和伦理问题也随之而来。确保人工智能成为可靠​​且有益的自主智能体,不仅是一项技术任务,更是一项社会任务。以下我们概述了一些关键问题以及它们正在(或未来需要)如何得到解决:

可靠性和准确性

幻觉问题:生成式人工智能模型可能会生成看似可信的错误或完全虚构的输出。当没有人能够发现错误时,这种情况尤其危险。聊天机器人可能会向客户提供错误的指令,或者人工智能撰写的报告可能包含虚构的统计数据。截至2025年,不准确性已被各组织认定为生成式人工智能的最大风险(《 2023年人工智能现状:生成式人工智能的突破之年》| 麦肯锡)( 《人工智能现状:全球调查》| 麦肯锡)。展望未来,诸如数据库事实核查、模型架构改进以及带反馈的强化学习等技术正在被部署,以最大限度地减少幻觉。自主人工智能系统可能需要严格的测试,并且可能需要对关键任务进行形式化验证(例如,如果代码生成错误,可能会引入错误/安全漏洞)。

一致性:人工智能系统需要长期可靠地执行各种场景。例如,人工智能可能在标准问题上表现出色,但在极端情况下却表现不佳。要确保性能的一致性,需要涵盖各种情况的大量训练数据和持续监控。许多组织计划采用混合方法——人工智能可以发挥作用,但随机样本需要人工审核——来衡量持续的准确率。

故障保护:当人工智能自主时,让它识别自身的不确定性至关重要。系统应该被设计成“知道何时它不知道”。例如,如果人工智能医生对诊断不确定,它应该标记并提交人工审核,而不是随机猜测。在人工智能输出中加入不确定性评估(并设置自动人工交接的阈值)是一个活跃的开发领域。

偏见与公平

生成式人工智能会从可能包含偏见(种族、性别等)的历史数据中学习。自主型人工智能可能会延续甚至放大这些偏见:

  • 在招聘或录取过程中,如果训练数据存在偏见,人工智能决策者可能会做出不公平的歧视。

  • 在客户服务中,除非仔细检查,否则人工智能可能会根据方言或其他因素对用户做出不同的反应。

  • 在创意领域,如果训练集不平衡,人工智能可能无法充分代表某些文化或风格。

解决这个问题需要仔细的数据集管理、偏见测试,甚至可能需要调整算法以确保公平性。透明度至关重要:公司需要披露人工智能的决策标准,尤其是在自主人工智能影响到某人的机会或权利(例如获得贷款或工作)的情况下。监管机构已经注意到了这一点;例如,欧盟的《人工智能法案》(将于2020年代中期制定)很可能要求对高风险人工智能系统进行偏见评估。

问责和法律责任

当人工智能系统自主运行造成伤害或犯错时,谁该负责?相关法律框架正在逐步完善:

  • 部署人工智能的公司可能会承担责任,类似于对员工的行为负责。例如,如果人工智能给出了错误的财务建议,导致客户遭受损失,公司可能需要赔偿客户。

  • 关于人工智能的“人格”或高级人工智能是否应承担部分责任存在争议,但目前这些争论更多停留在理论层面。实际上,责任将追溯到开发者或运营者。

  • 针对人工智能故障,可能会出现新的保险产品。如果一辆自动驾驶卡车发生事故,制造商的保险可能会承保,类似于产品责任险。

  • 记录和记录人工智能决策对于事后分析至关重要。如果出现问题,我们需要审核人工智能的决策路径,从中吸取教训并追究责任。正是出于这个原因,监管机构可能会强制要求记录人工智能的自主行动。

透明度和可解释性

理想情况下,自主人工智能应该能够用人类可理解的术语解释其推理,尤其是在金融、医疗保健、司法系统等关键领域。可解释人工智能是一个致力于打开黑匣子的领域:

  • 如果AI拒绝贷款,相关法规(例如美国的《经济适用法》(ECOA))可能要求申请人提供理由。因此,AI必须输出一些因素(例如“高负债收入比”)作为解释。

  • 与人工智能互动的用户(例如学生与人工智能导师,患者与人工智能健康应用)有权了解其如何得出建议。人们正在努力通过简化模型或构建并行解释模型,使人工智能推理更具可追溯性。

  • 透明度还意味着用户应该了解究竟是在与人工智能打交道,还是与人类打交道。道德准则(以及一些法律)倾向于要求披露客户是否正在与机器人对话。这可以防止欺骗并允许用户同意。一些公司现在明确标记人工智能编写的内容(例如“本文由人工智能生成”)以维护信任。

隐私和数据保护

生成式人工智能通常需要数据(包括潜在的敏感个人数据)才能运行或学习。自主运行必须尊重隐私:

  • 人工智能客户服务代理将访问帐户信息来帮助客户;该数据必须受到保护并且仅用于该任务。

  • 如果人工智能导师可以访问学生资料,则根据《家庭教育权和隐私权法》(美国)等法律,可以考虑确保教育数据的隐私。

  • 大型模型可能会无意中记住训练数据中的具体信息(例如,复述训练期间看到的某人的地址)。训练中的差异隐私和数据匿名化等技术对于防止生成的输出中个人信息泄露至关重要。

  • 像GDPR这样的法规赋予个人针对影响他们的自动化决策的权利。如果决策对他们造成重大影响,人们可以要求人工审核或要求决策不完全自动化。到2030年,随着人工智能的普及,这些法规可能会有所演变,可能引入解释权或选择退出人工智能处理的权利。

安全和滥用

自主人工智能系统可能成为黑客攻击的目标,或者被利用来做恶意的事情:

  • AI内容生成器可能被滥用来大规模制造虚假信息(例如深度伪造视频、虚假新闻),这构成了社会风险。发布极其强大的生成模型的伦理问题备受争议(例如,OpenAI最初对GPT-4的图像功能持谨慎态度)。解决方案包括为AI生成的内容添加水印以帮助检测虚假信息,以及用AI对抗AI(例如深度伪造的检测算法)。

  • 如果人工智能控制着物理过程(无人机、汽车、工业控制),那么保护其免受网络攻击至关重要。被黑客入侵的自主系统可能会造成现实世界的危害。这意味着需要强大的加密、故障安全机制,以及在出现安全隐患时能够被人为覆盖或关闭的能力。

  • 人工智能还存在超越预期界限的担忧(“流氓人工智能”场景)。虽然目前的人工智能没有自主性或意图,但如果未来的自主系统更具自主性,就需要严格的约束和监控,以确保它们不会执行未经授权的交易或因错误设定的目标而违反法律。

道德使用和人类影响

最后,更广泛的道德考虑:

  • 工作岗位被取代:如果人工智能无需人工干预即可完成任务,这些工作将面临怎样的命运?从历史上看,技术自动化了一些工作,但也创造了其他工作。对于那些技能与自动化任务相关的工人来说,这种转变可能会很痛苦。社会需要通过技能再培训、教育,甚至可能重新考虑经济支持来应对这一挑战(一些人认为,如果大量工作实现自动化,人工智能可能需要引入全民基本收入等理念)。调查已经显示出褒贬不一的情绪——一项研究发现,三分之一的工人担心人工智能会取代工作,而另一些人则认为它能减轻苦差事。

  • 人类技能的侵蚀:如果人工智能导师负责教学,人工智能自动驾驶负责驾驶,人工智能负责编写代码,人类会失去这些技能吗?过度依赖人工智能,在最坏的情况下,可能会侵蚀专业知识;教育和培训项目需要对此进行调整,确保即使有人工智能的帮助,人们仍然能够学习基础知识。

  • 伦理决策:人工智能缺乏人类的道德判断能力。在医疗保健或法律领域,纯粹基于数据的决策可能在个别情况下与同情心或正义相冲突。我们或许需要将伦理框架融入人工智能(这是人工智能伦理研究的一个领域,例如,使人工智能决策与人类价值观相一致)。至少,在涉及伦理的决策中,让人类参与进来是明智之举。

  • 包容性:确保人工智能的益处得到广泛普及是一项道德目标。如果只有大公司才能负担得起先进的人工智能,那么小型企业或贫困地区可能会被抛在后面。开源努力和价格合理的人工智能解决方案有助于实现普及。此外,界面设计也应确保任何人都能使用人工智能工具(例如,提供不同的语言、为残障人士提供无障碍访问等),以免造成“谁有人工智能助手,谁没有”的新数字鸿沟。

当前风险缓解:积极的一面是,随着企业推出新一代人工智能,人们对这些问题的认识和行动也在不断提高。到2023年末,近一半使用人工智能的公司正在积极努力降低诸如不准确性之类的风险( 《2023年人工智能现状:生成式人工智能的突破之年》| 麦肯锡)( 《人工智能现状:全球调查》| 麦肯锡),而且这个数字还在不断上升。科技公司已经成立了人工智能伦理委员会;各国政府正在起草相关法规。关键在于从一开始就将伦理融入人工智能开发之中(“设计伦理”),而不是事后才采取行动。

关于挑战,总结一下:赋予人工智能更多自主权是一把双刃剑。它可以带来效率和创新,但也需要承担高标准的责任。未来几年,我们可能会看到一系列技术解决方案(用于改善人工智能行为)、流程解决方案(政策和监督框架),以及新的标准或认证(人工智能系统可能会像今天的发动机或电子产品一样接受审核和认证)。能否成功应对这些挑战,将决定我们能否顺利地将自主人工智能融入社会,从而增进人类福祉和信任。

结论

生成式人工智能已从一项新颖的实验迅速发展成为一项触及我们生活方方面面的变革性通用技术。本白皮书探讨了到2025年,人工智能系统如何能够撰写文章、设计图形、编写软件、与客户沟通、总结医疗记录、辅导学生、优化供应链以及起草财务报告。重要的是,在许多此类任务中,人工智能几乎无需人工干预,尤其是在那些定义明确、可重复的工作中。企业和个人开始信任人工智能能够自主执行这些任务,并从速度和规模方面获益。

展望2035年,我们正处于一个新时代的开端,届时人工智能将成为更加无处不在的协作者——它通常是一个隐形的数字劳动力,负责处理日常事务,使人类能够专注于非凡之事。我们期待生成式人工智能能够可靠地驾驶汽车和卡车在道路上行驶,在夜间管理仓库库存,作为知识渊博的私人助理解答我们的疑问,为世界各地的学生提供一对一指导,甚至帮助发现新的医学疗法——所有这些都将越来越少地依赖直接监督。随着人工智能从被动遵循指令转变为主动生成解决方案,工具与代理之间的界限将变得模糊。

然而,通往自主人工智能未来的旅程必须谨慎前行。正如我们所概述的,每个领域都有其自身的局限性和责任:

  • 今天的现实检验:人工智能并非万无一失。它擅长模式识别和内容生成,但缺乏人类所具备的真正理解力和常识。因此,目前,人类的监督仍然是安全网。识别人工智能在哪些方面已经准备好独立自主(以及哪些方面尚未准备好)至关重要。如今,许多成功案例都源于人机协作模式,这种混合模式在尚未完全实现自主控制的情况下仍将发挥重要作用。

  • 未来展望:随着模型架构、训练技术和监督机制的进步,人工智能的能力将持续扩展。未来十年的研发可以解决许多当前的痛点(减少幻觉、提升可解释性、使人工智能与人类价值观相符)。如果真是这样,到2035年,人工智能系统将足够强大,能够被赋予更大的自主权。本文中的预测——从人工智能教师到高度自主运营的企业——很可能成为现实,甚至可能被如今难以想象的创新所超越。

  • 人类的角色与适应:我们预见到人工智能不会完全取代人类,而是会不断演变。各行各业的专业人士可能需要熟练运用人工智能——引导它、验证它,并专注于那些需要人类独特优势的工作领域,例如同理心、战略思维和复杂问题解决能力。教育和劳动力培训应重点强调这些人类独有的技能,以及人人都应具备的人工智能素养。政策制定者和企业领导者应规划劳动力市场的转型,并确保为受自动化影响的人群提供支持系统。

  • 伦理与治理:或许最为关键的是,必须建立一个符合伦理道德的人工智能使用和治理框架来支撑这一技术发展。信任是应用的基石——只有相信人工智能安全,人们才会让其驾驶汽车或协助手术。建立这种信任需要严格的测试、透明度、利益相关方的参与(例如,让医生参与医疗人工智能的设计,让教师参与人工智能教育工具的设计),以及适当的监管。国际合作或许是应对深度伪造或战争中人工智能等挑战的必要条件,确保负责任使用人工智能的全球规范。

总而言之,生成式人工智能是推动进步的强大引擎。如果运用得当,它可以将人类从繁重的体力劳动中解放出来,释放创造力,提供个性化服务,并弥补差距(在专家稀缺的领域提供专业知识)。关键在于如何运用它,放大人类的潜力,而不是将其边缘化。从短期来看,这意味着让人类参与到引导人工智能的循环中。从长远来看,这意味着将人文价值观融入人工智能系统的核心,这样即使它们独立行动,也能以我们集体的最佳利益为出发点。

领域 当今可靠的自主性(2025年) 预计2035年实现可靠自主
写作与内容 - 自动生成常规新闻(体育、收益)。- 人工智能总结产品评论。- 人工编辑文章或电子邮件草稿。( Philana Patterson – ONA 社区简介)(亚马逊利用人工智能提升客户评论体验 - 大多数新闻和营销内容都是自动编写的,具有事实准确性。- 人工智能在最少的监督下制作完整的文章和新闻稿。- 按需生成高度个性化的内容。
视觉艺术与设计 - 人工智能根据提示生成图像(人类选择最佳)。- 自主创作的概念艺术和设计变化。 - 人工智能制作完整的视频/电影场景和复杂的图形。- 符合规格的产品/架构的生成设计。- 按需创建的个性化媒体(图像、视频)。
软件编码 - AI 自动完成代码并编写简单函数(由开发人员审核)。- 自动生成测试并提出错误建议。( Copilot 上的编码:2023 年数据显示代码质量面临下行压力(包括 2024 年预测)- GitClear )( GitHub Copilot 在 AI 代码助手研究报告中名列前茅 - Visual Studio Magazine - AI 可靠地根据规格实现全部功能。- 已知模式的自主调试和代码维护。- 只需很少的人工输入即可创建低代码应用程序。
客户服务 - 聊天机器人回答常见问题,解决简单问题(交接复杂案例)。- 人工智能处理某些渠道约 70% 的常规查询。( 2025 年 59 个人工智能客户服务统计数据)(到 2030 年,客户互动过程中 69% 的决策将是...... - 人工智能端到端处理大多数客户互动,包括复杂的查询。- 实时人工智能决策服务优惠(退款、升级)。- 仅用于升级或特殊情况的人工代理。
卫生保健 - AI 负责起草医疗记录;提供诊断建议并由医生核实。- AI 负责在监督下读取部分扫描结果(放射学);对简单病例进行分类。(到 2035 年,AI 医学影像产品数量或将增长 5 倍 - 人工智能可靠地诊断常见疾病并解释大多数医学图像。- 人工智能监测患者并启动护理(例如,药物提醒、紧急警报)。- 虚拟人工智能“护士”处理常规跟进;医生专注于复杂的护理。
教育 - AI 导师解答学生问题,生成练习题(教师监控)。- AI 辅助评分(教师评阅)。([K-12 教育的生成式 AI Applify 的研究报告( https://www.applify.co/research-report/gen-ai-for-k12#:~:text=AI%20tutors%3A%20Virtual%20AI,individual%20learning%20styles%20and%20paces
后勤 - 人工智能优化配送路线和包装(人类设定目标)。- 人工智能标记供应链风险并提出缓解措施。(物流领域顶级生成式人工智能用例 - 大部分自动驾驶送货(卡车、无人机)由人工智能控制器监督。- 人工智能自动重新安排货运路线以避开中断并调整库存。- 由人工智能管理的端到端供应链协调(订购、分销)。
金融 - 人工智能生成财务报告/新闻摘要(人工审核)。- 机器人顾问管理简单的投资组合;人工智能聊天处理客户查询。(生成式人工智能即将进军金融领域 - 人工智能分析师以高精度提供投资建议和风险报告。- 在设定的限度内进行自主交易和投资组合再平衡。- 人工智能自动批准标准贷款/索赔;人类处理例外情况。

参考:

  1. 帕特森,菲拉娜。 “自动化盈利报道成倍增加” 。美联社(2015)——描述了美联社如何在没有人工撰写的情况下自动生成数千份盈利报告(自动化盈利报道成倍增加 | 美联社)。

  2. 麦肯锡公司。《 2024 年初人工智能现状:新一代人工智能应用激增并开始创造价值》 。(2024 年) – 报告显示,65% 的组织定期使用生成式人工智能,几乎是 2023 年的两倍( 《2024 年初人工智能现状》| 麦肯锡),并讨论了风险缓解措施( 《人工智能现状:全球调查》| 麦肯锡)。

  3. Gartner。超越聊天GPT:企业生成式AI的未来。(2023年)——预测到2030年,一部大片的90%可能由AI生成(行业和企业的生成式AI用例),并重点介绍了药物设计等生成式AI用例(行业和企业的生成式AI用例)。

  4. Twipe。记者在新闻编辑室使用人工智能工具的 12 种方式。(2024 年)——例如,新闻机构的“Klara”人工智能撰写了 11% 的文章,所有人工智能内容均由人类编辑审核(记者在新闻编辑室使用人工智能工具的 12 种方式 - Twipe )。

  5. Amazon.com 新闻。亚马逊利用人工智能改善客户评论体验。(2023 年)——宣布在产品页面上提供人工智能生成的评论摘要,以帮助购物者(亚马逊利用人工智能改善客户评论体验)。

  6. Zendesk。2025年 59 项 AI 客户服务统计数据。(2023 年)——表明超过三分之二的 CX 组织认为生成式 AI 将为服务增添“温暖”( 2025 年 59 项 AI 客户服务统计数据),并预测最终 100% 的客户互动中都会使用 AI( 2025 年 59 项 AI 客户服务统计数据)。

  7. Futurum Research 和 SAS。体验 2030:客户体验的未来。(2019 年)– 调查发现,品牌预计到 2030 年,客户互动过程中约 69% 的决策将由智能机器做出(要重新构想向 CX 的转变,营销人员必须做到这两件事)。

  8. Dataiku。物流领域的顶级生成式 AI 用例。(2023 年)——描述 GenAI 如何优化装载(减少约 30% 的空卡车空间)(物流领域的顶级生成式 AI 用例)并通过扫描新闻来标记供应链风险。

  9. Visual Studio 杂志。GitHub Copilot 在 AI 代码助手研究报告中名列前茅。(2024 年)– Gartner 的战略规划假设:到 2028 年,90% 的企业开发人员将使用 AI 代码助手(高于 2024 年的 14%)( GitHub Copilot 在 AI 代码助手研究报告中名列前茅——Visual Studio 杂志)。

  10. 彭博新闻。隆重推出 BloombergGPT 。(2​​023 年)——详细介绍彭博针对金融任务的 500 亿参数模型,该模型内置于终端,用于问答和分析支持(生成式人工智能即将进军金融领域)。

您可能想阅读以下文章:

🔗哪些工作是人工智能无法取代的,哪些工作会被人工智能取代?
本文从全球视角审视不断变化的就业格局,探讨哪些工作可以免受人工智能的冲击,哪些工作又最有可能被取代。

🔗人工智能能预测股市吗?
深入探讨利用人工智能进行股市预测的能力、局限性以及伦理考量。

🔗生成式人工智能如何应用于网络安全?
了解生成式人工智能如何应用于防御网络威胁,从异常检测到威胁建模。

返回博客