人工智能被过度炒作了吗?

人工智能被过度炒作了吗?

简而言之:如果将人工智能宣传为完美无缺、无需人工干预或可以取代工作,那就言过其实了;但如果将其用作辅助工具,例如用于草拟、编码支持、任务分类和数据探索,则并非言过其实。如果您需要获取真实信息,就必须将其建立在经过验证的来源之上,并进行审核;随着风险的增加,治理就显得尤为重要。

您可能还想阅读以下文章:

要点总结:

夸大其词的信号:将“完全自主”和“即将完全准确”的说法视为危险信号。

可靠性:预期会有可靠的错误答案;需要检索、验证和人工审核。

好的用例:选择范围窄、可重复的任务,并设定明确的成功指标和较低的风险。

问责制:为产出、审核以及出错时的应对措施指定负责人。

治理:当涉及金钱、安全或权利时,应使用框架和事件披露实践。

🔗 哪款人工智能最适合你?
按目标、预算和易用性比较常用的人工智能工具。.

🔗 人工智能泡沫正在形成吗?
炒作的迹象、风险以及可持续增长的形态。.

🔗 AI检测器在实际应用中可靠吗?
准确率限制、误报以及公平评估的技巧。.

🔗 如何在手机上日常使用人工智能
使用移动应用程序、语音助手和提示来节省时间。.


人们常说的“人工智能被过度炒作”通常指的是什么呢?🤔

当有人说人工智能被过度炒作时,他们通常是在回应以下一个或多个不符之处:

  • 营销承诺与现实:
    演示看起来很神奇,但实际推广却像用胶带勉强糊弄过去,只能祈祷。

  • 能力与可靠性:
    它能写诗、翻译合同、调试代码……然后还能自信地编造出一条政策关联。酷毙了!

  • 进步与实用性:
    模型改进很快,但将其整合到错综复杂的业务流程中却很缓慢,充满政治因素,而且有很多特殊情况。

  • “取代人类”的说法
    大多数真正的胜利看起来更像是“去除繁琐的部分”,而不是“取代整个工作”。

这就是核心矛盾:人工智能确实很强大,但它常常被宣传成已经完成的东西。它并没有完成。它……还在开发中。就像一栋房子,有着漂亮的窗户,却还没有管道🚽

 

人工智能被过度炒作了吗?

为什么夸大的AI宣传如此容易出现(而且屡见不鲜)🎭

人工智能之所以像磁铁一样吸引各种夸大其词的说法,原因有以下几点:

演示版本质上就是作弊(委婉地说)。

演示经过精心策划,提示语经过反复调整,数据干净整洁。最佳案例会被重点展示,而失败案例则会在幕后默默地被忽略。.

幸存者偏差的影响非常明显。

“人工智能帮我们节省了百万小时”的故事会迅速传播开来。“人工智能让我们把所有内容重写两遍”的故事则会悄无声息地埋没在某个名为“第三季度实验”的项目文件夹里🫠

人们常常把流利程度和真理混为一谈。

现代人工智能听起来自信、乐于助人且具体——这会欺骗我们的大脑,让我们认为它是准确的。.

描述这种故障模式的一种非常主流的方式是虚构:自信地陈述但输出错误(也称为“幻觉”)。美国国家标准与技术研究院 (NIST) 直接指出,这是生成式人工智能系统的一个关键风险。[1]

金钱能放大声音

当预算、估值和职业激励受到威胁时,每个人都有理由说“这将改变一切”(即使它主要改变的是幻灯片)。.


“通货膨胀→失望→价值稳定”模式(以及为什么这并不意味着人工智能是假的)📈😬

许多科技产品的发展都遵循着相同的情感轨迹:

  1. 预期高峰(所有流程将于周二前实现自动化)

  2. 残酷的现实(周三爆发)

  3. 稳定价值(它悄然成为工作方式的一部分)

所以,没错——人工智能可能被过度吹捧,但仍然会产生重大影响。这两者并非对立面,而是相辅相成。


人工智能并未被过度炒作(它正在发挥作用)✅✨

这部分内容经常被忽略,因为它与其说是科幻,不如说是电子表格。.

编程方面的帮助确实能显著提高工作效率。

对于某些任务——例如样板代码、测试脚手架、重复模式——代码助手确实非常实用。.

GitHub 上一项被广泛引用的对照实验发现,使用 Copilot 的开发者完成编码任务的速度更快(他们的报告称,在该项研究中速度提高了 55%

虽然不神奇,但很有意义。关键在于你仍然需要审核它写的内容……因为“有用”并不等同于“正确”。

起草、总结和初步思考

人工智能擅长:

  • 将草稿变成清晰的初稿✍️

  • 长篇文档摘要

  • 生成选项(标题、大纲、电子邮件变体)

  • 翻译语气(“少放点辣”🌶️)

基本上,他就像一个不知疲倦、有时会撒谎的初级助理,所以你需要监督他。(虽然苛刻,但也准确。)

客户支持分诊和内部服务台

人工智能最擅长的领域往往是:分类→检索→建议,而不是发明→希望→部署

简而言之:使用人工智能从已批准的来源提取信息并撰写回复,但要确保最终发布的回复由人工负责——尤其是在风险较高的情况下。这种“管控+测试+披露事件”的模式与美国国家标准与技术研究院 (NIST) 对生成式人工智能风险管理的框架不谋而合。[1]

数据探索——有防护措施

人工智能可以帮助人们查询数据集、解读图表,并生成“下一步研究方向”的建议。其优势在于让分析更易于获取,而不是取代分析师。.


人工智能被过度吹捧的地方(以及它为何总是令人失望)❌🤷

“完全自主运行一切的智能体”

代理可以实现简洁高效的工作流程。但是一旦你添加了以下内容:

  • 多步骤

  • 凌乱的工具

  • 权限

  • 真实用户

  • 实际后果

……故障模式像兔子一样繁殖。起初觉得挺可爱,但很快就会让你应接不暇🐇

一条实用原则:某样东西声称越是“免手动操作”,你就越应该问问它坏了会发生什么。.

“很快就会完全准确了”

准确性当然会提高,但可靠性却难以保证——尤其是当模型没有可验证的来源作为依据时。

这就是为什么严肃的 AI 工作最终看起来像是:检索 + 验证 + 监控 + 人工审核,而不是“只是更努力地提示”。(NIST 的 GenAI 简介以礼貌而坚定的坚持传达了这一点。)[1]

“一个模型统领所有模型”

实际上,团队成员最终往往会混杂在一起:

  • 适用于低成本/大批量任务的小型机型

  • 用于更复杂推理的大型模型

  • 检索有理有据的答案

  • 合规边界规则

“单一神奇大脑”的概念很畅销。它简洁明了。人类喜欢整洁。.

“一夜之间替换所有工作岗位”

大多数工作都包含一系列任务。人工智能或许能轻松完成其中一部分任务,但对其余部分却几乎不做任何改动。而那些人性化的要素——判断力、责任感、人际关系、对背景的把握——则依然顽固地保留着……人性。.

我们想要的是机器人同事,结果却得到了功能强大的自动补全功能。.


好的AI应用案例(以及坏的AI应用案例)有哪些特点?🧪🛠️

这是人们常常跳过,之后又会后悔的部分。.

一个好的AI应用案例通常具备以下特点:

  • 明确的成功标准(节省时间、减少错误、提高响应速度)

  • 低至中等风险(或严格的人工审核)

  • 可重复使用的模式(常见问题解答、常用工作流程、标准文档)

  • 获取优质数据(以及使用许可)

  • 当模型输出无意义数据时,有一个备用方案。

  • 起初范围较窄

糟糕的人工智能应用案例通常是这样的:

  • “让我们实现决策自动化”,却不追究责任😬

  • “我们把它插到所有设备上就行了”(不……千万别)

  • 由于没有基准指标,所以没人知道它是否有效。

  • 原本以为它是台真值检测机,而不是一台模式检测机。

如果你只能记住一件事:人工智能最容易让人信任,前提是它基于你自己验证过的信息来源,并且被限制在明确定义的任务范围内。否则,它就只是基于感觉的计算。


一种简单(但极其有效)的方法来检验组织中人工智能的现实应用🧾✅

如果你想要一个靠谱的答案(而不是一些耸人听闻的观点),请做以下快速测试:

1)明确你雇佣人工智能来完成的工作。

请像写职位描述一样撰写:

  • 输入

  • 输出

  • 约束条件

  • “完成意味着……”

如果你不能清楚地描述它,人工智能也不会神奇地把它解释清楚。.

2)建立基线

现在需要多长时间?现在会犯多少错误?现在“好”的标准是什么?

没有基准线就意味着无休止的意见之争。说真的,人们会永远争论下去,而你会迅速衰老。.

3)确定真理的来源

  • 内部知识库?

  • 客户记录?

  • 已批准的政策?

  • 一套精心挑选的文档?

如果答案是“模型会知道”,那就是个危险信号🚩

4)制定人机交互计划

决定:

  • 谁在审阅,

  • 当他们审查时,

  • 以及当人工智能出错时会发生什么。.

这就是“工具”和“责任”之间的区别。并非总是如此,但通常如此。.

5)绘制爆炸半径图

先从错误成本低的地方入手。只有在掌握了证据之后才能扩大规模。.

这就是如何将夸大其词转化为实用价值。简单……有效……简直妙不可言😌


信任、风险和监管——这些看似枯燥却至关重要的部分🧯⚖️

如果人工智能要应用于任何重要领域(例如人、金钱、安全、法律后果),那么治理就不是可有可无的。.

一些被广泛提及的防护措施:

  • NIST 生成式人工智能概况(人工智能风险管理框架的配套文件) :涵盖治理、测试、溯源和事件披露等方面的实用风险类别及建议措施。[1]

  • 经合组织人工智能原则:可信赖的、以人为中心的人工智能的国际通用基准。[5]

  • 欧盟人工智能法案:一项基于风险的法律框架,根据人工智能的使用方式规定了相应的义务(并禁止某些“不可接受的风险”做法)。[4]

没错,这些东西确实会让人感觉像是在处理文书工作。但这可是“实用工具”和“糟糕,我们部署了一套合规噩梦”之间的区别。


深入探讨:“AI作为自动补全工具”的想法——被低估了,但某种程度上来说确实如此🧩🧠

这里有一个不太完美(但很贴切)的比喻:很多人工智能就像一个功能极其强大的自动补全工具,它读取了互联网上的内容,然后忘记了是从哪里读取的。.

这听起来像是轻蔑之言,但也正是因为如此,它才奏效:

  • 擅长模式

  • 语言能力很强

  • 擅长预测“下一个可能出现的事物”

这就是它失败的原因:

  • 它本身并不“知道”什么是真理。

  • 它本身并不知道你的组织是做什么的。

  • 它可以毫无根据地输出自信的胡言乱语(参见:虚构/幻觉)[1]

所以,如果你的用例需要确保真实性,你就需要用检索、工具、验证、监控和人工审核来支撑它。如果你的用例需要快速起草和构思,你就应该让它更自由一些。不同的场景,不同的预期。就像烹饪时用盐一样——并非所有食物都需要相同的用量。.


对比表格:如何在不被夸大宣传淹没的情况下切实运用人工智能🧠📋

工具/选项 观众 价格氛围 为什么有效
聊天式助手(通用) 个人、团队 通常包含免费版和付费版 非常适合用于草稿、头脑风暴、总结……但务必核实事实。
代码副驾驶 开发者 通常订阅 加快常见编码任务的速度,但仍需审查和测试,以及一杯咖啡。
基于检索的“带来源的答案” 研究人员、分析师 免费增值模式 比纯粹靠猜测更适合“寻找+实地考察”的工作流程
工作流自动化 + 人工智能 运维支持 分层 将重复步骤转化为半自动流程(关键在于“半”)。
内部模式/自托管 具备机器学习能力的组织 基础设施 + 人员 更大的控制权和隐私,但代价是维护成本和麻烦。
治理框架 领导者、风险、合规 免费资源 帮助您管理风险和信任,虽然不光鲜亮丽,但却至关重要。
基准测试/现实检验来源 高管、政策、战略 免费资源 数据胜过情绪,并减少了LinkedIn上的说教。
“全能经纪人” 梦想家们😅 成本 + 混乱 有时令人印象深刻,但往往又很脆弱——准备好零食和耐心。

如果你想找一个“现实检验”人工智能发展和影响数据的中心,斯坦福人工智能指数是一个不错的起点。[2]


总结发言 + 快速回顾🧠✨

所以,当有人兜售人工智能时,就会发现它被过度炒作了

  • 完美无瑕的精准度,

  • 完全自主权,

  • 整个岗位瞬间替换,

  • 或者一个即插即用、能解决您组织问题的智能系统……

……那么,没错,这就是包装精美的推销技巧。.

但如果你这样看待人工智能:

  • 一位强大的助手,

  • 最适合用于范围窄、定义明确的任务。

  • 基于可信来源,

  • 由人工审核重要内容……

……那么,它就不是被过度吹捧了。只是……效果不均衡。就像健身会员卡一样。如果使用得当,效果惊人;如果只是在聚会上说说而已,那就毫无用处😄🏋️

快速回顾:人工智能被过分吹捧为判断的神奇替代品,而作为起草、编码辅助、分诊和知识工作流程的实用倍增器却被低估了。


常问问题

人工智能现在是不是被过度炒作了?

人工智能被过度吹捧,因为它被宣传为完美无缺、无需人工干预,或者一夜之间就能取代整个工作岗位。在实际部署中,可靠性缺陷很快就会显现:自信的错误答案、极端情况以及复杂的集成。如果将人工智能视为一种用于特定任务(例如草拟、编码支持、问题分类和探索)的监督式工具,它就不会被过度吹捧。关键在于预期、基础和审查。.

人工智能营销宣传中最大的危险信号是什么?

“完全自主”和“即将完美精准”是两个最刺耳的警示信号。演示往往经过精心设计,使用预设的提示和干净的数据,从而掩盖了常见的故障模式。流畅的表达也可能被误认为是真理,使自信的错误听起来也合情合理。如果某个说法避而不谈系统崩溃时的后果,那就说明风险被轻描淡写了。.

为什么人工智能系统即使出错也听起来很自信?

生成模型擅长生成看似合理、流畅的文本——因此,它们在缺乏依据的情况下也能自信地编造细节。这通常被描述为虚构或幻觉:输出内容听起来很具体,但并非完全真实。正因如此,高信任度的应用场景通常会增加检索、验证、监控和人工审核等环节。其目标是在安全保障下实现实际价值,而非仅仅基于感觉的确定性。.

如何在不使用人工智能的情况下避免产生幻觉?

将人工智能视为草拟引擎,而非真理机器。答案应基于已验证的来源,例如已批准的政策、内部文件或精选参考资料,而不是想当然地认为“模型会知道”。添加验证步骤(链接、引用、交叉核对),并在错误严重的地方要求人工审核。从小规模开始,衡量结果,只有在看到稳定表现后才扩大规模。.

有哪些现实生活中人工智能没有被过度炒作的好应用案例?

人工智能在处理范围窄、可重复性高、成功指标明确且风险较低或中等的任务时往往表现最佳。常见的成功案例包括:撰写和修改、总结长篇文档、生成选项(大纲、标题、邮件变体)、编写代码框架、支持分诊以及提供内部服务台建议。最佳流程是“分类→检索→建议”,而不是“发明→寄希望于→部署”。最终的成果仍然由人类掌控。.

“无所不能的人工智能代理”是否被过分吹捧了?

答案通常是肯定的——尤其当“免手动操作”是卖点时。多步骤工作流程、复杂的工具、权限控制、真实用户以及实际后果,都会造成叠加的故障模式。代理在受限的工作流程中可能很有价值,但随着范围扩大,其脆弱性也会迅速增加。一个实用的测试方法很简单:定义备用方案,明确责任人,并说明如何在损害扩散之前检测到错误。.

我如何判断人工智能是否值得我的团队或组织采用?

首先,像撰写职位描述一样定义工作:输入、输出、约束条件以及“完成”的定义。建立基准线(时间、成本、错误率),以便衡量改进,而不是空谈。确定信息来源——内部知识库、已批准的文件还是客户记录。然后,设计人机协作方案,并在扩展之前先确定影响范围。.

人工智能输出错误时,谁该负责?

应该指定专人负责输出结果、审核以及系统故障的处理。“模型这么说”并非问责制,尤其是在涉及资金、安全或权利的情况下。必须明确谁有权批准响应、何时需要审核,以及如何记录和处理事件。这样才能将人工智能从一种负担转变为一种可控且责任明确的工具。.

我何时需要治理?常用的治理框架有哪些?

当风险增大时——任何涉及法律后果、安全、财务影响或人权的事项——治理就显得尤为重要。常见的保障措施包括美国国家标准与技术研究院 (NIST) 的生成式人工智能规范(人工智能风险管理框架的配套文件)、经合组织 (OECD) 的人工智能原则以及欧盟人工智能法案中基于风险的义务。这些措施鼓励进行测试、溯源、监控和事件披露。虽然这些工作可能并不吸引人,但它们可以避免“糟糕,我们部署了一个合规噩梦”的局面。

如果人工智能被过度炒作,为什么它仍然给人以重大影响?

炒作和实际影响可以并存。许多技术的发展轨迹都遵循着类似的规律:期望值达到顶峰,现实残酷,然后才展现出稳定的价值。人工智能功能强大,但人们常常把它当作已经成熟的产品来推销——而实际上它仍在开发中,整合过程也十分缓慢。只有当人工智能能够消除工作中繁琐的部分,辅助代码编写和编码,并通过基础分析和审查来改进工作流程时,它的持久价值才会显现出来。.

参考

  1. NIST 的生成式人工智能概况(NIST AI 600-1,PDF)——人工智能风险管理框架的配套指南,概述了关键风险领域,并针对治理、测试、溯源和事件披露提出了建议措施。了解更多

  2. 斯坦福 HAI 人工智能指数——一份年度报告,数据丰富,追踪人工智能在主要基准和指标上的进展、应用、投资和社会影响。了解更多

  3. GitHub Copilot 生产力研究——GitHub 针对使用 Copilot 时任务完成速度和开发者体验进行的对照研究报告。阅读更多

  4. 欧盟委员会人工智能法案概述——欧盟委员会的专题页面,解释了欧盟对人工智能系统的风险分级义务以及禁止行为的类别。了解更多

在官方人工智能助手商店查找最新人工智能产品

关于我们

返回博客