人工智能是否发展过头了?

人工智能是否发展过头了?

简而言之:当人工智能被应用于高风险决策、监控或劝诱等缺乏明确限制、未获得知情同意且没有真正申诉权的场合时,它就走得太远了。当深度伪造和可规模化的诈骗手段让信任变成一场赌博时,它就再次越界了。如果人们无法分辨人工智能在其中扮演的角色,无法理解某个决策为何如此,或者无法选择退出,那么它就已经走得太远了。

要点总结:

边界:定义系统不能做什么,尤其是在不确定性较高的情况下。

问责制:确保人们可以在不受惩罚或时间压力陷阱的情况下推翻结果。

透明度:告诉人们人工智能何时参与决策以及它做出决策的原因。

可质疑性:提供快速、可行的申诉途径和明确的纠正错误数据的方法。

防止滥用:增加来源信息、速率限制和控制措施,以遏制诈骗和滥用行为。

“人工智能是否走得太远了?”

奇怪的是,这种越界行为并非总是显而易见。有时它声势浩大、引人注目,就像深度伪造骗局一样。(美国联邦贸易委员会联邦调查局)有时它却悄无声息——一个自动化的决定在没有任何解释的情况下悄然改变你的生活,而你甚至没有意识到自己已经被“评分”了。(英国信息专员办公室《通用数据保护条例》第22条

所以……人工智能是否发展过头了?在某些方面,是的。在另一些方面,它又发展得不够——因为在使用人工智能时,缺少了那些看似不起眼但至关重要的安全保障措施,这些措施能确保工具发挥其应有的作用,而不是像带有友好用户界面的轮盘赌一样随意转动。🎰🙂( NIST AI RMF 1.0欧盟人工智能法案

您可能还想阅读以下文章:

🔗 为什么人工智能可能对社会有害
主要社会风险:偏见、就业、隐私和权力集中。.

🔗 人工智能对环境有害吗?其隐蔽的影响
培训、数据中心和能源使用如何增加排放。.

🔗 人工智能是好是坏?优缺点分析
对收益、风险和实际权衡取舍进行了全面而平衡的概述。.

🔗 为什么人工智能被认为是不好的:它的阴暗面
探讨滥用、操纵、安全威胁和伦理问题。.


人们常说的“人工智能是否发展过头了?”到底是什么意思?😬

大多数人并非在问人工智能是否“有感知能力”或“正在接管人类”。他们关注的是以下几点:

“人工智能是否走得太远了?”问题的核心所在。它并非源于某个单一事件,而是各种激励机制、捷径以及“以后再说”心态的累积——坦白说,这种心态往往最终会演变成“等到有人受伤了再说”。😑

人工智能是否发展过头了?信息图

一个并非秘密的真相:人工智能是倍增器,而非道德主体🔧✨

人工智能不会自行觉醒并决定作恶。是人和组织赋予了它这种意图。但它会放大你输入给它的任何信息:

  • 善意的意图变得非常有帮助(翻译、无障碍访问、摘要、医疗模式识别)。

  • 粗心大意会演变成极其粗心(大规模偏见、错误自动化)。

  • 恶意行为会变得极其恶劣(欺诈、骚扰、宣传、冒充他人)。

这就像给一个蹒跚学步的孩子一个扩音器。有时候孩子会唱歌……有时候孩子会直接对着你的灵魂尖叫。这个比喻可能不太恰当——有点傻——但意思很贴切😅📢。.


在日常使用中,什么样的AI才算好用?✅🤝

人工智能的“优秀版本”并非取决于它的智能程度,而是取决于它在压力、不确定性和诱惑(而人类很容易受到廉价自动化技术的诱惑)下的表现。( NIST AI RMF 1.0OECD

当有人声称他们的人工智能应用导致了事故发生时,我会关注以下几点:

1)明确界限

  • 该系统被允许做什么?

  • 明确禁止做什么?

  • 如果结果不确定会怎样?

2)真正意义上的、而非形式上的人性责任。

人工“审核”结果只有在以下情况下才重要:

  • 他们明白自己正在审核的内容,而且

  • 他们可以凌驾于规则之上,而不会因为拖慢进度而受到惩罚。.

3)恰当的可解释性

并非人人都需要数学。但人们确实需要:

4)可衡量的性能——包括故障模式

不仅仅是“准确率”,而是:

  • 它对谁都无效,

  • 它常常悄无声息地失败,

  • 当世界发生变化时会发生什么?( NIST AI RMF 1.0

5) 隐私和同意机制不应“隐藏在设置中”

如果获得同意需要像寻宝一样在菜单中查找信息……那根本算不上同意,而是一个需要额外步骤的漏洞😐🧾。( GDPR 第 5 条英国信息专员办公室


对比表格:防止人工智能过度发展的实用方法🧰📊

以下是一些“最佳选择”,因为它们是常见的护栏或操作工具,可以改变结果(而不仅仅是氛围)。.

工具/选项 观众 价格 为什么有效
人机交互审查(欧盟人工智能法案 团队做出高风险决定 时间成本 减缓糟糕的自动化进程。此外,人类有时还能注意到一些奇怪的极端情况……
决定申诉流程( GDPR 第 22 条 受人工智能决策影响的用户 相对自由 增加了正当程序。人们可以更正错误数据——这听起来很简单,因为它确实很简单。
审计日志 + 可追溯性( NIST SP 800-53 合规、运营、安全 £-££ 它能让你在失败后回答“发生了什么?”,而不是耸耸肩。
模型评估 + 偏差测试( NIST AI RMF 1.0 产品+风险团队 差别很大 能及早发现可预见的危害。虽然不完美,但总比瞎猜强。
红队测试( NIST GenAI Profile 安保人员 £££ 在真正的攻击者实施攻击之前模拟滥用行为。虽然令人不快,但值得😬
数据最小化(英国信息专员办公室 坦白说,每个人都 £ 数据越少,混乱就越少。数据泄露事件也越少,尴尬的对话也就越少。
内容来源信号( C2PA 平台、媒体、用户 £-££ 有助于验证“这是否是人做的?”——虽然并非万无一失,但可以减少混乱。
速率限制 + 访问控制( OWASP 人工智能提供商 + 企业 £ 立即阻止滥用行为的蔓延。就像给不法分子设置了减速带。

是的,桌子有点不平。这就是生活。🙂


人工智能在高风险决策中的应用:当它走得太远时🏥🏦⚖️

接下来事情会迅速变得严峻起来。.

人工智能在医疗保健金融住房就业教育移民刑事司法等领域的应用——这些系统都涉及以下方面:(欧盟人工智能法案附件三FDA

  • 错误可能会使人损失金钱、自由、尊严或安全。

  • 受影响的人往往缺乏反抗的能力。.

最大的风险不在于“人工智能会犯错”,而在于人工智能的错误最终会成为政策。( NIST AI RMF 1.0

这里所说的“太过分”是什么样的呢?

  • 自动决策不作解释:“电脑说不行。”(英国信息专员办公室

  • 将“风险评分”视为事实而非猜测。.

  • 因为管理层追求速度,所以无法左右结果的人。.

  • 数据杂乱无章、有偏见、过时或完全错误。.

哪些是不可谈判的?

如果你想划清界限,那就这样吧:
如果人工智能系统能够实质性地改变人们的生活,那么它就需要像其他权威机构一样受到严肃对待。禁止对未注册用户进行“beta测试”。🚫


深度伪造、诈骗,以及“我相信我的眼睛”这种观念的缓慢消亡👀🧨

正是这一点让日常生活感觉……如履薄冰。.

当人工智能能够生成:

……这不仅助长了诈骗,还削弱了陌生人之间相互协作的社会纽带。而社会运转正是建立在陌生人之间的协作之上的。😵💫

“太过分”不仅仅指虚假内容。

问题在于不对称性

  • 编造谎言成本很低。.

  • 核实真相既费钱又费时。.

  • 大多数人都很忙、很累,都在刷手机。.

什么(有点)有帮助?

  • 媒体来源标记。( C2PA

  • 阻碍病毒式传播的摩擦——减缓瞬间大规模分享的速度。.

  • 在重要领域(金融、政府服务)加强身份验证。.

  • 个人基本的“带外验证”习惯(回拨电话、使用暗号、通过其他渠道确认)。(美国联邦贸易委员会

并不光鲜亮丽。但安全带也不光鲜亮丽,而我个人却对它们很有感情。🚗


监控蔓延:人工智能悄然将一切变成传感器📷🫥

这种视频不会像深度伪造视频那样迅速传播,它只会慢慢扩散。.

人工智能让以下事情变得容易:

即使预测不准确,仍然可能造成危害,因为它可能成为干预的理由。错误的预测仍然会引发实际的后果。.

令人不舒服的部分

人工智能监控往往披着安全外衣:

  • “这是为了防止欺诈。”

  • “这是为了安全。”

  • “这都是为了提升用户体验。”

有时候确实如此。有时候,这只是一个方便的借口,用来建造一些日后很难拆卸的系统。就像在自己家里安装单向门,因为当时觉得这样很方便。当然,这个比喻并不完美——甚至有点荒谬——但你肯定能体会到那种感觉。🚪😅

这里“好”的定义是什么?

  • 严格限制数据保留和共享。.

  • 明确选择退出。.

  • 使用场景较为狭窄。.

  • 独立监督。.

  • 请勿将“情绪检测”用于惩罚或门槛控制。拜托了。🙃(欧盟人工智能法案


工作、创造力和悄然发生的技能退化问题🧑💻🎨

辩论的焦点在于身份认同,因此变得非常私人化。.

人工智能可以提高人们的工作效率,但也可能使人们感到自己可有可无。这两种情况可能同时发生,甚至在同一周内。(经合组织世界经济论坛

真正有帮助的地方

  • 编写日常文本,以便人们能够专注于思考。.

  • 针对重复模式的编码辅助。.

  • 辅助功能工具(字幕、摘要、翻译)。.

  • 遇到难题时,不妨集思广益。.

过犹不及

  • 没有过渡计划就进行岗位更替。.

  • 利用人工智能提高产量,同时压低工资。.

  • 把创意作品当作无限的免费训练数据,然后耸耸肩就完事了。(美国版权局英国政府网站

  • 取消初级职位——这听起来很高效,但当你意识到你刚刚烧毁了未来专家需要攀登的阶梯时,你就会明白这有多好。.

技能退化是悄无声息的。你平时察觉不到。但有一天,你会突然意识到团队里没人记得没有助理该怎么操作了。如果助理错了,你们就都自信满满地跟着一起错……这简直就是一场噩梦。😬


权力集中:谁来设定默认设置?🏢⚡

即使人工智能是“中立的”(实际上并非如此),谁控制了它,谁就能塑造:

  • 哪些信息容易获取?

  • 哪些内容会被推广,哪些内容会被埋没?

  • 允许使用哪些语言?

  • 鼓励哪些行为?.

而且由于人工智能系统的建设和运行成本高昂,权力往往会集中。这不是阴谋论,而是披着科技外衣的经济学原理。(英国竞争与市场管理局

这里“太过分”的时刻到了。

当默认规则变成隐形法则时:

  • 你不知道过滤掉了什么,

  • 你无法检查其逻辑。

  • 而且,如果不放弃工作、融入社区或获得基本服务,你实际上无法选择退出。.

一个健康的生态系统需要竞争、透明度和真正的用户选择。否则,你基本上就是在租借现实。😵♂️


一份实用清单:如何判断人工智能在你的领域是否走得太远🧾🔍

以下是我常用的一个自我检查清单(是的,它并不完美):

如果你是个人

  • 我能感觉到自己是在和人工智能互动。(欧盟委员会

  • 这个系统让我忍不住过度分享。.

  • 如果错误的原因合情合理,我可以接受。.

  • 如果我使用这个平台被骗了,平台会帮助我……或者会耸耸肩表示无动于衷。.

如果您是企业或团队

  • 我们使用人工智能是因为它很有价值,或者因为它很流行,而管理层又不安于现状。.

  • 我们知道该系统会接触哪些数据。.

  • 受影响的用户可以对处理结果提出申诉。(英国信息专员办公室

  • 人类有能力推翻模型。.

  • 我们制定了针对人工智能故障的事件响应计划。.

  • 我们正在监控偏差、误用和异常极端情况。.

如果你对其中很多问题的回答都是“否”,那并不代表你很坏。这只是说明你处于一种正常的人类状态——“我们抱着试试看的态度”。但可惜的是,光有希望是不行的。😅


结语🧠✅

那么……人工智能是否发展过头了?如果人工智能
的部署缺乏问责机制那么它就已经发展过头了。此外,如果人工智能侵蚀了信任,那也是发展过头了——因为一旦信任破裂,从社会角度来看,一切都会变得更加昂贵,也更具敌意。( NIST AI RMF 1.0欧盟人工智能法案

但人工智能并非天生注定失败或完美无缺。它是一种强大的倍增器。问题在于,我们构建安全保障措施的力度是否与构建能力的力度一样大。.

快速回顾:

  • 人工智能作为一种工具是可以的。.

  • 作为一个不受问责的权力机构,它是危险的。.

  • 如果一个人无法申诉、理解或选择退出——那就说明“太过分了”。🚦( GDPR 第 22 条英国信息专员办公室


常问问题

人工智能是否在日常生活中走得太远了?

在许多地方,人工智能已经走得太远,因为它开始渗透到决策和互动中,却缺乏明确的界限和问责机制。问题很少出在“人工智能的存在”上;而是人工智能被悄悄地融入到招聘、医疗保健、客户服务和信息流等领域,而监管却十分薄弱。当人们无法分辨它是人工智能,无法质疑结果,也无法选择退出时,它就不再像是一个工具,而更像是一个系统。.

在高风险决策中,“人工智能过度使用”会是什么样子?

人工智能似乎正被应用于医疗保健、金融、住房、就业、教育、移民或刑事司法等领域,但缺乏强有力的监管。核心问题不在于模型会犯错,而在于这些错误会固化为政策,且难以质疑。“电脑说不”这种解释含糊、缺乏有效申诉机制的决定,正是造成危害迅速扩大的根源。.

如何判断自动化决策是否对我造成影响,以及我该如何应对?

一个常见的迹象是出现无法解释的突发结果:例如被拒绝、受到限制,或者被贴上“风险评分”的标签,却没有任何明确的理由。许多系统应该披露人工智能何时发挥了实质性作用,并且你应该能够要求了解决策背后的主要原因以及申诉步骤。在实践中,你应该要求人工审核,纠正任何错误数据,并争取一个简单明了的退出途径。.

人工智能是否在隐私、同意和数据使用方面走得太远了?

当用户同意变成一场寻宝游戏,数据收集“以防万一”而不断扩大时,问题就出现了。文章的核心观点是,如果隐私和同意被隐藏在设置中或通过模糊的条款强制执行,那么它们就形同虚设。更健康的做法是数据最小化:少收集、少保存数据,并确保选择清晰明确,以免用户日后感到意外。.

深度伪造和人工智能诈骗如何改变网络上“信任”的含义?

他们通过降低制作逼真虚假声音、视频、评论和身份的成本,使真相显得可有可无。问题在于这种不对称性:制造谎言成本低廉,而验证真相却缓慢而费力。切实可行的防御措施包括:为媒体添加来源标识、减缓病毒式传播速度、在关键环节加强身份验证,以及养成“带外验证”的习惯,例如回拨电话或使用共享暗语。.

防止人工智能过度发展的最实用保障措施是什么?

能够改变结果的保障措施包括:对高风险通话进行真正的人工审核、清晰的申诉流程以及能够在故障发生后解答“发生了什么?”的审计日志。模型评估和偏差测试可以更早地发现可预见的危害,而红队测试则可以在攻击者实施之前模拟滥用行为。速率限制和访问控制有助于防止滥用行为迅速扩大规模,而数据最小化则可以全面降低风险。.

人工智能驱动的监控何时会越界?

当一切默认都变成传感器时,问题就越界了:例如人群中的人脸识别、运动模式追踪,或是用于惩罚或把关的自信满满的“情绪检测”。即使是不准确的系统,如果被用来作为干预或拒绝服务的正当理由,也会造成严重伤害。良好的实践包括:限定应用场景、严格的数据保留期限、有效的退出机制、独立的监督,以及坚决反对任何基于情绪的、不可靠的判断。.

人工智能是在提高人们的生产力,还是在悄悄地降低工作技能要求?

这两种情况可以同时成立,而这种矛盾正是问题的关键所在。人工智能可以帮助处理日常的文书工作、重复性的代码编写以及提升可访问性,从而使人类能够专注于更高层次的思考。但如果人工智能在没有过渡计划的情况下取代现有岗位、压低工资、将创意工作视为免费的训练数据,或者取消那些能够培养未来专业技能的初级岗位,那就过犹不及了。技能贬值往往不易察觉,直到团队离不开人工智能助手为止。.

参考

  1. 美国国家标准与技术研究院 (NIST) -人工智能风险管理框架 (AI RMF 1.0) - nist.gov

  2. 欧盟-欧盟人工智能法((EU) 2024/1689 号条例) - 官方公报(英文) - europa.eu

  3. 欧盟委员会-人工智能监管框架(欧盟人工智能法案政策页面) - europa.eu

  4. 欧盟人工智能法案服务台-附件三(高风险人工智能系统) - europa.eu

  5. 欧盟——欧盟可信赖人工智能规则(欧盟人工智能法案摘要) —— europa.eu

  6. 英国信息专员办公室 (ICO) -什么是自动化个人决策和用户画像? - ico.org.uk

  7. 英国信息专员办公室 (ICO) -英国《通用数据保护条例》(GDPR) 对自动化决策和用户画像有何规定? - ico.org.uk

  8. 英国信息专员办公室 (ICO) -自动化决策和用户画像(指导中心) - ico.org.uk

  9. 英国信息专员办公室 (ICO) -数据最小化(英国 GDPR 原则指南) - ico.org.uk

  10. GDPR-info.eu - GDPR 第 22 条- gdpr-info.eu

  11. GDPR-info.eu - GDPR 第 5 条- gdpr-info.eu

  12. 美国联邦贸易委员会 (FTC) -诈骗分子利用人工智能技术强化其家庭应急骗局- ftc.gov

  13. 美国联邦贸易委员会 (FTC) -诈骗分子利用虚假紧急情况窃取您的钱财- ftc.gov

  14. 美国联邦贸易委员会 (FTC) -禁止虚假评论和证言的最终规则(新闻稿) - ftc.gov

  15. 美国联邦调查局(FBI) —— FBI警告称,利用人工智能的网络犯罪分子构成的威胁日益增加——fbi.gov

  16. 经济合作与发展组织(OECD) —— OECD人工智能原则——oecd.ai

  17. 经合组织——人工智能理事会建议(OECD/LEGAL/0449) —— oecd.org

  18. 欧盟委员会-透明人工智能系统指南和行为准则(常见问题解答) - europa.eu

  19. 内容溯源与真实性联盟 (C2PA) -规范 v2.3 - c2pa.org

  20. 英国竞争与市场管理局 (CMA) -人工智能基础模型:初步报告- gov.uk

  21. 美国食品药品监督管理局 (FDA) -人工智能医疗器械- fda.gov

  22. 技术研究院 (NIST) -信息系统和组织的安全与隐私控制 (SP 800-53 Rev. 5) - nist.gov

  23. 研究院 (NIST) -生成式人工智能规范 (NIST.AI.600-1, ipd) - nist.gov

  24. 全球开放式应用安全项目 (OWASP) -无限制资源消耗(API 安全十大风险,2023) - owasp.org

  25. 研究院 (NIST) -人脸识别供应商测试 (FRVT) 人口统计数据- nist.gov

  26. Barrett 等人 (2019) -文章 (PMC) - nih.gov

  27. 经合组织-在工作场所使用人工智能(PDF) - oecd.org

  28. 世界经济论坛(WEF) —— 《2025年未来就业报告》——摘要——weforum.org

  29. 美国版权局-版权与人工智能,第三部分:生成式人工智能训练报告(预发布版)(PDF) - copyright.gov

  30. 英国政府(GOV.UK) -版权和人工智能(咨询) - gov.uk

在官方人工智能助手商店查找最新人工智能产品

关于我们

返回博客