人工智能承诺带来速度、规模,以及偶尔的神奇效果。但耀眼的光芒也可能令人盲目。如果您一直想知道“为什么人工智能对社会有害?”,那么本指南将用通俗易懂的语言,结合实例、解决方案和一些令人不安的真相,为您梳理人工智能最大的危害。这并非反科技,而是回归现实。
您可能还想阅读以下文章:
🔗 人工智能用水量是多少?
解释了人工智能惊人的用水量及其在全球范围内的重要性。
🔗 什么是人工智能数据集
分析数据集的结构、来源及其对模型训练的重要性。
🔗 人工智能如何预测趋势
展示了算法如何分析模式以准确预测结果。
🔗 如何衡量人工智能性能
涵盖评估模型准确性、速度和可靠性的关键指标。
简答:为什么人工智能对社会有害?⚠️
因为如果没有有效的监管措施,人工智能可能会放大偏见,用以假乱真的虚假信息充斥信息空间,极大地增强监控能力,导致工人失业的速度超过我们重新培训他们的速度,给能源和水资源系统带来巨大压力,并做出难以审计或申诉的高风险决策。领先的标准机构和监管机构之所以指出这些风险,是有原因的。[1][2][5]
轶事(综合):一家区域性贷款机构试用了一款人工智能贷款分流工具。该工具提高了处理速度,但一项独立评估发现,对于来自某些与历史歧视性住房政策相关的邮政编码区域的申请人,该模型表现不佳。解决这个问题并非一纸备忘录就能完成——它需要数据工作、政策制定和产品改进。这种模式在本文中反复出现。
为什么人工智能对社会有害?一些有力的论点 ✅
好的批评可以做到三件事:
-
要拿出可重复的证据来证明危害或风险升高,而不是凭感觉——例如,任何人都能阅读和应用的风险框架和评估。[1]
-
展现系统层面的威胁模式和滥用激励等结构性动态,而不仅仅是一次性事故。[2]
-
提出与现有治理工具包(风险管理、审计、行业指南)相一致的具体缓解措施,而不是空泛地呼吁“道德”。[1][5]
我知道,这听起来合情合理得令人恼火。但这就是底线。

危害逐一剖析
1)偏见、歧视和不公平的决定🧭
算法可能会以反映数据偏差或设计缺陷的方式对人进行评分、排名和贴标签。标准机构明确警告,如果不对人工智能的风险(公平性、可解释性和隐私性)进行管理,就可能造成实际危害,尤其是在忽略衡量、记录和治理的情况下。[1]
为什么这对社会有害:大规模使用的带有偏见的工具悄然把持着信贷、就业、住房和医疗保健。测试、文档记录和独立审计会有所帮助——但前提是我们真的要去做。[1]
2)虚假信息、深度伪造和现实崩塌🌀
现在,伪造音频、视频和文本的成本已经很低,而且效果惊人地逼真。网络安全报告显示,敌对势力正在积极利用合成媒体和模型级攻击来削弱信任,并加强欺诈和影响力行动。[2]
为什么这会对社会造成危害:当任何人都可以根据自身方便随意断言任何视频片段是真是假时,信任就会崩溃。媒体素养有所帮助,但内容真实性标准和跨平台协调更为重要。[2]
3)大规模监控和隐私压力🕵️♀️
人工智能降低了人口层面追踪的成本——包括面部、声音和生活模式的追踪。威胁形势评估指出,数据融合和模型辅助分析的应用日益广泛,如果不加以控制,分散的传感器可能会变成事实上的监视系统。[2]
为什么说它对社会有害:对言论和结社的寒蝉效应很难察觉,直到它已经发生。监督应该之前进行,而不是在部署之后很久才进行。[2]
4) 工作、工资和不平等 🧑🏭→🤖
人工智能确实可以提高生产力,但其影响并不均衡。跨国雇主和员工调查发现,人工智能既带来益处,也存在颠覆性风险,某些任务和职业受到的影响比其他任务和职业更大。技能提升有所帮助,但转型会对真实的家庭生活产生实时影响。[3]
从社会角度来看,这是不好的:如果生产力的提高主要惠及少数企业或资产所有者,我们就会加剧不平等,而对其他人则表现得漠不关心。[3]
5) 网络安全和模型漏洞利用🧨
人工智能系统扩大了攻击面:数据投毒、提示注入、模型窃取以及人工智能应用工具的供应链漏洞。欧洲威胁报告记录了现实世界中对合成媒体的滥用、越狱和投毒活动。[2]
为什么这会对社会造成危害:当守护城堡的东西变成了新的吊桥。将安全设计理念和强化措施应用于人工智能管道,而不仅仅是传统应用程序。[2]
6) 能源、水和环境成本🌍💧
训练和运行大型模型会通过数据中心消耗大量的电力和水。国际能源分析师正在追踪快速增长的需求,并警告说,随着人工智能工作负载的扩大,电网将受到影响。关键在于规划,而不是恐慌。[4]
为什么这对社会有害:看不见的基础设施压力会表现为更高的账单、电网拥堵和选址之争——而这些往往发生在议价能力较弱的社区。[4]
7) 医疗保健和其他高风险决策🩺
全球卫生机构指出,临床人工智能存在安全、可解释性、责任和数据治理方面的问题。数据集杂乱无章;错误代价高昂;监管必须达到临床级别。[5]
为什么这对社会有害:算法的自信可能看起来像是能力出众,但事实并非如此。防护措施必须反映医疗现实,而不是演示效果。[5]
对比表:减少伤害的实用工具
(是的,标题故意做得有点怪异)
| 工具或政策 | 观众 | 价格 | 它为什么有效……某种程度上是这样 |
|---|---|---|---|
| NIST人工智能风险管理框架 | 产品、安全、执行团队 | 时间 + 审计 | 用于风险、生命周期控制和治理框架的通用语言。并非万能灵药。[1] |
| 独立模型审计和红队演练 | 平台、初创公司、代理机构 | 中等至高 | 在用户发现之前就能发现危险行为和故障。需要保持独立性才能获得信任。[2] |
| 数据来源和内容真实性 | 媒体、平台、工具制造商 | 工具 + 操作 | 有助于追踪来源并大规模标记跨生态系统的虚假信息。虽然并不完美,但仍然很有帮助。[2] |
| 劳动力过渡计划 | 人力资源、学习与发展、政策制定者 | 技能再培训 | 有针对性的技能提升和任务重新设计可以缓解弱势岗位的人员流失;衡量结果,而不是口号。[3] |
| 卫生部门指南 | 医院、监管机构 | 政策时间 | 部署工作需符合伦理、安全和临床验证要求。始终将患者放在首位。[5] |
深度解析:偏见是如何悄然滋生的🧪
-
数据存在偏差——历史记录中存在过去的歧视;除非进行测量和缓解,否则模型也会反映这种歧视。[1]
-
情况瞬息万变——一种模式在一个群体中行之有效,但在另一个群体中可能就行不通;治理需要进行范围界定和持续评估。[1]
-
代理变量——仅仅删除受保护的属性是不够的;相关特征会重新引入这些属性。[1]
实际操作:记录数据集、开展影响评估、衡量不同群体的结果并公布结果。如果你自己都不愿意在首页捍卫它,那就不要发布。[1]
深度解析:为什么错误信息在人工智能时代如此难以传播🧲
-
速度 + 个性化= 针对微型社区的虚假信息。
-
利用不确定性——当一切都可能是假的,不法分子只需要散布怀疑即可。
-
验证滞后——出处标准尚未统一;除非平台协调一致,否则真实媒体将处于劣势。[2]
深度解析:基础设施账单到期啦🧱
-
电力——人工智能工作负载推高了数据中心的电力消耗;预计未来十年将出现大幅增长。[4]
-
水——冷却需求给当地系统带来压力,尤其是在干旱地区。
-
选址之争——当社区认为成本高昂而收益甚微时,他们会进行反抗。
缓解措施:提高效率、采用更小/更精简的模型、利用非高峰时段用水、选址在可再生能源附近、提高用水透明度。说起来容易做起来难。[4]
不想成为头条新闻的领导者的战术清单🧰
-
运行与实时系统注册信息关联的人工智能风险评估
-
实施内容真实性技术并制定事件应对方案。[2]
-
独立审计和红队演练。如果它决定人事,就应该受到审查。[2]
-
在医疗健康应用案例中,应遵循行业指南,坚持进行临床验证,而不是演示基准测试。[5]
-
将部署与任务重新设计和技能提升,按季度进行评估。[3]
常见问题的提示答案🙋♀️
-
人工智能难道不好吗?当然好。这个问题能帮助我们找出故障模式,从而解决它们。
-
我们难道不能只增加透明度吗?这固然有帮助,但还不够。还需要测试、监控和问责机制。[1]
-
监管会扼杀创新吗?明确的规则往往能减少不确定性,释放投资潜力。风险管理框架的核心就在于如何安全地进行建设。[1]
总结和最终想法🧩
为什么人工智能对社会有害?因为规模+不透明性+激励机制错位=风险。如果不加干预,人工智能会加剧偏见、侵蚀信任、助长监控、消耗资源,甚至做出本应由人类申诉的决定。另一方面:我们已经具备改进人工智能的框架——风险框架、审计、真实性标准和行业指南。关键不在于急刹车,而在于安装刹车、检查方向盘,并牢记车里坐着的是活生生的人。[1][2][5]
参考
-
美国国家标准与技术研究院 (NIST) – 人工智能风险管理框架 (AI RMF 1.0)。 链接
-
ENISA – 2025 年威胁形势报告。 链接
-
经合组织—— 人工智能对工作场所的影响:经合组织针对雇主和员工开展的人工智能调查的主要发现。链接
-
国际能源署—— 能源与人工智能(电力需求与展望)。链接
-
世界卫生组织—— 人工智能在医疗领域的伦理与治理。链接
关于范围和平衡的说明:经合组织的调查结果基于特定行业/国家的调查;解读时应考虑这些背景。欧盟网络安全和信息安全局(ENISA)的评估反映了欧盟面临的威胁形势,但也强调了与全球相关的模式。国际能源署(IEA)的展望提供的是模型预测,而非确定性结论;它是一种规划信号,而非预言。