人工智能有时感觉像个魔术,大家一边点头一边暗自琢磨……等等,这到底运作的?好消息!我们会用简洁明了的方式揭开它的神秘面纱,注重实用性,并穿插一些虽不完美但却能让人理解的比喻。如果你只想了解要点,可以直接跳到下面的一分钟解答;但说实话,细节才是真正让你茅塞顿开的地方💡。
您可能还想阅读以下文章:
🔗 GPT 代表什么?
GPT缩写及其含义的简要解释。
🔗 人工智能从哪里获取信息?
人工智能用于学习、训练和回答问题的信息来源。
🔗 如何将人工智能融入您的业务
有效整合人工智能的实用步骤、工具和工作流程。
🔗 如何创办一家人工智能公司
从构思到发布:验证、资金、团队和执行。
人工智能是如何运作的?一分钟解答⏱️
人工智能从数据中学习模式,从而进行预测或生成内容——无需任何人工编写的规则。系统接收示例,通过损失函数衡量其误差程度,并不断调整内部参数,以求每次都更准确一些。如此反复,持续改进。经过足够多的迭代,它就能发挥作用。无论是对电子邮件进行分类、识别肿瘤、玩棋盘游戏还是创作俳句,道理都一样。如果想用通俗易懂的语言了解“机器学习”,IBM 的概述[1] 非常实用。
现代人工智能大多是机器学习。简单来说:输入数据,学习输入到输出的映射关系,然后将其推广到新的领域。它不涉及什么神奇的数学运算,而是计算,坦白说,还需要一点艺术技巧。
“人工智能是如何运作的?” ✅
当人们在谷歌上搜索“人工智能如何运作?”,他们通常想了解:
-
一个他们可以信赖的可重复使用的心理模型
-
一张主要学习类型地图,让专业术语不再令人畏惧
-
一窥神经网络内部运作机制而不迷失方向
-
为什么变形金刚现在似乎主宰着世界
-
从数据到部署的实际流程
-
您可以截屏保存的简易对比表格
-
关于道德、偏见和可靠性的保障措施,并非含糊其辞。
这就是你在这里能体验到的。如果我漫无目的地闲逛,那也是故意的——就像选择风景优美的路线,以便下次更好地记住沿途的街道。🗺️
大多数人工智能系统的核心要素🧪
把人工智能系统想象成一个厨房。有四种食材反复出现:
-
数据——带标签或不带标签的示例。
-
模型——具有可调参数的数学函数。
-
目标函数——衡量猜测结果有多糟糕的损失函数。
-
优化——一种调整参数以减少损失的算法。
在深度学习中,这种推动通常是梯度下降和反向传播——一种有效的方法,可以找出巨大音板上的哪个旋钮发出吱吱声,然后将其调低一点[2]。
简单案例:我们用一个小型监督模型替换了一个脆弱的基于规则的垃圾邮件过滤器。经过一周的标签→测量→更新循环后,误报率和支持工单数量都下降了。没什么特别的——只是目标更清晰(对“正常”邮件的准确率更高)和优化得更好。
学习范式一览🎓
-
监督学习:
您提供输入-输出对(带标签的照片、标记为垃圾邮件/非垃圾邮件的电子邮件)。模型学习输入→输出。它是许多实用系统的核心[1]。 -
无监督学习,
无需标签。寻找结构簇、压缩信息和潜在因子。非常适合探索或预训练。 -
自监督学习:
该模型能够自行生成标签(预测下一个单词或缺失的图像块),大规模地将原始数据转化为训练信号,是现代语言和视觉模型的基础。 -
强化学习中,
智能体通过行动、收集奖励并学习最大化累积奖励的策略。如果“价值函数”、“策略”和“时间差分学习”让你感到熟悉,那么这里就是它们的故乡[5]。
是的,在实践中,这些类别之间的界限往往模糊不清。混合方法是常态。现实生活纷繁复杂,优秀的工程设计能够适应这种复杂性。
无需头痛,即可进入神经网络世界🧠
神经网络由多层微小的数学单元(神经元)堆叠而成。每一层都通过权重、偏置以及类似 ReLU 或 GELU 的非线性激活函数来转换输入。早期层学习简单的特征;更深层的层则编码抽象概念。“神奇之处”(如果可以这么称呼的话)在于组合:将小型函数串联起来,就可以模拟极其复杂的现象。
训练循环,仅振动:
-
猜测 → 测量误差 → 通过反向传播归咎责任 → 调整权重 → 重复。
分批进行此操作,就像笨拙的舞者每跳一首歌都在进步一样,模型就不会再踩到你的脚趾了。有关友好而严谨的反向传播章节,请参见[2]。
为什么变形金刚风靡全球——以及“关注”的真正含义🧲
Transformer 处理器利用自注意力机制,同时权衡输入信息中各个部分之间的关联性。与老款处理器严格按照从左到右的顺序阅读句子不同,Transformer 处理器可以环顾四周,动态评估信息之间的关系——就像在拥挤的房间里扫描,观察谁在和谁说话一样。
这种设计摒弃了序列建模中的循环和卷积,从而实现了大规模并行处理和出色的可扩展性。启动这项设计的论文—— 《Attention Is All You Need》 ——详细阐述了其架构和结果[3]。
一行代码即可实现自注意力机制:为每个词元构建查询向量、键向量和值向量;计算相似度以获得注意力权重;并据此调整权重。细节繁复,但本质优雅。
注意: Transformer 模型占据主导地位,但并非垄断。CNN、RNN 和树集成模型在某些数据类型和延迟/成本限制下仍然更胜一筹。选择架构时,应根据任务需求而非流行趋势来决定。
人工智能是如何运作的?你将实际使用的流程🛠️
-
问题界定:
你预测或产生什么?如何衡量成功? -
数据
,必要时进行标记、清洗和拆分。可能会出现缺失值和特殊情况。 -
建模
要从简单的入手。基础模型(逻辑回归、梯度提升或小型Transformer模型)通常比复杂的模型更有效。 -
训练过程:
选择一个目标,选择一个优化器,设置超参数。迭代进行。 -
评估方法:
使用留出样本、交叉验证以及与实际目标相关的指标(准确率、F1、AUROC、BLEU、困惑度、延迟)。 -
部署方式:
通过 API 提供服务或嵌入到应用程序中。跟踪延迟、成本和吞吐量。 -
监控与治理:
关注漂移、公平性、稳健性和安全性。NIST AI 风险管理框架(治理、映射、衡量、管理)是一份用于端到端可信系统的实用检查清单[4]。
迷你案例:一个视觉模型在实验室表现优异,但在实际应用中,由于光照变化,性能却出现了问题。监控发现输入直方图出现了漂移;快速进行数据增强和微调后,模型性能恢复正常。枯燥乏味吗?是的。有效吗?也确实有效。
对比表格 - 方法、适用人群、大致成本、有效原因📊
故意不完美:措辞稍有不严谨反而更显人性化。
| 方法 | 理想受众 | 价格适中 | 为什么有效/说明 |
|---|---|---|---|
| 监督式学习 | 分析师、产品团队 | 低至中等 | 直接映射输入→标签。当存在标签时效果很好;构成了许多已部署系统的基础[1]。 |
| 无人监管 | 数据探索者,研发 | 低的 | 发现聚类/压缩/潜在因子——适用于发现和预训练。 |
| 自我监督 | 平台团队 | 中等的 | 利用计算和数据,从原始数据中生成自己的标签。 |
| 强化学习 | 机器人学、运筹学 | 中高 | 从奖励信号中学习策略;阅读 Sutton 和 Barto 的著作以了解其经典之处 [5]。 |
| 变形金刚 | 自然语言处理、视觉、多模态 | 中高 | 自注意力机制能够捕捉长程依赖关系并实现良好的并行化;参见原始论文[3]。 |
| 经典机器学习(树) | 表格型商业应用 | 低的 | 廉价、快速、且往往在结构化数据上表现出惊人强大能力的基线方法。 |
| 基于规则/符号的 | 合规性,确定性 | 非常低 | 透明逻辑;在需要可审计性的混合架构中非常有用。 |
| 评估与风险 | 每个人 | 变化 | 使用 NIST 的 GOVERN-MAP-MEASURE-MANAGE 来确保其安全性和实用性 [4]。 |
价格因素 = 数据标注 + 计算 + 人员 + 服务。
深度解析 1 - 损失函数、梯度以及改变一切的微小步骤 📉
想象一下,你要拟合一条直线来根据房屋面积预测房价。你选择参数 (w) 和 (b),进行预测 (\hat{y} = wx + b),并用均方损失来衡量误差。梯度告诉你应该朝哪个方向调整 (w) 和 (b) 才能最快地降低损失——就像在雾中下坡时凭感觉判断地面的倾斜方向一样。每次处理完一批数据后都进行更新,你的直线就会越来越接近实际情况。
在深度网络中,这就像同一首歌,只不过乐队规模更大。反向传播可以高效地计算每一层的参数如何影响最终误差,因此你可以朝正确的方向调整数百万(或数十亿)个旋钮[2]。
关键直觉:
-
损失塑造了地貌。
-
坡度就是你的指南针。
-
学习速率就像步长——太大你会摇晃,太小你会打瞌睡。
-
正则化可以防止你像鹦鹉一样死记硬背训练集,虽然记忆力完美,但却不理解。
深度解析 2 - 嵌入、提示和检索🧭
嵌入将词语、图像或物品映射到向量空间中,使相似的事物彼此靠近。这使您可以:
-
查找语义相似的段落
-
理解意义的强大搜索
-
引入检索增强生成(RAG)技术,使语言模型能够在编写语言之前查找事实。
提示是引导生成模型的方式——描述任务、给出示例、设定约束条件。可以把它想象成给一个非常积极的实习生写一份非常详细的工作规范:热情高涨,但有时也过于自信。
实用技巧:如果你的模型出现幻觉,请添加检索功能,收紧提示,或使用实际指标而不是“感觉”进行评估。
深度剖析 3 - 不带幻想的评估 🧪
好的评价往往让人觉得枯燥乏味——而这正是关键所在。
-
使用锁定的测试集。
-
选择一个能够反映用户痛点的指标。
-
进行消融试验,这样你才能知道究竟是什么起了作用。
-
用真实、复杂的示例记录失败情况。
在生产环境中,监控是一个永无止境的评估过程。偏差在所难免。新的术语层出不穷,传感器需要重新校准,昨天的模型也会略有偏差。NIST框架是持续风险管理和治理的实用参考,而不是束之高阁的政策文件[4]。
关于伦理、偏见和可靠性的说明⚖️
人工智能系统会反映其数据和部署环境。这会带来风险:偏见、不同群体间误差不均、以及在分布变化下的脆弱性。合乎伦理的使用并非可有可无,而是基本要求。美国国家标准与技术研究院 (NIST) 指出了一些具体做法:记录风险和影响、衡量有害偏见、建立备用方案,并在高风险情况下确保人为因素参与其中 [4]。
切实可行的措施:
-
收集多样化、具有代表性的数据
-
衡量不同亚群体中的表现
-
文件模型卡和数据表
-
在事关重大的情况下,应增加人工监督。
-
当系统存在不确定性时,设计故障安全措施。
人工智能是如何工作的?你可以将其作为一种思维模型来复用🧩
一份适用于几乎所有人工智能系统的简明检查清单:
-
目标是什么?预测、排名、生成还是控制?
-
学习信号来自哪里?标签、自监督任务还是奖励?
-
使用的是哪种架构?线性模型、树集成、卷积神经网络 (CNN)、循环神经网络 (RNN)、Transformer [3]?
-
它是如何优化的?梯度下降法/反向传播法[2]?
-
什么样的数据环境?小规模标记数据集、海量未标记文本,还是模拟环境?
-
故障模式和保障措施是什么?偏差、漂移、幻觉、延迟、成本映射到 NIST 的 GOVER-MAP-MEASURE-MANAGE [4]。
如果你能回答这些问题,你就基本了解了这个系统——剩下的就是实现细节和领域知识了。
值得收藏的快速资源🔖
-
IBM 机器学习概念简明介绍 [1]
-
利用图表和简单的数学方法进行反向传播[2]
-
改变序列建模的Transformer论文[3]
-
NIST 的人工智能风险管理框架(实用治理)[4]
-
经典的强化学习教科书(免费)[5]
常见问题解答闪电问答⚡
人工智能仅仅是统计学吗?
它包含统计学、优化、计算、数据工程和产品设计。统计学是骨架,其他部分才是肌肉。
更大的模型就一定更好吗?
扩展性固然重要,但数据质量、评估和部署限制往往更为关键。能够实现目标的最小模型通常对用户和钱包最为有利。
人工智能能理解吗?
理解的定义是什么?模型能够捕捉数据中的结构并展现出令人印象深刻的泛化能力;但它们也有盲点,而且很可能犯错。应该把它们当作强大的工具,而不是圣人。
变形金刚时代会永远持续
下去吗?可能不会。它现在占据主导地位,是因为注意力可以并行化和很好地扩展,正如最初的论文[3]所示。但研究仍在不断发展。
人工智能是如何运作的?太长了,没看完🧵
-
AI 从数据中学习模式,最小化损失,并推广到新的输入[1,2]。
-
监督学习、无监督学习、自监督学习和强化学习是主要的训练设置;强化学习从奖励中学习[5]。
-
神经网络利用反向传播和梯度下降来有效地调整数百万个参数[2]。
-
Transformer 在许多序列任务中占据主导地位,因为自注意力机制可以大规模地并行捕获关系 [3]。
-
现实世界的 AI 是一个流程——从问题框架到部署和治理——而 NIST 的框架让你对风险保持诚实 [4]。
如果有人再问“人工智能是如何工作的?” ,你可以微笑着啜饮咖啡,然后说:它从数据中学习,优化损失函数,并根据问题使用诸如Transformer或树集成之类的架构。然后眨眨眼,因为这既简单又巧妙地完整了。😉
参考
[1] IBM -什么是机器学习?
阅读更多
[2] Michael Nielsen -反向传播算法的工作原理
阅读更多
[3] Vaswani 等人 - Attention Is All You Need (arXiv)
阅读更多
[4] NIST -人工智能风险管理框架 (AI RMF 1.0)
阅读更多
[5] Sutton & Barto -强化学习:导论(第二版)
阅读更多