大型科技公司在人工智能领域扮演什么角色?

大型科技公司在人工智能领域扮演什么角色?

简而言之:大型科技公司在人工智能领域至关重要,因为它们掌控着那些看似不起眼的基础要素——计算能力、云平台、设备、应用商店和企业工具。这种掌控力使它们能够为前沿模型提供资金支持,并迅速将功能推送给数十亿用户。如果治理、隐私控制和互操作性薄弱,同样的杠杆作用就会转化为垄断和权力集中。

要点总结:

基础设施:将云、芯片和 MLOps 的控制视为人工智能的主要瓶颈。.

发行方式:预计平台更新将重新定义“人工智能”对大多数用户的意义。

把关:应用商店规则和 API 条款悄然决定哪些 AI 功能可以发布。

用户控制:要求提供清晰的退出选项、持久的设置以及有效的管理员控制。

问责制:要求建立审计日志、提高透明度,并为有害后果设立申诉途径。

大型科技公司在人工智能领域扮演什么角色?信息图

🔗 人工智能的未来:趋势与展望
未来十年将出现哪些关键创新、风险和行业格局的改变?.

🔗 生成式人工智能中的基础模型:简明指南
了解基础模型如何为现代生成式人工智能应用提供支持。.

🔗 什么是人工智能公司?它是如何运作的?
了解定义人工智能优先型企业的特征、团队和产品。.

🔗 实际项目中的人工智能代码是什么样的
查看人工智能驱动的代码模式、工具和工作流程示例。.

让我们坦诚一点——大多数关于“人工智能”的讨论都避而不谈那些不那么光鲜亮丽的部分,比如计算、分发、采购、合规,以及GPU和电力都需要付费这个令人尴尬的现实。大型科技公司就扎根于这些不起眼的领域。而这恰恰是它们如此重要的原因。😅(国际能源署 - 能源与人工智能英伟达 - 人工智能推理平台概述


用通俗易懂的方式解读大型科技公司在人工智能领域的角色🧩

人们常说的“大型科技公司”通常指的是控制现代计算主要层面的巨型平台公司:

所以他们的角色不仅仅是“制造人工智能”。更像是他们修建高速公路、销售汽车、运营收费站,甚至还决定出口在哪里。这有点夸张……但也没夸张多少。.


大型科技公司在人工智能领域扮演的角色:五大关键岗位🏗️

如果要建立一个清晰的思维模型,大型科技公司在人工智能领域往往承担着五项重叠的工作:

  1. 基础设施提供商:
    数据中心、云计算、网络、安全、MLOps 工具。这些要素使大规模人工智能成为可能。(亚马逊 SageMaker AI 文档国际能源署 - 能源与人工智能

  2. 模型构建者和研究引擎:
    并非总是如此,但通常是实验室、内部研发、应用研究和“产品化科学”。(神经语言模型的缩放定律(arXiv)训练计算最优的大型语言模型(Chinchilla)(arXiv)

  3. 分销商
    可以将人工智能推送到搜索引擎、手机、电子邮件客户端、广告系统和办公工具中。分销是一种超能力。

  4. 把关人和规则制定者:
    应用商店政策、平台规则、API条款、内容审核、安全关卡、企业控制。(苹果应用审核指南谷歌应用商店数据安全

  5. 资本配置者
    :他们提供资金、收购、合作、孵化。他们塑造着企业的生存。

从功能角度来说,这就是大型科技公司在人工智能领域的作用:它们创造了人工智能存在的条件——然后决定人工智能如何到达你身边。.


大型科技公司在人工智能领域扮演怎样的角色才算好呢?✅😬

大型科技公司在人工智能领域的“良好版本”并非追求完美,而是要负责任地权衡利弊,减少对其他各方造成的意外风险。.

以下是区分“乐于助人的巨头”和“糟糕,垄断”氛围的关键所在:

  • 透明公开,避免使用晦涩难懂的术语
    。清晰标注人工智能的功能、局限性以及所使用的数据。而非长达40页的复杂政策文件。( NIST AI RMF 1.0ISO/IEC 42001:2023

  • 真正的用户控制:
    有效的退出机制、不会莫名其妙重置的隐私设置,以及无需费力查找的管理员控制功能。( GDPR - 欧盟法规 (EU) 2016/679

  • 互操作性和开放性——有时
    并非所有东西都必须开源,但将所有人永远锁定在一个供应商身上是一种……选择。

  • 安全措施切实有效:
    滥用监控、红队演练、内容控制,以及毫不犹豫地阻止明显存在风险的使用案例。( NIST AI RMF 1.0NIST GenAI 规范(AI RMF 配套规范)

  • 健康的生态系统
    :支持初创企业、合作伙伴、研究人员和开放标准,使创新不会沦为“租用平台或消失”。(经合组织人工智能原则

我就直说了吧:“好的版本”感觉就像一个可靠的公共事业,产品品味一流。“坏的版本”感觉就像一个赌场,庄家甚至连规则都制定。🎰


对比表格:顶尖科技公司“人工智能路线”及其成功原因📊

工具(通道) 观众 价格 为什么有效
云端人工智能平台 企业、初创公司 基于使用情况的 易于扩展,一张发票,选项很多(选项太多了)
前沿模型 API 开发人员、产品团队 按代币付费/分级付费 集成速度快,基础质量好,感觉像作弊一样😅
设备嵌入式人工智能 消费者、产消者 捆绑式 低延迟,有时注重隐私,基本可以离线使用。
生产力套件 AI 办公室团队 按座位附加费 生活在日常工作流程中——文档、邮件、会议,所有的一切。
广告 + 定向人工智能 营销人员 支出百分比 大数据 + 分发 = 高效,但也有点诡异 👀
安全与合规人工智能 受监管行业 优质的 兜售“安心感”——即便只是减少了警报数量。
人工智能芯片 + 加速器 上游所有人 资本支出密集型 如果你拥有铁锹,你就赢得了淘金热(比喻虽然笨拙,但仍然适用)。
开放型生态系统策略 建筑商、研究人员 免费+付费套餐 社区动力、更快的迭代、有时略显混乱的乐趣

坦白一下这个小小的表格小窍门:“差不多免费”在这里起了很多作用。免费到……你懂的。.


特写镜头:基础设施瓶颈(计算、云计算、芯片)🧱⚙️

这是大多数人都不愿谈及的部分,因为它并不光鲜亮丽。但它却是人工智能的脊梁。.

大型科技公司通过控制以下方面影响人工智能:

如果你曾经尝试在真正的公司里部署过人工智能系统,你肯定知道“模型”本身其实很简单。难点在于:权限管理、日志记录、数据访问、成本控制、正常运行时间、事件响应……这些才是真正棘手的问题。😵💫

因为大型科技公司掌握着如此多的资源,它们可以设定默认模式:

  • 哪些工具会成为标准工具

  • 哪些框架能获得一流的支持

  • 优先使用哪些硬件?

  • 哪些定价模式会成为“常态”?

那本身并不一定是邪恶的,但它代表着权力。.


近距离观察:模型研究与产品实际情况对比 🧪➡️🛠️

矛盾之处在于:大型科技公司既有能力投入巨资进行深度研究,也需要每季度推出成功的产品。这种组合既能带来惊人的突破,也会导致……一些质量堪忧的功能发布。.

大型科技公司通常通过以下方式推动人工智能的发展:

但产品压力改变了一切:

  • 速度胜过优雅

  • 运输胜于解释

  • “足够好”胜过“完全理解”。

有时候这样做没问题。大多数用户并不需要理论上的完美,他们需要的只是工作流程中的一个得力助手。但风险在于,“足够好”的标准会被应用到一些敏感领域(医疗、招聘、金融、教育),而“足够好”在这些领域……远远不够。(欧盟人工智能法案 - (EU) 2024/1689 号条例

这就是大型科技公司在人工智能领域扮演的角色之一——即使技术边缘仍然很锋利,也要将尖端技术转化为大众市场功能。🔪


近距离观察:分销才是真正的超级大力量🚀📣

如果你能将人工智能融入人们已经生活的数字空间,你就不需要“说服”用户,你自然而然就会成为默认选项。.

大型科技公司的分销渠道包括:

这就是为什么规模较小的AI公司即使心存疑虑,也常常会与大型科技公司合作。分销就像氧气一样重要。没有分销,即使你拥有世界上最好的模型,也如同对着空气呐喊。.

还有一个微妙的副作用:分发渠道甚至会影响公众对“人工智能”的理解。如果人工智能主要以写作辅助工具的形式出现,人们就会认为人工智能就是用来写作的。如果它以照片编辑的形式出现,人们就会认为人工智能就是用来处理图像的。平台决定了人工智能给人的感觉。.


近距离观察:数据、隐私与信任交易🔐🧠

人工智能系统在个性化定制后往往更加有效。个性化定制通常需要数据。而数据又会带来风险。这种三角关系始终存在。.

大型科技公司占据:

  • 消费者行为数据(搜索、点击、偏好)

  • 企业数据(电子邮件、文档、聊天记录、工单、工作流程)

  • 平台数据(应用、支付、身份信号)

  • 设备数据(位置、传感器、照片、语音输入)

即使不直接使用“原始数据”,周围的生态系统也会影响培训、微调、评估和产品方向。.

信任交易通常是这样的:

  • 用户接受数据收集是因为产品很方便🧃

  • 当情况变得令人不安时,监管机构会予以反击👀( GDPR - (EU) 2016/679 号条例

  • 企业通过管控措施、政策和“隐私优先”的信息传递来应对。

  • 每个人都在争论“隐私”的含义。

我观察到一个行之有效的经验法则:如果一家公司能够用一次对话就解释清楚他们的AI数据实践,而不是躲在法律术语背后,那么他们通常做得比平均水平要好。并非完美——只是更好一些。.


近距离观察:治理、安全与潜移默化的影响力博弈🧯📜

这是不太为人所知的角色:大型科技公司常常帮助制定其他人都遵循的规则。.

它们通过以下方式影响治理:

有时候,这确实很有帮助。大型科技公司能够投资于小型公司无力承担的安全团队、信任工具、滥用检测和合规基础设施。.

有时,这种做法出于自身利益。安全措施可能成为一道护城河,只有规模最大的企业才能“负担得起”合规成本。这就是悖论:安全固然必要,但昂贵的安全措施却可能意外地扼杀竞争。(欧盟人工智能法案 - (EU) 2024/1689 号条例

这就是细微差别发挥作用的地方。而且不是那种有趣的差别——是那种令人恼火的差别。😬


近距离观察:竞争、开放生态系统和创业引力🧲🌱

大型科技公司在人工智能领域的作用还包括塑造市场格局:

  • 收购(人才、技术、分销)

  • 合作伙伴关系(云端托管模型、企业联合交易)

  • 生态系统资金(信贷、孵化器、市场)

  • 开源工具(框架、库、“准开源”版本)

我观察到一种反复出现的模式:

  1. 初创公司创新速度很快

  2. 大型科技公司整合或复制成功的模式

  3. 初创公司要么转型进入细分市场,要么成为收购目标

  4. “平台层”增厚

这并非全然是坏事。平台可以减少摩擦,让人工智能更容易被使用。但它也可能降低多样性。如果每个产品都变成“对少数几个API的简单封装”,那么创新就如同在同一套公寓里重新摆放家具一样,毫无新意。.

一点点不拘泥于形式的竞争是有益的。就像酵母发酵一样。如果你把所有东西都消毒,它就停止发酵了。这个比喻可能不太贴切,但我还是坚持用它。🍞


既兴奋又谨慎地生活着😄😟

这两种感觉都适用。兴奋和谨慎可以同时存在。.

令人兴奋的理由:

  • 更快地部署实用工具

  • 更好的基础设施和可靠性

  • 降低企业采用人工智能的门槛

  • 加大安全投资和标准化力度( NIST AI RMF 1.0OECD AI 原则

需要谨慎的理由:

一个现实的观点是:大型科技公司既可以加速人工智能在全球的发展,同时也会加剧权力集中。这两件事可以同时成立。人们不喜欢这个答案,因为它缺乏吸引力,但它却符合事实。.


为不同读者提供的实用建议🎯

如果您是企业买家🧾

如果你是一名开发者🧑💻

  • 构建时要考虑到可移植性(抽象层有所帮助)。

  • 不要把所有希望都寄托在某个可能消失的供应商功能上。

  • 像对待工作一样跟踪费率限制、价格变化和政策更新(因为这是你的工作职责)( Apple App 审核指南Google Play 数据安全

如果您是政策制定者或合规负责人🏛️

如果你是常用用户🙋

  • 了解 AI 功能在您的应用中的位置

  • 即使隐私控制功能令人烦恼,也请使用它们( GDPR - 条例 (EU) 2016/679 )。

  • 对“神奇”的结果要持怀疑态度——人工智能自信,但并非总是正确😵


总结:大型科技公司在人工智能领域扮演的角色🧠✨

大型科技公司在人工智能领域扮演的角色并非单一,而是多种角色的集合:基础设施所有者、模型构建者、分发者、把关人和市场塑造者。它们不仅参与人工智能,更定义了人工智能发展的格局。.

如果你只能记住一句话,那就记住这句话:

大型科技公司在人工智能领域扮演的角色:
它们正在搭建基础设施、设定默认设置,并大规模地引导人工智能如何惠及人类,从而产生巨大的影响。( NIST AI RMF 1.0欧盟人工智能法案 - (EU) 2024/1689 号条例

没错,“后果”听起来很夸张。但人工智能就是那种“夸张”有时反而很贴切的话题。😬🤖


常问问题

从实际角度来看,大型科技公司在人工智能领域扮演着怎样的角色?

大型科技公司在人工智能领域扮演的角色与其说是“构建模型”,不如说是“运营让人工智能大规模运行的机制”。它们提供云基础设施,通过设备和应用程序部署人工智能,并制定平台规则来影响人工智能的构建方式。它们还资助研究、合作和收购,从而影响哪些方法能够生存下来。在许多市场,它们实际上定义了默认的人工智能体验。.

为什么计算资源对那些能够大规模构建人工智能的人来说如此重要?

现代人工智能依赖于大型GPU集群、高速网络、存储和可靠的MLOps流水线,而不仅仅是巧妙的算法。如果无法获得可预测的容量,训练、评估和部署就会变得脆弱且成本高昂。大型科技公司通常控制着“脊梁”层(云、芯片合作、调度、安全),这决定了小型团队的可行性。这种权力固然有利,但它终究是权力。.

大型科技公司的分销渠道如何影响“人工智能”对普通用户的意义?

分发渠道之所以如此强大,是因为它能将人工智能变成默认功能,而不是需要单独选择的产品。当人工智能出现在搜索栏、手机、电子邮件、文档、会议和应用商店中时,对大多数人来说,它就成了“人工智能的代名词”。这也缩小了公众的预期:如果人工智能在你的应用中主要是一个写作工具,用户就会认为人工智能就等同于写作。平台在悄然地决定着人工智能的基调。.

平台规则和应用商店作为人工智能守门人的主要方式有哪些?

应用审核政策、市场条款、内容规则和 API 限制决定了哪些 AI 功能被允许使用以及它们的运行方式。即使规则被包装成安全或隐私保护措施,它们也会通过提高合规和实施成本来影响竞争格局。对于开发者而言,这意味着政策更新与模型更新同等重要。实际上,“最终上线的内容”往往取决于“最终通过审核的内容”。

SageMaker、Azure ML 和 Vertex AI 等云 AI 平台在大型科技公司在 AI 领域中扮演的角色是什么?

云端人工智能平台将训练、部署、监控、治理和安全整合到一个平台,从而降低了初创企业和大型企业的运营阻力。Amazon SageMaker、Azure 机器学习和 Vertex AI 等工具让企业能够通过单一供应商关系轻松扩展规模并控制成本。但这种便利也可能导致供应商锁定,因为工作流程、权限和监控都深度集成在该生态系统中。.

企业买家在采用大型科技公司的人工智能工具之前应该问哪些问题?

首先要关注数据:数据的存储位置、隔离方式以及现有的数据保留和审计控制措施。询问管理控制、日志记录、访问边界以及如何评估模型在您所在领域的风险。此外,还要对定价进行压力测试,因为随着采用率的提高,基于使用量的成本可能会飙升。在受监管的环境中,要确保预期与贵组织已使用的框架和合规性要求保持一致。.

开发者在使用大型科技公司人工智能 API 进行开发时,如何避免被供应商锁定?

一种常见的做法是设计时考虑可移植性:将模型调用封装在抽象层之后,并对提示、策略和评估逻辑进行版本控制和可测试。避免依赖可能变更或消失的某个“特殊”供应商功能。将速率限制、价格更新和策略变更作为持续维护的一部分进行跟踪。可移植性并非免费,但通常比强制迁移成本更低。.

隐私和个性化如何与人工智能功能建立“信任契约”?

个性化通常能提升人工智能的实用性,但同时也会增加数据泄露风险,并引发人们对数据隐私的担忧。大型科技公司掌握着行为数据、企业数据、平台数据和设备数据,因此用户和监管机构会密切关注这些数据如何影响人工智能的训练、优化和产品决策。一个切实可行的衡量标准是,一家公司能否清晰地解释其人工智能数据实践,而不是躲在法律条文背后。良好的数据控制和真正的退出机制至关重要。.

哪些标准和法规与大型科技公司的人工智能治理和安全最为相关?

在许多管道系统中,治理融合了内部安全策略与外部框架和法律。组织通常会参考风险管理指南(例如 NIST 的 AI RMF)、管理标准(例如 ISO/IEC 42001)以及区域性法规(例如 GDPR 和欧盟 AI 法案)来应对特定用例。这些因素会影响日志记录、审计、数据边界以及哪些数据会被阻止或允许访问。挑战在于,合规成本可能很高,这可能会使规模较大的企业受益。.

大型科技公司对竞争和生态系统的影响总是坏事吗?

并非总是如此。平台可以降低门槛、标准化工具,并为小型团队无力承担的安全和基础设施提供资金。但如果所有人都只是围绕少数几个主流API、云平台和市场进行简单的封装,同样的动态也会降低多样性。要警惕计算和分发资源的整合,以及难以摆脱的定价和政策变化等模式。最健康的生态系统通常会为互操作性和新进入者留出空间。.

参考

  1. 国际能源署-能源与人工智能- iea.org

  2. 国际能源署-人工智能带来的能源需求- iea.org

  3. NVIDIA - AI推理平台概述- nvidia.com

  4. 亚马逊网络服务- Amazon SageMaker AI 文档(什么是 SageMaker?) - aws.amazon.com

  5. 微软Azure机器学习文档- learn.microsoft.com

  6. Google Cloud - Vertex AI 文档- cloud.google.com

  7. Google Cloud - Vertex AI 上的 MLOps - cloud.google.com

  8. 微软-机器学习运维 (MLOps) v2 架构指南- learn.microsoft.com

  9. 苹果开发者- Core ML - developer.apple.com

  10. Google Developers - ML Kit - developers.google.com

  11. 苹果开发者-应用审核指南- developer.apple.com

  12. Google Play 管理中心帮助-数据安全- support.google.com

  13. arXiv -神经语言模型的尺度律- arxiv.org

  14. arXiv -训练计算最优的大型语言模型(Chinchilla) - arxiv.org

  15. 美国国家标准与技术研究院-人工智能风险管理框架(AI RMF 1.0) - nist.gov

  16. 美国国家标准与技术研究院- NIST 生成式人工智能规范(AI RMF 配套规范) - nist.gov

  17. 国际标准化组织- ISO/IEC 42001:2023 - iso.org

  18. EUR-Lex -欧盟第2016/679号条例(通用数据保护条例,简称GDPR) - eur-lex.europa.eu

  19. EUR-Lex -法规 (EU) 2024/1689(欧盟人工智能法案) - eur-lex.europa.eu

  20. 经合组织-经合组织人工智能原则- oecd.ai

在官方人工智能助手商店查找最新人工智能产品

关于我们

返回博客