🤖 OpenAI硬件负责人因与五角大楼达成协议而辞职 ↗
OpenAI硬件和机器人负责人凯特琳·卡利诺夫斯基在公司与五角大楼达成协议后辞职,她表示,在模型获准用于机密国防网络之前,公司内部并未对此进行充分讨论。她最主要的担忧非常直接——人为监督、监控边界以及致命自主技术发展过快的风险。(路透社)
OpenAI表示,该协议包含额外的保障措施,并且仍然禁止在国内进行监控和使用自主武器。然而,此次辞职让整个事件看起来不像是一次顺利的政策更新,而更像是会议进行到一半时,一扇防火门突然关上。(路透社)
🏗️ 据彭博社报道,甲骨文和OpenAI放弃了在德克萨斯州扩建数据中心的计划。 ↗
据报道,由于融资谈判陷入僵局且OpenAI的计算需求发生变化,甲骨文和OpenAI已取消扩建其位于德克萨斯州阿比林的大型人工智能数据中心的计划。该数据中心是更广泛的“星门”(Stargate)基础设施建设项目的一部分,因此这绝非小事。(路透社)
现有园区仍在运营,相关公司表示,规模更大的多吉瓦级基础设施建设项目仍在其他地方继续进行。与此同时,此前搁置的扩建项目或许会为Meta公司带来机会,据报道,该公司已就租赁该地块进行过洽谈。人工智能基础设施的建设就像湿水泥一样,一直在不断变化——沉重、昂贵,而且永远无法完全稳定下来。(路透社)
⚖️ 五角大楼将Anthropic列为供应链风险。 ↗
五角大楼正式将安特罗皮克公司列为供应链风险企业,并限制其研发的“克劳德”无人机在国防部合同中的使用,原因是该公司拒绝放松对自主武器和大规模监控的安全保障措施。这就是事件的核心——一场采购之争演变成一场影响深远的价值观之争。(路透社)
人类研究所表示,此举在法律上站不住脚,并计划提起诉讼。对于一家美国人工智能实验室而言,这一认定异常严厉,也凸显了关于前沿科技公司是否应该在国防合同中写入更严格的规则,还是应该相信现有法律能够发挥作用的更广泛分歧……而并非所有人都愿意这样做。(路透社)
💬 Meta允许在WhatsApp上推出人工智能竞争对手,以期避免欧盟采取行动。 ↗
在欧盟反垄断监管机构的压力下,Meta公司表示将允许竞争对手的AI聊天机器人通过其商业API在欧洲的WhatsApp平台上线一年。此前,竞争对手抱怨Meta公司实际上阻碍了他们的发展,却偏袒自己的助手——考虑到分发在人工智能领域的重要性,这一点尤为关键。(路透社)
但问题在于,这种准入需要付费,批评人士认为这仍然使规模较小的竞争对手处于劣势。监管机构正在决定这项让步是否足够,因此这与其说是一项和平协议,不如说是一个包裹在文书中的暂停键。(路透社)
📜 xAI 阻止加州人工智能数据披露法案的努力失败 ↗
xAI试图阻止加州一项法律生效,该法律要求人工智能公司披露更多关于用于训练模型的数据信息,但最终失败。法院拒绝阻止该法律生效,这意味着xAI现在面临着与其他模型构建者一直以来试图规避的透明度压力,而这些规避方式有时显得笨拙。(路透社)
这至关重要,因为训练数据之争不再仅仅是学术探讨或版权相关问题,而是正在成为一个实际存在的合规问题。对于已经因 Grok 而屡遭安全争议的 xAI 公司而言,这无疑又为其增添了一项监管方面的压力。(路透社)
常问问题
为什么 OpenAI 的硬件和机器人负责人会在五角大楼交易后辞职?
凯特琳·卡利诺夫斯基辞职是因为她认为批准用于机密防御网络的模型这一决定没有经过充分的内部讨论。她主要担忧的是人为监督、监控限制以及致命自主武器发展过快的风险。OpenAI表示,该协议仍然禁止国内监控和使用自主武器,但卡利诺夫斯基的辞职表明,内部辩论尚未完全解决。.
五角大楼将Anthropic公司列为供应链风险,这究竟意味着什么?
这意味着克劳德将被限制用于国防部合同,这对采购而言是一次重大挫折。文章指出,争议的焦点在于安特罗皮克公司拒绝削弱与自主武器和大规模监控相关的安全措施。安特罗皮克公司认为这一认定缺乏法律依据,并计划提起诉讼,因此这可能演变成一场法庭之争和一次政策考验。.
为什么取消德克萨斯州数据中心扩建计划会对人工智能行业新闻产生影响?
阿比林扩建项目的搁浅之所以重要,是因为它是更广泛的“星门”基础设施建设计划的一部分,与长期的人工智能计算规划息息相关。路透社报道称,现有园区仍在运营,但融资延迟和不断变化的计算需求导致甲骨文和OpenAI放弃了扩建计划。这也表明,即使其他地区的整体建设仍在继续,大型人工智能基础设施项目也可能迅速发生变化。.
为什么 Meta 允许竞争对手的 AI 聊天机器人进入欧洲的 WhatsApp 平台?
在欧盟反垄断监管机构的压力以及外界对其偏袒自家助手、限制竞争对手的投诉下,Meta 采取了这一举措。此次访问权限是临时性的,并且通过企业 API 实现,因此并不等同于完全开放的政策。用户仍需支付费用,这意味着即使在做出让步之后,规模较小的竞争对手仍可能面临实际的劣势。.
加州的人工智能训练数据披露法对 xAI 意味着什么?
法院拒绝阻止该法律生效,意味着xAI现在必须应对围绕训练数据新增的透明度要求。这一点至关重要,因为模型开发者通常会试图避免详细披露信息,尤其是在数据来源敏感或存在争议的情况下。实际上,训练数据正逐渐成为一个需要积极遵守的法律问题,而不再仅仅是关于研究规范或版权风险的争论。.
本周人工智能行业新闻最重要的信息是什么?
共同点在于,人工智能的发展不再仅仅受产品发布的影响,而是更多地受到治理、基础设施和监管的制约。国防合作引发了内部冲突,计算能力的扩展成本高昂且变化莫测,监管机构也对信息获取和披露施加了更大的压力。文章指出,OpenAI、Anthropic、Meta 和 xAI 等公司都面临着这样的困境:整个行业被迫更加公开地展示其权衡取舍。.