⚖️ Anthropic公司提起诉讼,试图阻止五角大楼因人工智能使用限制而将其列入黑名单。 ↗
Anthropic公司在被贴上供应链风险标签后,已将与五角大楼的争端诉诸法庭。该公司称,此举是对其拒绝放松对自主武器和国内监控的限制而进行的非法报复——这使得这场争端成为目前人工智能政策领域最具争议的焦点之一。(路透社)
政府希望人工智能技术能够“在任何合法用途”下保持灵活性,而人智公司则认为,应该允许私人实验室划定严格的安全界限。这已成为迄今为止对人工智能公司能否在不被强行压制的情况下拒绝军方条款的最明确考验之一。(路透社)
🧑💻 OpenAI 和谷歌的员工都支持 Anthropic 对五角大楼提起的诉讼。 ↗
这场诉讼很快也得到了竞争对手实验室内部的支持。近40名来自OpenAI和谷歌的员工在一份法庭之友意见书中支持Anthropic,他们认为,因人工智能安全底线而对公司进行报复有损公共利益。( The Verge )
所以,没错,竞争对手们突然发现自己站到了同一阵线——至少在这一点上是这样。简报重点关注大规模监控和不可靠的自主武器,这使得整件事与其说是硅谷常见的互相攻击,不如说是行业内真正的分水岭……或者说是泥潭。( The Verge )
🛡️ OpenAI 收购 Promptfoo 以保障其人工智能代理的安全 ↗
OpenAI宣布将收购Promptfoo,这是一家专注于保护大型语言模型免受对抗性攻击的初创公司。OpenAI计划将Promptfoo的技术整合到其面向人工智能代理的企业级平台OpenAI Frontier中。( TechCrunch )
这是一个意味深长的举动。每个人都希望智能体人工智能能够做得更多、更快、更全面——但安全方面却一直落后,无论差距大小。这项交易表明,OpenAI 认为下一场重大竞赛不仅在于更智能的智能体,还在于更安全的智能体。( TechCrunch )
🧪 Anthropic推出代码审查工具,以检查大量人工智能生成的代码。 ↗
Anthropic 在 Claude Code 中推出了代码审查功能,旨在帮助团队应对 AI 编码工具生成的海量 pull request。它使用多个代理并行扫描代码,标记逻辑问题,评估严重程度,并直接在 GitHub 上留下评论。( TechCrunch )
其理念很简单——人工智能生成代码的速度远超人类进行有效审查的能力,因此现在人工智能必须审查自身代码。这有点像蛇吞尾,但却很实用。Anthropic 表示,该产品面向已经从 Claude Code 获得大量代码输出的企业用户。( TechCrunch )
💰 英伟达支持的 Nscale 在新一轮融资中估值达 146 亿美元 ↗
英国人工智能基础设施公司Nscale在C轮融资中筹集了20亿美元,估值达到146亿美元。投资者包括Aker、8090 Industries、英伟达、Citadel、戴尔和Jane Street——这无疑是对该公司投下的相当有力的信任票。(路透社)
这件事之所以重要,是因为它并非又一次新机型发布或聊天机器人小幅调整。它触及了繁荣背后的实际操作层面——计算能力、基础设施、产能,以及所有幕后的重型机械。或许并不光鲜亮丽,但大量资金正涌向这里。(路透社)
🧠 Yann LeCun 的 AMI Labs 筹集了 10.3 亿美元,用于打造世界级模型 ↗
Yann LeCun 的新公司 AMI Labs 融资 10.3 亿美元,投前估值达 35 亿美元。该公司致力于开发“世界模型”——旨在从现实本身而非主要从语言中学习的人工智能系统。( TechCrunch )
这直接挑战了当前以语言模型为主导的共识,而且措辞相当直白。勒昆多年来一直认为,如今的语言模型无法让我们达到人类智能水平,因此,此次加薪将这一论点变成了一项代价高昂的实验。( TechCrunch )
🇨🇳 尽管存在安全隐患,中国科技中心仍在推广OpenClaw人工智能代理。 ↗
尽管存在因获取个人数据而引发的安全隐患,但中国多个地方政府仍在支持人工智能助手OpenClaw的快速传播。因此,官方的态度似乎是:是的,存在风险——但即便如此,我们也要扩大其规模。(路透社)
这种分歧正是问题的关键所在。本地中心希望获得经济效益和生态系统发展势头,而监管机构则警告数据泄露的风险。这似乎已成为人工智能领域常见的模式——先冲刺,后完善保障措施。(路透社)
常问问题
Anthropic公司为何就人工智能使用限制问题起诉五角大楼?
Anthropic公司称,五角大楼在该公司拒绝接受可能涵盖自主武器和国内监控的更广泛条款后,将其列为供应链风险。这使得这场诉讼的意义远不止于供应商身份的认定。它正在检验一家人工智能实验室能否在严格遵守安全限制的前提下,继续参与政府项目的竞争而不受到惩罚。.
为什么 OpenAI 和 Google 的员工会在这次人工智能安全纠纷中支持 Anthropico?
这份法庭之友意见陈述表明,许多竞争对手实验室的人士认为,这不仅仅是一家公司与一个机构之间的争端,而是一个具有里程碑意义的人工智能安全问题。他们担心,惩罚一家供应商坚持底线可能会迫使整个市场削弱安全保障措施。实际上,这可能会影响未来国防和公共部门人工智能合同的谈判方式。.
人类学与五角大楼的这起案件可能会对人工智能政策和国防合同产生哪些影响?
如果 Anthropic 胜诉,人工智能公司或许能更有力地界定哪些用途属于不可接受的范畴,即便是在向敏感的政府机构销售产品时也是如此。如果 Anthropic 败诉,政府机构则可能获得更大的筹码,要求供应商提供更广泛的“合法用途”条款。无论结果如何,这场纠纷都可能影响采购条款、风险评估以及国防交易中安全保障措施的制定方式。.
OpenAI为何收购Promptfoo用于人工智能代理?
Promptfoo 以测试大型语言模型对抗对抗性提示和其他安全漏洞而闻名。将这类工具整合到 OpenAI 的企业代理平台中,表明该公司将更安全的部署视为一项竞争优势,而非一项附属任务。随着人工智能代理承担更多实质性工作,其弹性和滥用测试变得越来越不容忽视。.
团队如何更安全地处理大量人工智能生成的代码?
Anthropic 在 Claude Code 中推出的全新代码审查功能旨在帮助团队应对 AI 编码工具生成的海量 pull request。它利用多个智能体并行运行,识别逻辑问题,评估其严重程度,并在 GitHub 上留下评论。通常,这类工具可以帮助处理大量 pull request,但人工审查对于架构、上下文和最终审批仍然至关重要。.
为什么人工智能基础设施现在会获得如此多的投资?
Nscale 的最新一轮融资凸显出人工智能行业仍在向计算、基础设施和容量方面投入巨资。这些支出或许不如引人注目的模型发布那样显眼,但却是其他一切的基础。当训练和部署的需求持续增长时,那些提供计算工具和基础设施的公司往往会成为最大的赢家之一。.
什么是世界模型?为什么 Yann LeCun 看好世界模型?
世界模型是一种人工智能系统,它旨在从世界运行规律中学习,而不是主要依赖语言数据。这一点至关重要,因为 Yann LeCun 长期以来一直认为,语言模型本身不太可能达到人类智能水平。AMI Labs 将这一观点转化为一项重大的商业投资,押注于一条通往先进人工智能研究新路径的道路。.
尽管存在安全警告,中国科技中心为何仍支持 OpenClaw?
OpenClaw 的案例揭示了快速发展的科技市场中常见的权力斗争:地方政府希望获得增长、补贴和生态系统发展动力,而监管机构则担忧数据泄露和安全问题。尽管面临警告,地方政府仍然支持 OpenClaw,这表明在某些地区,经济利益占据了主导地位。对于观察人士而言,这再次提醒我们,技术采纳的速度往往快于监管的速度。.