人工智能新闻 2026年3月4日

人工智能新闻综述:2026年3月4日

🏛️ 政府将建立新的实验室,以确保英国在人工智能突破方面保持领先地位。

英国正在筹建一个政府支持的基础人工智能研究实验室,并将其定位为“蓝天”研究——这类研究风险高、进展缓慢,但有时却能带来惊人的回报,让其他人相形见绌。( GOV.UK

重点不仅仅是“更大的模型,更多的GPU”,而是要解决诸如幻觉、记忆短暂和推理不可预测等长期存在的缺陷,并通过人工智能研究资源为研究人员提供强大的计算能力。这听起来非常合理……而且,悄悄地,这似乎也是为了防止英国最优秀的人才被其他地方迅速吸走。( GOV.UK

🧨 英伟达CEO暗示将终止对OpenAI和Anthropico的投资

黄仁勋暗示,英伟达可能不会再像以前那样投资前沿人工智能实验室——IPO的运作机制(以及正在讨论的巨额资金)使得这种融资方式更难实现。(路透社

这是一个值得注意的语气转变:英伟达一直是这波矿业繁荣的领军企业,但它却暗示“持有矿业公司的股份”不再是长久之计。或许这只是CEO们惯用的伎俩,就像呼吸一样自然。(路透社

🧩 独家报道:大型科技集团支持Anthropologie与五角大楼的斗争,投资者力促缓和人工智能安全保障方面的冲突

人为因素公司与五角大楼的僵局正演变成一场彻底的危机——据报道,投资者希望缓和局势,而该公司则试图在保障条款(尤其是在监控方面)上坚持己见。(路透社

这篇报道的潜台词几乎比正文更引人注目:在人工智能时代,合同措辞并非“法律上的吹毛求疵”,它本质上就是产品政策——它决定着一个模型最终会成为工具、武器,还是一个庞大的隐患。(路透社

🪖 山姆·奥特曼承认,OpenAI无法控制五角大楼对人工智能的使用。

据报道,奥特曼告诉员工,OpenAI无法控制五角大楼在部署其人工智能系统后如何使用该系统——这番话可谓一针见血,因为它恰恰道出了人们一直以来的担忧。( 《卫报》)

更广泛的背景是“我们会提供帮助,但要有规则”和“我们会提供帮助,就这么简单”之间日益加剧的摩擦,以及当军方采纳的方案显得仓促或投机取巧时,内部和公众的强烈反对。这里的伦理问题与其说是一条清晰的界限,不如说是一滩湿油漆——每个人都踩进去,然后争论是谁踩的。( 《卫报》)

🧬 桑格研究所和谷歌DeepMind联合推出基因组学人工智能新研究员项目

韦尔科姆桑格研究所即将启动一项由DeepMind资助的学术奖学金项目,专注于将人工智能应用于基因组学——这是DeepMind在该领域设立的首个此类研究员职位。( sanger.ac.uk )

有趣(坦白说,也让人耳目一新)的是,它强调了人工智能尚未普及的、尚未被充分探索的基因组学问题——此外,它还明确指出DeepMind并不指导研究员的研究。这就像给某人一枚火箭,然后说“去发现点什么”,而不是“去优化我们的路线图”。( sanger.ac.uk

常问问题

英国政府支持的基础人工智能研究实验室是什么?它将做什么?

政府支持的基础人工智能研究实验室被定位为一项“蓝天”研究项目——高风险、可能需要时间才能见效。它并非仅仅专注于扩展规模越来越大的模型,而是致力于解决诸如幻觉、短记忆和不可预测推理等长期存在的问题。其核心理念是,突破源于基础研究,而不仅仅是增加GPU的数量。.

英国基础人工智能研究实验室如何帮助研究人员获得强大的计算能力?

除了英国基础人工智能研究实验室之外,该计划还强调通过人工智能研究资源获取大量计算资源。实际上,这意味着研究人员可以开展一些原本会因成本或基础设施限制而无法进行的实验。此外,它还使团队能够大规模地测试各种想法,从而将可靠性和鲁棒性等问题具体化,而不仅仅停留在理论层面。.

为什么英国如此重视幻觉、记忆力减退和思维不可预测性?

这些弱点会在部署过程中暴露出来,并迅速侵蚀信任。既定的重点表明,目标不仅是能力,更是可靠性——减少虚假输出,改进模型处理更长上下文的能力,并使推理更加稳定。这类工作通常耗时更长、风险更高,因此被视为基础研究。.

英伟达在投资 OpenAI 或 Anthropico 问题上的态度转变,究竟预示着什么?

报道暗示,英伟达可能不会像以往那样继续投资前沿实验室,尤其是在IPO机制和巨额投资规模使这一策略变得复杂的情况下。即使作为人工智能硬件领域的“实干家”,这也表明股权投资并非总是最佳选择。当然,这也可能是一种谨慎的表态,高管言论中也经常出现这种情况。.

为什么人类研究所与五角大楼就“保障条款”的争议会引起如此大的关注?

文章的关键在于,合同措辞可能演变为产品政策——尤其是在涉及监控和其他敏感用途时。据报道,投资者希望缓和冲突,而该公司则试图坚持其安全保障措施。在许多人工智能部署中,这些条款决定了系统的用途以及公司实际承担的风险。.

Sam Altman 说 OpenAI 无法控制五角大楼如何使用人工智能,这意味着什么?

它描述了一个实际的局限性:一旦工具部署完毕,最初的开发者可能难以控制后续的使用。这一点至关重要,因为它指出了人们对军事应用的核心担忧——规则或许在合同阶段就已存在,但执行起来却困难重重。这也反映了“有约束的帮助”和“无条件的帮助”之间更广泛的矛盾。

昨日人工智能新闻:2026年3月3日

在官方人工智能助手商店查找最新人工智能产品

关于我们

返回博客