🕵️ 英国将与微软合作开发深度伪造检测系统 ↗
英国表示,它正与微软、学术界和其他专家合作,构建一个能够识别在线深度伪造内容的系统,以及一种合适的方法来测试检测工具在实际应用中的有效性。
重点在于那些危害最大的问题:冒充他人、欺诈和未经同意的性内容。这些问题并不光鲜亮丽,但损害却集中体现在这些方面。.
🧠 Anthropico发布AI升级版,市场对软件股造成冲击。 ↗
Anthropic推出了升级版的Claude模型(Opus 4.6),该模型在编码和财务方面表现更佳,并且能够一次性处理多达100万个代币。这其中包含的信息量非常大——就像给模型提供了一张完整的借书证。.
他们还在通过 Claude Code 平台大力发展“代理”技术,将任务分配给多个自主助手。这比你想象的要方便得多——但这种转变也让老派软件投资者感到有些不安。.
🧑💼 OpenAI推出AI代理服务,旨在吸引更多企业用户。 ↗
OpenAI 发布了“Frontier”,这是一项面向企业的服务,用于构建和管理 AI 代理——即执行特定工作的机器人,例如调试软件、处理工作流程等等。.
关键在于,它旨在接入公司现有的基础设施,甚至支持第三方代理,这看起来像是 OpenAI 试图成为控制中心,而不仅仅是模型提供商。雄心勃勃……或者说,略带占有欲,这取决于你如何看待。.
🪖 中美两国选择不签署关于人工智能在军事领域应用的联合声明 ↗
许多国家签署了一份不具约束力的宣言,阐述了在战争中使用人工智能的原则——例如人类责任、明确的指挥结构以及严格的测试和风险评估。.
但美国和中国并没有签署。这就是问题的症结所在——规则明明存在,但最大的两个国家……却没有执笔。.
🎭 纽约州立法要求披露广告中人工智能生成的表演者信息,并加强了死后宣传权。 ↗
纽约州签署法律,要求使用人工智能生成的“合成表演者”的广告必须向该州受众明确披露这一点——即使广告商位于其他地方。简而言之:别把假人蒙混过关,美其名曰“营销”。.
此外,该州还加强了对已故人士肖像(包括数字复制品)商业用途的监管。坦白说,这有点令人沮丧,但也确实印证了“欢迎来到身份需要安全带的时代”。
常问问题
英国正与微软合作开发什么技术来检测网络上的深度伪造信息?
英国表示将与微软、学术界及其他专家合作,构建一套能够识别网络深度伪造内容的系统。该计划还包括建立一种可靠的测试方法,以检验检测工具在实验室外的实际有效性。重点仍然是危害最大的几种:身份冒用、欺诈以及未经同意的性内容。.
深度伪造检测器的“实际应用”测试与演示测试有何不同?
除了检测器本身,英国还强调在真实环境下测试深度伪造检测工具的方法。在许多流程中,模型在精心整理的数据集上表现出色,但当内容格式、压缩方式或对抗策略发生变化时,其性能就会下降。结构化的评估方法有助于对各种工具进行一致的比较,并揭示检测在真实在线环境中的失效之处。.
Anthropic 在 Claude Opus 4.6 中做了哪些改变?为什么代币限制很重要?
Anthropic 表示,Claude Opus 4.6 提升了编码和金融等领域的性能,并能处理多达 100 万个上下文标记。更大的上下文窗口让用户能够更轻松地处理长文档或复杂的代码库,而无需不断重新加载信息。他们还重点介绍了 Claude Code 中的“代理”,该功能可以将任务拆分到多个独立的辅助程序中。.
OpenAI“Frontier”是什么?它如何融入企业工作流程?
OpenAI 发布了名为“Frontier”的企业级服务,用于构建和管理执行特定任务(例如软件调试或工作流程处理)的 AI 代理。Frontier 的定位是集成到现有企业基础设施中,而不是作为独立的模型端点。OpenAI 还表示,Frontier 支持第三方代理,这意味着它将提供一个控制层来协调不同的代理系统。.
军方人工智能宣言说了什么?这对人工智能治理意味着什么?
该宣言被描述为不具约束力,并列出了在战争中使用人工智能的原则,包括人的责任、清晰的指挥结构以及严格的测试和风险评估。路透社报道称,许多国家签署了该宣言,但美国和中国没有签署。对于人工智能治理而言,美国和中国选择退出至关重要,因为它使最大的参与者被排除在共同制定的规范之外。.
纽约新规对广告中人工智能生成的表演者有何要求?
纽约州签署法律,要求使用人工智能生成的“合成表演者”的广告必须向该州受众明确披露这一事实,即使广告商位于其他州。此外,该州还加强了对已故人士肖像(包括数字复制品)商业用途的身后宣传权。实际上,这推动了人工智能治理朝着更清晰的标签和更严格的身份使用控制方向发展。.