人工智能新闻 2026年2月15日

人工智能新闻综述:2026年2月15日

🦞 OpenClaw创始人Steinberger加入OpenAI,开源机器人成为基金会

Peter Steinberger 将加入 OpenAI,致力于推进“个人代理”项目,而 OpenClaw 本身则会被纳入一个基金会,以保持其开源状态(并获得支持)。这种划分方式……相当巧妙——聘请开发者,同时保持项目的公开性。.

OpenClaw 的理念非常实用:邮件分类、保险文件处理、航班值机、以及各种琐碎的生活杂务。它在 GitHub 上也迅速走红,而这种受欢迎程度也引发了人们对安全性的担忧,尤其是在用户部署不当的情况下。.

🪖 报道称,五角大楼对Anthropic公司就军方使用Claude人工智能模型一事所采取的反对态度感到“厌烦”,可能终止合作关系。

核心分歧在于:五角大楼希望获得广泛的、“所有合法用途”的权限,而安人智公司仍在努力对完全自主武器和大规模监控设定严格的限制。这种分歧听起来像是哲学探讨,直到有人说:“我们可能会取代你。”

一个常被忽视的细节是——官员们不希望这个模型突然中断工作流程,也不希望没完没了地处理各种极端情况(这很合理……但也让人担忧)。这里存在着一种“谁掌握着关键权力”的紧张关系,而且这种紧张关系并不隐晦。.

🧠 初创公司构建模型以预测人类行为

Simile 融资 1 亿美元,用于构建一个“有限学习”模型,旨在预测人们的行为——尤其包括预测财报电话会议等场合中可能出现的问题。目标明确,雄心勃勃,这种组合略显诡异。.

这种方法依赖于对真实用户的访谈和行为研究数据,然后利用旨在模拟真实偏好的AI代理进行模拟。这就像为人类决策建立一个天气模型……听起来似乎不可能,但实际上并非如此。.

🧑⚖️ 独家消息:白宫施压犹他州议员,要求其否决人工智能透明度法案

犹他州一项旨在提高人工智能透明度的州级提案正遭到白宫的直接施压,官员们敦促该法案的发起人不要推进该法案。该法案的核心在于透明度和儿童安全——单从表面上看,这很难让人反驳。.

但更大的争论在于管辖权:谁有权制定规则,是州政府还是联邦政府?没错,这简直是一场混战——就像两个人同时握住同一个方向盘,都坚称自己才是冷静的一方。.

🎬 继迪士尼发出威胁后,字节跳动承诺防止未经授权的知识产权在人工智能视频工具中使用。

迪士尼就字节跳动的AI视频生成器发出停止侵权通知,字节跳动表示正在加强安全措施,防止未经授权使用其知识产权和肖像权。据称,迪士尼的投诉是该工具可以随意生成一些知名IP角色,就好像它们是……公共领域的贴纸一样。.

这是所有人预料之中的碰撞:病毒式传播的AI视频工具发展迅猛,工作室却诉诸法律,“我们会增加安全措施”成了默认的道歉措辞。令人意想不到的是,技术层面看似神奇,而法律层面却如同重力般难以逾越。.

常问问题

OpenClaw 的创始人加入 OpenAI,而 OpenClaw 则转为基金会,这意味着什么?

这标志着构建“个人代理”的个人与项目本身继续由公众管理之间的分歧。斯坦伯格加入 OpenAI 表明他将专注于在那里推进代理类产品的发展。将 OpenClaw 置于基金会的管理之下,旨在保持其开源状态并获得可持续的支持。实际上,此举旨在维护社区信任,同时让开发者前往资源更丰富的地区。.

为什么 OpenClaw 式人工智能代理专注于处理电子邮件和文书工作等琐事?

因为“生活管理”工作重复性高、规则性强且耗时,所以非常适合自动化。这里举的例子——电子邮件分类、保险文件处理和航班值机——都是目标明确、成功标准清晰的任务。这种专注能让代理人比那些工作内容更开放的助理更快地感受到自身的价值。这也凸显了为什么当代理人接触个人账户时,严格的访问控制至关重要。.

如何在不产生安全问题的情况下部署像 OpenClaw 这样的开源 AI 代理?

对待它要像对待能够访问敏感数据的软件一样,而不是像对待玩具脚本一样。常见的做法是锁定凭据,将权限限制在最低限度,并保留日志和审计跟踪。在受限环境中运行它,并将其与高价值系统隔离。许多安全隐患源于部署不当,尤其是在没有强有力的安全措施的情况下暴露端点或令牌。.

为什么五角大楼对 Anthropic 公司限制 Claude 用于军事用途感到不满?

这场争议的核心在于权限范围和控制权:五角大楼希望获得“所有合法用途”的广泛权限,而安人智公司则被描述为对完全自主武器和大规模监控设定严格限制。官员们也不希望模型在工作流程中途中断或引发无休止的特殊情况谈判。这种矛盾远比听起来要具体得多——它关乎谁来决定模型在实际操作中可以做什么。.

初创公司如何尝试利用人工智能预测人类行为?为什么这种做法会引发争议?

这里提到的Simile公司正在探索一种“有限学习”模型,旨在预测人们的行为,包括预测在财报电话会议等场合可能出现的问题。该方法融合了访谈、行为研究数据以及使用人工智能代理进行的模拟,这些代理旨在模拟真实用户的偏好。这种方法令人感到有些诡异,因为它将人工智能从响应用户转变为预测用户。其挑战在于如何控制预测的局限性,避免过度自信。.

当人工智能视频工具生成受版权保护的角色时会发生什么?就像字节跳动与迪士尼的冲突那样?

报道中的模式并不陌生:工作室发出停止侵权通知,平台则通过加强安全措施来防止未经授权的知识产权或肖像权使用。在许多工具中,这些安全措施意味着更严格的内容过滤、更精准的可识别角色检测以及更清晰的用户政策执行。其根本冲突在于速度与责任——病毒式传播速度极快,而版权保护却如同重力一般不可阻挡。随着视频生成器的普及,预计此类冲突将会更加频繁。.

昨日人工智能新闻:2026年2月13日

在官方人工智能助手商店查找最新人工智能产品

关于我们

返回博客