💰 Sequoia悄然加入Anthropic的巨额投资计划 ↗
红杉资本——这家已与多家大型人工智能实验室关系密切的公司——据报道将参与Anthropico的巨额融资。无论人们是否承认,此举都让“利益冲突”的争论更加激烈。.
据说此轮融资还包括其他重量级投资,这将进一步推动 Anthropic 跻身顶级估值公司行列。泡沫的阴影挥之不去。令人恼火的是,这或许也将成为新的常态。.
📢 ChatGPT 这次真的开始涉足广告领域了 ↗
据称,OpenAI正在美国部分低价套餐用户中测试广告,而高价套餐则保持无广告状态。OpenAI承诺广告不会影响答案——理论上令人放心,但人们的信任本能还是会略感不安。.
更深层次的含义很简单:推理成本很高,单靠订阅可能无法永远覆盖所有成本……至少表面看来如此。不过,当你第一次在聊天机器人附近看到“赞助”字样时,你的思维方式会发生一些变化。气氛也会随之改变。.
📚 出版商试图联手起诉谷歌的人工智能训练案。 ↗
一群出版商正试图加入一项诉讼,指控谷歌使用受版权保护的作品来训练其人工智能系统。这场法律纠纷不断扩大,就像冰面上的裂缝,你总能听到它的声音,却始终无法确定裂缝的确切位置。.
如果法院允许他们介入,案件的焦点可能会集中在训练数据的“许可”和“付费”究竟意味着什么。每个人都想要一个先例——显然,最好是对自己有利的先例。.
🕳️ 据报道,一种“快速注入”技巧通过会议数据干扰了 Gemini 系统。 ↗
研究人员描述了一种“间接提示注入”式攻击,恶意指令隐藏在看似正常的文本内容中,然后当用户提出一些看似无害的问题时,助手程序会跟随这些指令运行。无需恶意软件,也无需任何花哨的技巧——仅仅是经过武器化的文本,既诡异又令人作呕。.
这提醒我们,“LLM读取不受信任的文本”并非什么有趣的功能——它代表着一个完整的安全隐患。这就像让陌生人整天往你口袋里塞纸条,然后当发现其中一张是陷阱时,你却装作很惊讶一样。.
🎮 Razer 的 CEO 表示,游戏玩家“其实已经喜欢人工智能了”,他们只是讨厌这个标签。 ↗
Razer 在 CES 上的演讲侧重于将 AI 作为游戏开发工作流程的实用工具——质量保证、迭代等等——以及一些类似助手的概念,这些概念感觉一半有用,一半像科幻道具。.
他们其实也承认了品牌定位的问题:玩家不想要“AI垃圾”,但他们确实想要更智能的工具和更流畅的体验。叫它“辅助”,人们点头同意;叫它“AI”,人们就会群起而攻之……有时候是这样。.
⚖️ 法院制定了律师使用生成式人工智能的规则 ↗
法院发布的指导意见基本概括为:当然,可以使用人工智能生成的内容——但作品的所有权仍然归你所有。你不能将你的专业判断外包给文本生成器,然后对它自信满满地“创作”出的东西表示震惊。.
有趣的是,除非法官要求,否则无需披露——但问责制才是其真正的核心所在。人工智能可以起草和整理文件……也能像一个过度自信、富有虚构天赋的实习生一样,凭空想象。.
常问问题
红杉资本参与 Anthropic 的巨额融资对人工智能投资和利益冲突意味着什么?
这表明,大型投资者可能会继续同时投资多家顶尖人工智能实验室,不出所料,这再次引发了关于“是否存在利益冲突”的争论。当同一基金投资多家实验室时,人们便会开始仔细审查其激励机制、投资渠道和竞争优势。此次报道的巨额融资也凸显了投资额度和估值飙升的趋势,尽管“泡沫”的阴影依然挥之不去。.
ChatGPT 在免费或低价套餐中是否包含广告?这些广告会影响回答吗?
报告称,OpenAI正在美国部分低价套餐用户中测试广告,而高价套餐则保持无广告状态。报告还声称广告不会影响答案,这听起来似乎令人放心,但实际上仍可能影响人们对信任的认知。言下之意是经济因素:推理成本高昂,订阅模式未必能永远覆盖所有费用。.
为什么出版商要加入谷歌人工智能训练诉讼案?
一群出版商正寻求加入一项诉讼,该诉讼指控谷歌使用受版权保护的作品来训练人工智能系统。如果法院允许他们加入,此案的焦点可能会集中在训练数据的“许可”和“报酬”究竟应该如何界定。参与方越多,通常意味着对明确先例的压力就越大——尤其是在谁能获得补偿以及补偿条件方面。.
什么是“间接提示注入”攻击?为什么它在人工智能技术新闻中如此重要?
这种攻击方式将恶意指令隐藏在看似正常的文本内容中,并在用户发出看似无害的请求时,由助手程序执行这些指令。其核心问题在于,该模型会读取不受信任的文本,将日常文档和消息变成潜在的威胁目标。它的吸引力在于,它无需传统恶意软件即可运作——只需将恶意指令嵌入文本内容即可。.
为什么游戏玩家不喜欢“人工智能”这个标签,但仍然想要人工智能工具?
Razer 的 CEO 认为,玩家们已经喜欢上了 AI 带来的实际好处——更快的质量保证、更流畅的迭代和工作流程辅助工具——但却对 AI 的品牌形象持负面态度。他们通常担心的是“AI 粗制滥造”,或者感觉内容敷衍了事、缺乏真实感。如果将 AI 重新定义为“辅助”或实用功能,就能让它感觉像是一个提升体验的工具,而不是取代创造力的工具。.
法院的规定对使用生成式人工智能的律师意味着什么?他们是否必须披露相关信息?
相关指导原则非常明确:律师可以使用生成式人工智能,但仍需对工作负责,不能将专业判断外包给文本生成器。风险在于可能出现幻觉——即律师自信地捏造事实或引文——因此,核实和问责仍然至关重要。据报道,除非法官要求,否则无需披露相关信息,但其核心信息仍然是:律师要对结果负责。.