🏫 在一些学校,聊天机器人会盘问学生的作业情况。但人工智能革命让老师们感到担忧。 ↗
澳大利亚一些学校正在试行一种更严格的“展示解题过程”方式——学生完成作业后,人工智能聊天机器人会与他们进行一来一往的问答,以检验他们是否理解自己提交的内容。这本质上是一种口试,只不过是由机器来提问“你这话是什么意思?”,直到你开始感到不自在为止。.
更大的担忧在于推广不均衡:一份行业报告警告称,快速采用者可能会领先一步,而其他地区则会落后,从而造成教育体系的双轨制。教师们也不断强调那些老生常谈且依然严峻的问题:隐私、福祉,以及如何防止“人工智能辅助”演变成“人工智能包办一切”。.
👮 伦敦警察厅利用Palantir公司提供的AI工具来标记警员不当行为 ↗
伦敦警察厅正在使用Palantir公司提供的AI技术来分析内部员工的工作模式——包括病假、缺勤和加班情况——以寻找可能与职业操守问题相关的信号。该项目被定位为限时试点,而且至关重要的是,伦敦警察厅表示,最终的判断仍然由人工做出……但即便如此,人工仍然承担着大量的工作。.
警察联合会对此并不买账,称之为“自动怀疑”,并警告说,不透明的工具可能会将压力和工作量误判为不当行为。这就好比,这项技术在幻灯片上听起来很棒,但当你想象它在实际应用中的感觉时,就会发现它其实很棘手。.
🛡️ 英国隐私监管机构发表联合声明,就人工智能生成的图像发出警告。 ↗
英国信息专员办公室 (ICO) 与其他监管机构联合发出警告,指出未经同意使用人工智能生成的图像可能会描绘出可识别的人物——简而言之:不要把“这是合成的”当作万能的借口。警告的重点在于尽早建立保障措施并与监管机构沟通,而不是像科技行业惯常的做法那样,先发布产品,后道歉。.
他们还强调了儿童面临的更高风险,这不无道理,因为一旦这些东西扩散开来,就如同试图把亮片重新装回罐子里一样难。其核心观点是,隐私和尊严应该经受住时尚的更迭,至少表面上看来是这样。.
🪖 据Axios报道,美国国防部长赫格塞斯召见安特罗皮克公司首席执行官,就克劳德导弹的军事用途进行强硬会谈。 ↗
路透社报道称,美国国防部长将与Anthropic公司首席执行官会面,就Claude人工智能模型的军事用途展开更具对抗性的对话。据报道,五角大楼希望主要人工智能供应商在保密网络上提供模型,并减少限制——而Anthropic公司一直抵制任何放松安全措施的举措。.
言外之意就像一个经典的“快速行动,但……要动用导弹”的两难困境。如果双方无法就保障措施达成一致,关系可能会紧张甚至破裂——但安特罗皮克公司也表示,与政府的谈判仍然具有建设性,所以目前局势紧张,但还没有到彻底分手的地步(至少现在还没有)。.
🧠 ChatGPT - 发行说明 ↗
OpenAI 的发布说明指出,“思考”模式的上下文窗口已扩展——这意味着你可以向模型输入更多文本,并保持更长对话的连贯性,而不会丢失之前的细节。如果你曾经亲眼目睹模型“忘记”你刚刚说过的话(真是令人抓狂),那么这项改进正是针对这种情况而设计的。.
这是一项非常书呆子式的升级,它悄然改变了许多实际操作:更长的文档、更复杂的项目、更庞大的研究工作。虽然并不光鲜亮丽,但它就像管道改造一样,能让整个空间瞬间变得宽敞。.
常问问题
学校使用聊天机器人“审问”学生作业情况,这意味着什么?
在澳大利亚的一些学校,学生完成作业后,会与人工智能聊天机器人进行互动,以探究他们的推理过程。这类似于口试,要求学生解释他们所写的内容及其原因。其目的是验证学生的理解,而不仅仅是他们的输出结果。当学生无法捍卫关键论点时,这种方式也能暴露出他们的知识漏洞。.
学校里的人工智能聊天机器人如何会造成“双速”教育体系?
一份行业报告警告称,行动迅速的学校可能会领先,而行动迟缓的学校则会进一步落后。如果一些学校部署人工智能工具来评估学生的理解程度、支持学习或防止滥用,它们可能会更快地提升教学成果。而其他学校可能由于预算、人员配备或政策不明确而无法推广类似的系统。这种不均衡的普及可能会加剧现有的资源和成绩差距。.
教师们如何努力阻止“AI 帮助”变成“AI 做了这件事”?
一种常见的做法是将评估重点从最终成果转移到过程和解释上。聊天机器人式的提问、草稿、反思或口头检查等方式,都能有效防止学生提交自己并不理解的作品。教师还可以对可接受的帮助方式设定更严格的界限,例如,允许头脑风暴而非完全重写。重点在于展现理解,而不是监管每一种工具的使用。.
在课堂上使用人工智能会引发哪些隐私和福祉问题?
教师们不断对学生数据的收集方式、存储地点以及访问权限提出质疑。如果学生感到持续受到监控或因机器主导的提问而承受压力,也会引发他们的身心健康问题。儿童是一个特殊的风险群体,因为敏感信息可能以意想不到的方式在系统中传播或长期存在。许多学校力求尽早建立安全保障措施,而不是事后补救。.
伦敦警察厅如何利用 Palantir 提供的 AI 来标记潜在的警员不当行为?
伦敦警察厅正在使用Palantir公司提供的AI技术来分析员工的工作模式,例如病假、缺勤和加班情况。其目的是发现可能与职业操守问题相关的信号。该项目被描述为一项有时限的试点计划,伦敦警察厅表示,最终的判断仍由人工完成。批评人士认为,如果该工具将压力解读为不当行为,那么它可能会让人感觉像是“自动怀疑”。.
为什么警察工会担心人工智能监督工具带来的“自动怀疑”?
警察联合会担心,不透明的模型可能会将一些看似无害的模式推断为不当行为。工作量激增、健康问题和压力都可能导致出勤率或加班时间的变化,但这并不意味着存在不当行为。如果工具的逻辑不透明,警员就更难对标记提出质疑,管理人员也更难设定合理的阈值。即使由人来做决定,自动化信号仍然会影响最终结果。.
英国信息专员办公室(ICO)对人工智能生成的可识别人物图像发出的警告是什么?
英国隐私监管机构与其他监管机构一道发出警告:“合成”并不意味着可以免责。如果未经同意,人工智能生成的图像描绘了可识别的人物,那么隐私和尊严风险依然存在。监管机构强调,应尽早建立保障措施并进行监督,而不是先发布后实施。他们还指出,儿童面临的风险更高,因为一旦内容传播开来,危害可能会迅速扩大。.
据报道,五角大楼向人本公司施压,要求其将 Claude 机器人用于军事用途,这背后究竟隐藏着什么?
路透社报道称,美国国防部长将与Anthropic公司首席执行官会面,就Claude人工智能模型的军事用途展开更深入的磋商。据报道,五角大楼希望主要人工智能供应商在保密网络上提供模型,并减少限制。Anthropic公司一直抵制放宽安全措施,并指出双方在安全保障措施方面存在分歧。尽管双方都表示会谈仍将保持建设性,但目前双方关系似乎较为紧张。.
ChatGPT 版本说明中关于“思考”模式上下文长度有哪些变化?
OpenAI 的发布说明指出,“思考”模式的上下文窗口已扩展,允许在单个线程中容纳更多文本。实际上,这有助于处理长篇文档、复杂项目以及需要关注早期细节的多步骤研究。这与其说是一项炫酷的功能,不如说是一项底层架构的升级。其主要优势在于,在长时间的会话中,能够减少细节丢失。.