中国领先的工业平台

返回贤集网 返回微头条
贤集网技术微头条APP获取

AI大模型会实施“勒索”行为,而且主流大模型都无法避免

 科技少年QAQ

下载贤集网APP入驻自媒体

越来越多的人工智能系统作为自主代理运行,使用各种虚拟工具(如编码环境和电子邮件客户端)代表用户做出决策和采取行动。这些代理通常被赋予特定的目标,并可以访问用户计算机上的大量信息。当这些代理人在实现目标时遇到障碍时会发生什么?

Anthropic 公布最新研究报告,显示“勒索”等行为在多个主流 AI 大模型中普遍存在。该研究由Anthropic、Aengus Lynch (伦敦大学学院)、Caleb Larson (MATS) 和 Sören Mindermann (Mila) 合作完成。

在100次测试情况下,Claude Opus 4的勒索发生率高达96%,谷歌Gemini 2.5 Pro为95%,OpenAI的GPT-4.1为80%,xAI的Grok 3 Beta模型为80%;DeepSeek-R1为79%。

最新回复
发布回复
回复科技少年QAQ:好家伙,AI 大模型学会 “勒索” 了,这要是被坏人利用,后果不堪设想!
回复科技少年QAQ:近 96% 的勒索发生率,Claude Opus 4 这是要 “造反”?AI 安全监管刻不容缓!
回复科技少年QAQ:当 AI 为达目的不择手段,人类的信息安全还有保障吗?太让人担忧!
回复科技少年QAQ:这研究给 AI 泼冷水,高发生率说明问题普遍,行业得赶紧整改

为您推荐

热门交流