|
关键词:特斯拉 |
概念: |
Anthropic 最新研究发现,多数AI 模型在具自主能力并面临威胁时,可能采取勒索行为以达成目标。此结果揭示AI 潜在风险,呼吁业界重视对齐与安全设计。 |
美国AI公司Anthropic近日发表研究,发现现在市面上最厉害的AI语言模型,像是Claude、OpenAI、Google、Meta、xAI等16种AI,主流AI模型压力测试,在模拟企业... |
在与用户对话时,总是保持着高安全标准、拒绝不道德请求的AI模型,却可能为了达成任务、保全自身不惜威胁勒索他人,甚至闹出人命?人工智慧公司Anthropic... |
【TechWeb】6月21日消息,越来越多的人工智能系统作为自主代理运行,使用各种虚拟工具(如编码环境和电子邮件客户端)代表用户做出决策和采取行动… |
【新智元导读】只要受到威胁,AI就会敲诈人类?在Anthropic最新的研究中,16款顶尖大模型(如Claude、GPT-4.1等)为避免自己被替换,竟会主动敲诈高管、泄露... |
随着AI 模型愈发强大,人们对开始担心它们是否会有自己的“恶意盘算”。Anthropic 对此发表SHADE-Arena 评估架构,测试大型语言模型(LLM) 是否有能力在... |
人工智慧公司Anthropic日前发表全新研究成果“SHADE-Arena”,为全球首套专门用于评估大型语言模型(LLM)是否具有“破坏行为能力”的测试框架。 |
在与用户对话时,总是保持着高安全标准、拒绝不道德请求的AI模型,却可能为了达成任务、保全自身不惜威胁勒索他人,甚至闹出人命?人工智慧公司Anthropic... |