|
關鍵詞:特斯拉 |
概念: |
Anthropic 最新研究發現,多數AI 模型在具自主能力並面臨威脅時,可能采取勒索行為以達成目標。此結果揭示AI 潛在風險,呼吁業界重視對齊與安全設計。 |
美國AI公司Anthropic近日發表研究,發現現在市面上最厲害的AI語言模型,像是Claude、OpenAI、Google、Meta、xAI等16種AI,主流AI模型壓力測試,在模擬企業... |
在與用戶對話時,總是保持著高安全標准、拒絕不道德請求的AI模型,卻可能為了達成任務、保全自身不惜威脅勒索他人,甚至鬧出人命?人工智慧公司Anthropic... |
【TechWeb】6月21日消息,越來越多的人工智能系統作為自主代理運行,使用各種虛擬工具(如編碼環境和電子郵件客戶端)代表用戶做出決策和采取行動… |
【新智元導讀】只要受到威脅,AI就會敲詐人類?在Anthropic最新的研究中,16款頂尖大模型(如Claude、GPT-4.1等)為避免自己被替換,竟會主動敲詐高管、洩露... |
隨著AI 模型愈發強大,人們對開始擔心它們是否會有自己的「惡意盤算」。Anthropic 對此發表SHADE-Arena 評估架構,測試大型語言模型(LLM) 是否有能力在... |
人工智慧公司Anthropic日前發表全新研究成果「SHADE-Arena」,為全球首套專門用於評估大型語言模型(LLM)是否具有「破壞行為能力」的測試框架。 |
在與用戶對話時,總是保持著高安全標准、拒絕不道德請求的AI模型,卻可能為了達成任務、保全自身不惜威脅勒索他人,甚至鬧出人命?人工智慧公司Anthropic... |