Hot News

上千專家簽署公開信 吁暫停研發AI @ 2023-03-30T08: Back Hot News
Keyword:暫停 馬斯克 專家
Concept:人工智能系統 , 專家聯署呼吁暫停訓練更強大
特斯拉執行長馬斯克(ELON MUSK)與一群人工智慧(AI)專家、業界高階主管,共同發表公開信,呼吁暫停訓練比GPT-4還強大的AI系統六個月,理由是有可能危及社會與人類。
馬斯克等千名專家吁暫停研發更強大人工智能
TESLA(TSLA)的CEO ELON MUSK馬斯克和一群人工智能專家和行業高管在一封公開信中稱,他們呼吁暫停訓練比OPENAI新推出的模型GPT-4更強大的系統,理由是對社會和人類的潛在風險,為期至少六個月。
這封信呼吁,所有人工智能實驗室立即暫停訓練比GPT-4更強大的人工智能系統至少6個月。這種暫停應該是公開的和可驗證的,並且包括所有關鍵參與者。如果不能迅速實施這種暫停,政府應介入並實行暫停。人工智能實驗室和獨立專家應該利用這次暫停,共同開發和實施一套用於高級人工智能設計和開發的共享安全協議,並由獨立的外部專家進行嚴格審計和監督。這些協議應確保遵守它們的系統是安全的,並且無可置疑。這並不意味著總體上暫停AI開發,只是緊急從奔向不可預測的大型黑盒模型的危險競賽中收回腳步。
特斯拉CEO馬斯克連同來自人工智能領域的1000多名專家及產業高層聯名呼吁,暫停開發比OPENAI新推出的GPT-4更強大的人工智能系統至少6個月,以認識並遠離極端的大規模風險。
在OPENAI的GPT大模型日益強大的時候,也引起了關於倫理方面的巨大爭議。OPENAI的共同發起人伊隆·馬斯克(ELON MUSK)和一群人工智能專家及行業高管在一封最新發布的公開信中呼吁,在未來六個月暫停對GPT模型的訓練,以免該模型變得更加強大,從而對社會和人類造成潛在風險。
AI領域為未來科技發展重點方向之一,但同時也為人類帶來潛在危機。近日生命未來研究所(FUTURE OF LIFE)發布《暫停大型人工智能實驗》的公開信,呼吁所有人工智能實驗室立即暫停較GPT-4更強大的人工智能系統的訓練至少6個月,公開信更獲千名科技界名人及AI專家簽署。
這封信是由非營利組織生命未來研究所(FUTURE OF LIFE INSTITUTE )發起,由超過1000名的學者專家,包括馬斯克在內簽署,主張暫停先進人工智慧的開發,直到有相對應的管理和規范,「只有當我們相信人工智慧的影響是積極的,風險是可以控制的時候,才應該開發強大的AI系統。」
近期,美國億萬富翁埃隆.馬斯克和人工智能領域頂尖專家、圖靈獎得主約書亞.本吉奧(YOSHUA BENGIO)等人聯名簽署了一封公開信,呼吁暫停開發比GPT-4更強大的AI系統至少6個月,稱其「對社會和人類構成潛在風險」。
特斯拉執行長馬斯克和一群人工智慧專家以及產業高管,在一封公開信中呼吁,對於比GPT-4更強大的AI系統,暫停六個月的系統培訓。
危及社會與人類 馬斯克與專家聯署呼吁暫停訓練更強大AI至少半年
馬斯克、圖靈獎得主等千名專家呼吁暫停超強AI研發,至少6個月
聯合創始人斯蒂夫·沃茲尼亞克在內的1000多名行業高管和專家簽署公開信,呼吁在6個月內暫停高級人工智能(AI)的開發。他們在信中詳細闡述了具有強大競爭力的人工智能系統可能對社會和文明帶來的潛在風險,包括經濟和政治方面,並呼吁開發者與政策制定者合作制定治理和監管規定。
公開信中寫道,廣泛研究表明AI系統可能對人類構成深遠風險,只有當確保強大的AI系統的效果是積極的、風險是可控的才能繼續開發。AI實驗室和獨立專家應在暫停期間,共同制定和實施一套先進的AI設計和開發的共享安全協議,由獨立的外部專家進行嚴格監督。有網友質疑,簽署公開信的專家是為了阻礙OPENAI研發更先進的GPT-5,以免自己落後太多。
稍早前非營利組織「未來生命研究所」(FUTURE OF LIFE INSTITUTE)發布一封聯名公開信,包括特斯拉執行長馬斯克、蘋果共同創始人STEVE WOZNIAK在內等上千位專家和產業高層共同呼吁暫停訓練比OPENAI新推出的模型GPT-4更強大的系統,直到完成相關安全協議的制定、實施與審核。這些專業人士並警告強大的AI系統可能對社會和人類帶來許多風險,「只有當我們確信它們的影響是正面的、風險是可控的時候,才應該去開發強大的AI系統」。
3月29日,生命未來研究所(FUTURE OF LIFE INSTITUTE)公布一封公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統至少6個月。辛頓、馬庫斯和馬斯克均簽署了這封公開信。
近日,馬斯克和1000多名人工智能專家及行業高管簽署聯名信,呼吁暫停訓練比GPT—4更強大的人工智能系統至少六個月,理由是這種系統對社會和人類構成潛在風險。信中寫道:「只有在我們確信它們的效果是積極的,風險是可控的情況下,才應該開發強大的人工智能系統。」馬斯克此前曾多次表達對人工智能的擔憂,他在今年2月的一次視頻講話中表示,人工智能是未來人類文明最大的風險之一。
逾千專家吁暫停訓練強大AI

Mobile | Full
Forum rule | About Us | Contact Info | Terms & Conditions | Privacy Statment | Disclaimer | Site Map
Copyright (C) 2025 Suntek Computer Systems Limited. All rights reserved
Disclaimer : In the preparation of this website, 88iv endeavours to offer the most current, correct and clearly expressed information to the public. Nevertheless, inadvertent errors in information and in software may occur. In particular but without limiting anything here, 88iv disclaims any responsibility and accepts no liability (whether in tort, contract or otherwise) for any direct or indirect loss or damage arising from any inaccuracies, omissions or typographical errors that may be contained in this website. 88iv also does not warrant the accuracy, completeness, timeliness or fitness for purpose of the information contained in this website.