馬斯克等千人為何聯名要求暫停AI研發:人類真在作死路上狂奔嗎?

馬斯克等千名科技人士對AI發展所發的公開信,如果能爭取來時間,應該是用來定規則,制定出規范AI發展的法律和市場規則。

不過,這種呼吁顯然沒有強制力,人類科技的發展總是著眼于首先提高效率,絕不愿讓風險與倫理的考量束手束腳,只有當風險成為現實時,才會有補救措施。在這個意義上,人類某種程度上也是在作死,因為總有一些風險大到無可補救。

責任編輯:陳斌

2023年3月29日,“Future of Life Institute(未來生命研究所)”的辛頓、馬庫斯、馬斯克等1079名科學家和知名人士聯合簽署了公開信:呼吁所有AI實驗室,立即暫停訓練比GPT-4更強大的AI系統至少6個月。

公開信寫道:廣泛的研究表明,具有與人類競爭智能的人工智能系統可能對社會和人類構成深遠的風險,這一觀點得到了頂級人工智能實驗室的承認。公開信表示,“只有當我們確信它們的影響是積極的并且風險是可控的時候,才應該開發強大的人工智能系統。這種信心必須有充分的理由,并隨著系統潛在影響的規模而增加”。

終于有科學家,從技術之外的視角、從人類社會和人本身來審視AI發展了,甚感欣慰。在此之外,個人還有些觀點:AI乃當代生產力的巨大躍進,人類歷史的發展經驗告訴我們,企圖通過禁令來遏制生產力的新發展,毫無作用。

譬如

登錄后獲取更多權限

立即登錄

校對:胡曉

歡迎分享、點贊與留言。本作品的版權為南方周末或相關著作權人所有,任何第三方未經授權,不得轉載,否則即為侵權。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}
午夜宅男在线,中视在线直播,毛片网站在线,福利在线网址