別讓人類以“聊天”始,以“沉默”終——ChatGPT的現實挑戰與未來風險
編者按:
(本文首發于南方人物周刊)
責任編輯:陳雅峰 徐梅
最近,美國著名語言學家、哲學家諾姆·喬姆斯基和兩位合作者在《紐約時報》發表了一篇題為《ChatGPT的虛假承諾》的文章。喬姆斯基承認OpenAI的ChatGPT、谷歌的Bard等都是機器學習的奇跡;但對于認為“機械大腦”不僅會在處理速度和內存容量方面超越人類大腦,還會在智力洞察力、藝術創造力和其他所有人類獨有的能力上實現全方位超越的觀點持不同意見,他認為這絕不可能發生。而且,機器學習將把一種有著根本缺陷的語言和知識概念納入我們的技術,從而降低我們的科學水平和道德標準。他動情地談到:人類的大腦不像機器的“大腦”,它是一個極為高效甚至優雅的系統,只需要少量的信息即可運作;它尋求的是創造性解釋。它甚至可以說是神奇的。一個孩子也能無意識且迅速地從極少的數據中發展出語法,一個由邏輯原則和參數組成的復雜系統。
情況可能的確是這樣,“機器大腦”將降低我們的道德甚至科學水平。但這只是指人類的道德和科學水平。
我同意喬姆斯基所說的人類與ChatGPT之間存在著極大差異,但不解他為什么沒有想到這種極大差異可能讓ChatGPT與人分道揚鑣,走出另外一條路來。他可能低估了機器的另外一種能力,它完全可以有自己的一套“語言”或“語法”,完全可以不走人類經過了千百萬年的自然進化之路而在很短的時間里就獲得一種自己的“語言”和算法。它也有可能哪一天對它已經掌握的、人類投喂給它的知識感到厭倦和不足,而另外開發出自己的知識領域。它甚至可能建立它自己的“道德標準”或不如說“行為規則”的體系,讓現在的人們已經宣布和公告的種種人工智能或機器人的道德規范體系轟然倒塌。
我們可以反向地思考一下,假設不是我們提問,ChatGPT回答,而是ChatGPT提問,我們回答。它可能會向我們提出一些我們覺得簡單、幼稚甚至愚蠢的問題,比如“人為什么要吃飯穿衣?人為什么會哀樂喜怒?哲學是什么?美是什么?”等等。
智能機器的眼里也許只有“物”,所有的東西——包括人——都是“物”,都是可以作為主人的“物”,也是可以作為仆人的“物”。它沒有像碳基
登錄后獲取更多權限
校對:趙立宇