ChatGPT會給世界帶來意想不到的風險嗎?
AI模型不斷增長的復雜性和能力有可能帶來潛在的問題,因為模型能夠開發出我們無法控制的新技能;對于某些風險很高的算法,應該未雨綢繆,提前應對。
(本文首發于2023年2月23日《南方周末》)
責任編輯:朱力遠
2022年以前發布的語言模型幾乎沒有解決心智任務的能力,但進入2022年之后,情況有了很大改變。在實驗測試中,GPT-3可以解決70%的心智任務,相當于七歲兒童的表現,而GPT-3.5可以解決93%的心智任務,相當于九歲兒童的表現。
人工智能應用ChatGPT發布僅三個月就火遍全球。這款語言模型AI工具可以回答用戶提出的問題,并以對話的形式進行互動。按照開發者OpenAI的介紹,在互動中它還能糾正提問中的錯誤,以及拒絕一些不適當的要求。
令人意想不到的高水平回答問題能力使其很快受到追捧,應用場景甚至包括幫學生寫論文等。為了學生學習考慮,紐約市教育部門已禁止在當地學校的網絡和設備上使用該應用。而隨著ChatGPT為越來越多人所知,其潛在的社會風險也受到各界的討論。
最近,著名語言學家、哲學家、麻省理工學院退休教授諾姆·喬姆斯基(Noam Chomsky)就評價一些ChatGPT的用法基本上是在用高科技抄襲來逃避學習。因為校園論文剽竊本身就是教育和科研領域一個老問題,而ChatGPT幫助一些人剽竊起來更容易了,這也將使教育工作者解決這個問題的過程變得更難。而實際上,ChatGPT目前不僅會寫詩歌、寫論文,憑借其不斷訓練中習得的語言能力,看似簡單的對話背后可能還蘊藏著其他暫不為人知的能力以及風險。
計劃外的心智能力
“AI模型不斷增長的復雜性和能力意味著我們預測和管理它們行為的能力在不斷降低?!彼固垢4髮W計算社會科學家米哈爾·科辛斯基(Michal Kosinski)告訴南方周末記者,我們應該更加小心地朝前走,認真對待其可能帶來的潛在問題,因為“模型能夠開發出我們無法控制的新技能和能力”。
之所以有這樣的判斷,是因為米哈爾·科辛斯基最近剛剛開展一項大型語言模型研究,表明人工智能工具可能擁有一些像人類一樣的心智能力,以推測其他人的心理狀態,從而在跟人互動時不斷提高自己的語言能力。但是,這樣的心智能力此前一
登錄后獲取更多權限
網絡編輯:蓁蓁