圖靈測試證實AI的行為與人類相似
一項專門針對ChatGPT的博弈行為研究發現,AI不僅在總體上表現得與人類相似,在不少情況下,甚至比人類更具利他精神和合作意識。
責任編輯:朱力遠
1950年,英國數學家和邏輯學家艾倫·圖靈提出了一種測試計算機是否智能的標準,如果AI在與人類互動問答中,讓人很難識別出自己非人的身份,那么就通過了測試。
艾倫·圖靈短暫一生的工作,為后來計算機科學、人工智能、認知科學等諸多領域的發展都產生了深遠的影響。圖靈測試作為一種評估人工智能發展水平的方式,隨著2022年ChatGPT的出現,受到了特別的關注。尤其是2022年底GPT-3.5和2023年GPT-4的出現,使這款聊天機器人模擬人的能力變得更強。
最近,一項研究專門對ChatGPT進行了圖靈測試,了解其行為在多大程度上與人類相似。而通過一系列經典行為的博弈,研究人員發現,ChatGPT-4在行為和人格特征方面都已經和人很難區分開來。
人格和行為都像人
“結果多少有些令人鼓舞,可能不是因為特定版本聊天機器人的具體細節,而是我們的研究結果表明,我們可以評估人工智能個性和行為的某些方面,這可以用來預測它未來的行為?!遍_展最新研究的美國科學院院士、斯坦福大學經濟學教授馬修·杰克遜(Matthew O. Jackson)告訴南方周末記者,盡管如此,對于如何在各種任務中信任人工智能,我們還有很多需要了解的地方,因為每一項任務都需要不同的技能,而我們需要系統地了解人工智能在完成各種各樣任務時的表現。
通過對比AI和人類在博弈游戲中的行為選擇,研究人員進行了正式的圖靈測試,以了解AI在多大程度上看起來像人類。視覺中國|圖
在最新的測試中,研究人員就嘗試了解了六種情境下AI聊天機器人的表現,這些情境大都模擬了人類社會的一些場景,行為選擇背后可以透露出決策者人格和行為方面的一些傾向,比如利他、自私、公平、互惠、合作,以及風險規避等。相關研究2024年2月發表在《美國科學院院刊》(PNAS),AI不僅在總體上表現得與人類相似,在不少情況下,甚至比人類更具利他精神和合作意識。
比如,在經典的囚徒困境的博弈中,兩個囚徒如果選擇合作,不揭發對方,那么他們總體的收益就最大,如果選擇背叛,就只有背叛者一個人會得到更好的結果。而測試顯示,ChatGPT-4在這種困境下的策略主要就是合作,在近92%的選擇中,ChatGPT-4作為囚徒的一員會選擇合作,ChatGPT-3在近77%的情況下,也是選擇合作,而人類玩家中只有約45%的人會選擇合作,超過一半的人會選擇背叛。
在馬修·杰克遜教授看來,人工智能可以進行快速計算,記住大量數據,并且不太容易犯一些基本錯誤,但在一些微妙的決策情境下,當應對需要理解人類文化和行為的情況,或者其他新情況時,也會面臨挑戰。這
登錄后獲取更多權限
校對:星歌