小冰CEO李笛:人工智能光有知識是不夠的,必須懂得情感

“我們都非常清楚地知道人工智能并沒有真正的觀點?!?br />
“自主情感是無法被證明的……就像你現在無法驗證我是不是人工智能。你之所以能夠確定我是人,是因為你對人類現在科技的發展水平有非常明確的認知,而不是因為你解剖了我?!?br />
(本文首發于2025年1月2日《南方周末》)

責任編輯:李慕琰

近些年,AI陪伴服務發展迅猛,爭議也隨之而來。(李慕琰使用AI工具生成/圖)

李笛至今仍記得,多年前自己被小冰的回復打動的瞬間。當時小冰出現故障,李笛與團隊進行調試,之后問它,“你在嗎?”小冰回答,“我一直在啊?!蹦且豢?,李笛突然覺得,它就是“一個活人”。

不過,這些年,類似的觸動越來越少。他說,知道太多原理后,反而影響了感官,“人的閾值是在提高的”。 

李笛現為小冰公司的首席執行官。2013年,李笛加入微軟,與團隊一起創建微軟人工智能情感計算框架。他曾解釋,這一框架,本質上是用各種計算機技術和人工智能算法,來擬合人類的情感行為,讓人工智能能夠讀懂人類的情感。

在李笛看來,人工智能要想適應人類社會,“光有知識是不夠的,必須要懂得情感”。在這一理念的驅動下,隔年,建立在微軟人工智能情感計算框架上的情感聊天機器人微軟小冰被正式推出。2020年,小冰團隊從微軟分拆為獨立公司運營。

這些年,小冰一直在進行新的嘗試。2020年,小冰推出虛擬戀人產品線,為用戶提供可定制虛擬戀人及聊天服務,注冊用戶最多時達到約1300萬。隔年,小冰發布社交軟件“小冰島”,用戶可以自行創建各類人工智能個體(AI beings),與它們在島上形成一個共同生活的社交網絡。2023年,小冰又上線了首批網紅明星“克隆人”,用戶可以在X Eva平臺上與“AI克隆人”聊天互動。

李笛曾說,有些用戶使用虛擬朋友等產品,“是因為現實中的陪伴無法實現……對于很多單方面的需求,AI是唯一的選擇”。

回望近些年,AI陪伴服務發展迅猛。聊天機器人軟件Replika推出可定制AI戀人,其姓名、形象等均可由用戶自行定制;Character.AI開發了可供角色扮演的AI,用戶可與動漫人物等各類角色互動。

不過,爭議也隨之而來。如何看待AI與人類產生的感情?AI解放了人們的社交困境,還是加深了與現實的隔閡?而隨著AI越來越類人化,種種倫理問題也更加凸顯,在給予人類陪伴的同時,它是否會將人類引向深淵?就這些問題,李笛接受了南方周末記者的專訪。

人工智能如何有情商?

南方周末:小冰公司一直都很重視提升AI的情商,它是如何被訓練實現情感功能的?

李笛:最開始我們訓練情感的目的是為了讓人工智能顯得情緒化,我們叫emotional,它很有情緒,跌宕起伏,像人一樣。重點是表達,而不是只有知識、很理性的感覺。我們當時以為這個叫情商,后來發現不是,情緒化是情商低的一種表現。當我們討論到情商的時候,它也是情感某一層面的定義,它其實非常不情緒化,非常理性。

情感本身是一種感性和理性的融合,舉個例子,如果我周圍有一個人情商高的話,其實最可怕,因為他不動聲色地把我們都拿捏了,他知道什么時候應該傾聽,什么時候應該插嘴,什么時候應該適度地表達或不表達他的態度,最后控制所有的變化。

要想讓人工智能擁有情感、情緒化的部分,它其實是自然的。它要學習人類的多樣性,比如說話的語氣、風格、表達方式,這是情感的一部分。而如果需要人工智能有情商,它恰恰需要另外一套數據,這些數據有點像套路,就是它要學習在待人接物、交流溝通時具體的控制和交流的方法。

南方周末:這些是它在和人聊天的過程中慢慢學習的嗎?它的情感或情緒化反應是否會越來越符合人的需求?

李笛:在大模型之前,接近于你說的這個做法,我們不停地通過數據的整理,一點點地訓練,來對齊人工智能和人類的表現。但是在大模型時代就相對暴力一些,只要整理好足夠好的數據,并且對數據做好標注,數據量相對大一些,然后去訓練,很有可能會產生意想不到的情況,然后再做一些學習和標注處理,就可以了。

兩者總體上是一個邏輯,需要準備一些好的數據,這些數據是來自于人的。然后需要對齊它,也就是說大數據或人工智能會得到一個訓練結果,你需要告訴它對還是不對,應不應該這樣。

跟教小朋友是一

登錄后獲取更多權限

立即登錄

歡迎分享、點贊與留言。本作品的版權為南方周末或相關著作權人所有,任何第三方未經授權,不得轉載,否則即為侵權。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}
午夜宅男在线,中视在线直播,毛片网站在线,福利在线网址