AI的“傲慢與偏見”
數據是AI的重要基石,然而數據往往摻雜著某些社會偏見,例如對特定國家、文化、種族、性別或年齡的偏見。使用帶有偏見的數據訓練AI模型,會導致AI系統在分析和預測中復刻甚至放大這些偏見。AI發展中暴露的第二個問題是:數據分析的“巨人”與理論建設的“矮子”。此外,AI在與社會科學的交匯中,還面臨一系列社會倫理問題。
隨著AI的快速發展,各種翻譯工具應運而生,大幅提升了日常對話和簡單文字的翻譯效率,AI“取代”人工翻譯的印象同時在社會中迅速蔓延,然而與業界人士的交流表明,AI在中高端翻譯領域仍然難以完全取代人類。
與其糾結于“誰取代誰”的假設,不如聚焦AI發展中存在的問題及其解決方案,這顯然更具現實意義。當務之急是學會利用AI這一超級工具,更快速、精準地解析人類社會現象,解決其發展過程中暴露的問題,并在此基礎上推動人工智能朝著更加有利于人類生活的方向邁進。
責任編輯:姚憶江
在過去二三十年間,AI取得了飛速發展。1997年,計算機首次戰勝國際象棋世界冠軍;2016年,它又擊敗了韓國職業圍棋選手李世乭;2017年,計算機連續三局戰勝了世界排名第一的中國圍棋九段選手柯潔。這些輝煌勝利大大提升了人們對AI的期望。
除了圍棋等競技項目,AI正被廣泛應用于人類社會的各個領域,例如馳騁于戰場上、由人工智能控制的無人機和機器狗,虛擬教師、虛擬翻譯、虛擬心理咨詢師、虛擬醫生、虛擬理財顧問的涌現。一時間,人工智能全面取代人類智能的可能性似乎變得觸手可及。AI的發展為人類社會帶來了革命性的影響。掌握人工智能者,便掌握了未來世界的主動權。各國政府都在不遺余力地爭奪這一技術制高點。
不過,本文想探討的問題并不是如何搶占這些制高點,而是AI發展和應用過程中暴露出的一些問題。這些問題大致可以歸納為三類:AI的有限客觀性、其理論貢獻的局限性以及對人類社會倫理的挑戰。
AI復刻甚至放大偏見
數據是AI的重要基石。作為AI模型成長發展的“糧食”,數據可能來自網絡平臺、社交媒體、歷史檔案、政策文件或學術著作等諸多渠道。然而,這些數據往往摻雜著某些社會偏見,例如對特定國家、文化、種族、性別或年齡的偏見。使用帶有偏見的數據訓練AI模型,會導致AI系統在分析和預測中復刻甚至放大這些偏見。
例如,AI工具在分析犯罪數據時,可能會無意中強化對某些少數群體的負面刻板印象,進而做出帶有歧視性的預測,導致研究結果失真。
再如,現在許多跨國公司(如亞馬遜和谷歌)利用AI評估和篩選求職簡歷。然而,這些AI系統往往已經受到了主流社會中對性別、種族和宗教等社會偏見的系統性影響。完全依賴這些系統可能會讓偏見以更隱蔽的方式得到延續甚至強化,進一步擴大社會不平等。要糾正AI產生的偏見和歧視,就需要訓練有素的社會科學家通過人工或人文識別的方式鑒別人工智能的分析結果,提出修正建議,以確保系統的公正和可靠。
與數據客觀性緊密關聯的另一個問題是,AI可能對公眾輿論和社會情緒產生操控效應。通過數據分析和內容推薦
登錄后獲取更多權限
校對:星歌 吳依蘭