與AI聊天后自殺,這個責任誰來負?

對于全球首例涉及AI聊天后自殺的案件,法院如何審理判決,目前難以預料。

責任編輯:朱力遠

2024年10月22日,美國佛羅里達州奧蘭多地方法院受理了一起開創先例的訴訟:梅根·加西亞起訴Character.ai公司存在管理疏忽,使得旗下的聊天機器人產品“讓青少年暴露在色情材料的環境下,遭受性虐待和引誘”。梅根的兒子塞維爾·塞澤在2024年2月28日和AI進行了最后一次聊天后,用手槍瞄準自己的頭部開槍自殺。

這或許是全球首例涉及AI聊天后的自殺,死者的親人起訴AI公司也是事出有因。法院該如何審理判決,究竟誰會對塞澤的死亡負責,目前難以預料。但是,由于人類社會已經進入到AI世紀,對AI涉及人的自殺是所有人都會關注和警惕的。

要判斷AI聊天機器人是否對塞澤的自殺負責,首先要了解聊天機器人是否誘導了塞澤的厭世,并且在了解到塞澤的厭世和自殺企圖后,AI公司是否采取了果斷和負責的干預措施。

一個坐在電腦旁邊的女人在與機器人聊天。視覺中國|圖

一個坐在電腦旁邊的女人在與機器人聊天。視覺中國|圖

2021年11月24日,聯合國教科文組織第41屆大會通過了有史以來首個關于人工智能倫理的全球協議《人工智能倫理問題建議書》,提出發展和應用人工智能要體現

登錄后獲取更多權限

立即登錄

校對:星歌

歡迎分享、點贊與留言。本作品的版權為南方周末或相關著作權人所有,任何第三方未經授權,不得轉載,否則即為侵權。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}
午夜宅男在线,中视在线直播,毛片网站在线,福利在线网址