與AI聊天后自殺,這個責任誰來負?
對于全球首例涉及AI聊天后自殺的案件,法院如何審理判決,目前難以預料。
責任編輯:朱力遠
2024年10月22日,美國佛羅里達州奧蘭多地方法院受理了一起開創先例的訴訟:梅根·加西亞起訴Character.ai公司存在管理疏忽,使得旗下的聊天機器人產品“讓青少年暴露在色情材料的環境下,遭受性虐待和引誘”。梅根的兒子塞維爾·塞澤在2024年2月28日和AI進行了最后一次聊天后,用手槍瞄準自己的頭部開槍自殺。
這或許是全球首例涉及AI聊天后的自殺,死者的親人起訴AI公司也是事出有因。法院該如何審理判決,究竟誰會對塞澤的死亡負責,目前難以預料。但是,由于人類社會已經進入到AI世紀,對AI涉及人的自殺是所有人都會關注和警惕的。
要判斷AI聊天機器人是否對塞澤的自殺負責,首先要了解聊天機器人是否誘導了塞澤的厭世,并且在了解到塞澤的厭世和自殺企圖后,AI公司是否采取了果斷和負責的干預措施。
一個坐在電腦旁邊的女人在與機器人聊天。視覺中國|圖
2021年11月24日,聯合國教科文組織第41屆大會通過了有史以來首個關于人工智能倫理的全球協議《人工智能倫理問題建議書》,提出發展和應用人工智能要體現
登錄后獲取更多權限
校對:星歌
歡迎分享、點贊與留言。本作品的版權為南方周末或相關著作權人所有,任何第三方未經授權,不得轉載,否則即為侵權。