為什么殺人機器人比核武器更危險?

為武裝到牙齒的自主機器人編寫程序,讓它們遵守道德準則是否可行?

責任編輯:朱力遠

世界各地涌現出各種各樣的活動,旨在加速關于致命性自主武器系統的國際討論,促使各國放棄研發和使用這種危險的武器。(環球科學供圖/圖)

為武裝到牙齒的自主機器人編寫程序,讓它們遵守道德準則是否可行?作家艾薩克· 阿西莫夫在1942年提出的機器人定律現在成了炙手可熱的話題。如今的科技已經發展到可以制造出這樣的機器人:它們一旦被授予使命后,會自發地作出殺人甚至暴動的決定。

2029年,人類和智能機器人之間的一場大戰打響:機器人“終結者”被派到過去,奉命殺死約翰·康納(John Connor)的母親莎拉·康納(Sarah Connor)——這是由詹姆斯·卡梅?。↗ames Cameron)于1984年創作的5部系列電影的序曲??苹梦膶W的創作者并沒有料想到,如今的科技已經發展到可以制造出這樣的機器人:它們一旦被授予使命后,會自發地作出殺人甚至暴動的決定。

這些機器人殺手在國際軍備討論中有一個恰如其分的名字:LAWS(Lethal Autonomous Weapons Systems,致命性自主武器系統)。這種機器人已經登上了歷史的舞臺,將它們帶到戰場上會引起各種各樣的爭議:如何定義這些機器人?它們到底能做什么?更不用說與人類士兵一同出現在戰場時所造成的倫理問題。

從1942年開始,著名的美籍俄羅斯裔科幻作家艾薩克·阿西莫夫在《驚奇科幻小說》(Astounding Science Fiction)上提出了機器人的倫理問題。今天,阿西莫夫被世人視為機械倫理學(roboethics)之父。這門哲學學科催生了許多相關的研討會和無數的書籍,在美國尤其如此。阿西莫夫在1942年出版的小說《轉圈圈》(Runaround)中描述了機器人三定律。他提出,所有的機器人程序都必須考慮到這三條定律,目的是為了約束這些自主機器的行為,讓它們服從以保護人類為目的的強制性道德準則。

機器人定律

第一定律:機器人不得傷害人類,或坐視人類受到傷害;

第二定律:除非違背第一法則,否則機器人必須服從人類的命令;

第三定律:在不違背第一及第二法則下,機器人必須保護自己。

此后,阿西莫夫又添加了一條定律:

第零定律:機器人不得傷害人類族群,或因不作為使人類族群受到傷害。

遵守這些定律時引發的困局是阿西莫夫所著的500本書籍的主題。他嚴肅地思考了這些定律的意義,并想象了這些定律被采納時發生的情形。有這樣一段軼事,當斯坦利·庫布里克(Stanley Kubrick)的電影《2001:太空漫游》(2001: A Space Odyssey)放映時,阿西莫夫氣沖沖地沖出了影院,因為電腦HAL 9000違反了他制定的第一定律:HAL殺害了“發現者”1號飛船(Discovery One)的船員。然而時至今日,阿西莫夫關于機械倫理的設想并未如愿:如今的機器人并沒有安裝強制它們服從機器人定律的機制或指令。為什么會這樣呢?

無法服從機器人定律

現在的機器人擁有的功能和人們當初設想的不太一樣??萍疾]有讓我們憑空創造出和自己一樣的東西,我們并不能像對待奴隸或傭人那樣命令并指使它們。機器人以及智能系統的產生并不是一蹴而就,因為科技總是沿著意想不到的方向前進。這樣一來,如何

登錄后獲取更多權限

立即登錄

網絡編輯:佳凝

歡迎分享、點贊與留言。本作品的版權為南方周末或相關著作權人所有,任何第三方未經授權,不得轉載,否則即為侵權。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}
午夜宅男在线,中视在线直播,毛片网站在线,福利在线网址