機器人有時候必須抗命

隨著智能機器變得越來越自動化和普及,我們更應該擔心人為錯誤導致的危險,而不是超級人工智能的出現。我們有必要教會機器人說“不”,因為人有可能發出錯誤的指令,或有意無意地欺騙機器人。

責任編輯:朱力遠

機器人研究者已開始教機器一些基本的語言和處理能力,讓它們學會在何時以及如何對人類說“不”。圖中的機器人已經來到懸崖邊緣,這時候它對人類的命令“向前走,我會接著你”就必須說“不”。(環球科學供圖/圖)

(本文首發于2017年1月26日《南方周末》)

隨著智能機器變得越來越自動化和普及,我們更應該擔心人為錯誤導致的危險,而不是超級人工智能的出現。我們有必要教會機器人說“不”,因為人有可能發出錯誤的指令,或有意無意地欺騙機器人。

《2001太空漫游》(2001: A Space Odyssey)中的超級電腦HAL9000讓人們瞥見了一個恐怖的未來——具有智能的機器們決定不再服從人類。在控制了宇宙飛船并殺死大部分船員后,HAL9000用冰冷的聲音對一位要求打開艙門的返航宇航員說:“對不起戴夫,恐怕我不能開門。”最近的一部科幻電影《機械姬》(Ex Machina)中,機器人“艾娃”(Ava)誘騙了一個倒霉的年輕男子,讓他幫助自己殺死了創造自己的納森(Nathan)。“艾娃”的邪惡計劃似乎證實了納森絕望的預言:“有一天,人工智能機器看向我們時,就像現在的我們看著非洲平原上的化石殘骸。它們眼中只會看到一種說著粗魯語言,用著低級工具的直立行走著的猿類——一個注定要被淘汰的物種。”

盡管“機器人末日”在科幻世界中是個永不過時的題材,我們的研究團隊卻更喜歡用樂觀的態度,看待人工智能對真實生活的影響。我們猜想,在不久的將來,與人交互的輔助機器人,將遍布生活的方方面面。其實,如今智能手機上可用語音激活的小助手,就是這種機器人的雛型。它可以和各種電子設備連接,并監測設備狀態,可以控制家里的鎖、燈、空調等電器,甚至還

登錄后獲取更多權限

立即登錄

網絡編輯:瓦特

歡迎分享、點贊與留言。本作品的版權為南方周末或相關著作權人所有,任何第三方未經授權,不得轉載,否則即為侵權。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}
午夜宅男在线,中视在线直播,毛片网站在线,福利在线网址