人工智能:造成可怖未來的是人類

智能武器太容易被軟件工程師轉變成無差別殺戮機器

不幸的是,最近許多對人工智能武器的呼聲都是對機械人接管人類的混亂想象。這種場景在近未來時代是不可行的,但AI武器實際上確實存在由人類控制的常規武器所沒有的危險,並且有着很好的理由禁止它們。

我們已經從谷歌自主駕駛汽車裡一瞥人工智能的未來。現在想象某個凶狠的暴力團偷了一輛這樣的車,並把它重新編程去撞人,這就是一件AI武器。

人工智能:造成可怖未來的是人類

這些武器的潛在可能並未逃過政府注意。今年我們已看到美國海軍宣布開發自主無人機武器的計劃,以及韓國的超級盾II型自動炮塔和俄國M平台自動戰鬥機器。

但是政府並不是製造AI武器的唯一玩家。想象一個搭載GoPro相機的四軸無人機,這種東西誰都能買到;再想象能讓它自動飛行的簡單軟件。武器化無人駕駛汽車的同一個邪惡暴力團只有一步之遙,就會在上面裝一支槍,並編程讓它朝公眾人群開火。

人工智能:造成可怖未來的是人類

這是AI武器的直接危險:它們很容易就能轉變為無差別死亡機器,比有人類掌舵的同樣武器危險得多。

人工智能:造成可怖未來的是人類

* * *

斯蒂芬·霍金、Max Tegmark、偕同伊隆·馬斯克和其他許多人都簽署了禁止AI武器的「生命未來」請願,主持該請願的機構今年一月收到了馬斯克的1,000萬美元捐款。隨後聯合國在四月召開了關於「殺手機械人」的會議,但沒有取得任何持久的政策性決議。伴隨生命未來請願的公開信表示AI武器的危險迫在眉睫,需要最早在幾年內就採取行動避免災難。不幸的是,它並沒有解釋近在眼前的是怎麼樣的AI武器。

人工智能:造成可怖未來的是人類

不像具有自我意識的計算機網絡,帶機槍的自主駕駛汽車現在就可能有

許多人對《終結者》般的末日場景表達了擔憂,這種情況中機械人完全自發地發展出了與人類相似的與世界互動能力,並嘗試征服世界。例如,物理學家和天文學家Martin Rees爵士警告這樣的災難性場景:「蠢機械人失控,或者一個網絡發展出了自己的頭腦。」他在劍橋的同事和哲學家Huw Price表示了類似的憂慮,當智能「逃逸出生理局限」時,人類可能無法倖存。兩人共同創辦了劍橋大學存在性風險研究中心來幫助避免威脅人類存在的此類強烈風險。

這些場景當然值得研究。但它們的可行性和急迫性遠比不上正在眼前的AI武器風險。

人工智能:造成可怖未來的是人類

我們離開發出類似人類的人工智能有多接近?按照所有的標準回答都是:不是很近。雷丁大學的聊天機械人「尤金·古斯特曼」被眾多媒體報道為真正智能,因為它成功地騙過了幾個人類相信它是一個真正的13歲男孩。然而,結果發現這個聊天機械人離真正的類人智能相距甚遠,計算機科學家Scott Aaronson第一個問題就完爆了尤金:「鞋盒和珠穆朗瑪峰哪個更大?」完全答非所問以後,又回答不出「駱駝有幾條腿?」國王原來是完全赤果果的。

儘管如此,本文筆者都簽署了反對AI武器的生命未來請願。原因是:不像具有自我意識的計算機網絡,帶機槍的自主駕駛汽車現在就可能有。這種AI武器的問題不在於它們正處於接管世界的邊緣,而在於它們不費吹灰之力就能重新編程,允許任何人以白菜價創造高效率的無差別殺戮機器。機器本身沒有可怕之處,任何半吊子黑客以相對低廉成本用它們能做的事情才是可怕的。

人工智能:造成可怖未來的是人類

想象一下,一個上位的暴君以公民政治傾向、地址、照片數據庫作為武裝,想要清除異己。昨天的暴君會需要士兵組成的軍隊來完成這個任務,而這些士兵可能被愚弄、賄賂,或喪失冷靜殺錯人。

明天的暴君只需採購幾千架機關槍無人機。歸功於摩爾定律,自從晶體管發明以來每美元計算能力呈指數增長,帶有合理的AI的無人機價格有一天會像一支AK-47一樣平易。三四個同夥的軟件工程師能重新編程無人機去異議者的住家和工作地點附近巡邏,並對其格殺勿論。無人機更少犯錯,它們不會被賄賂或哭訴動搖,最重要的是,它們比人類士兵高效得多,允許野心勃勃的暴君在國際社會能夠發出響應前就掃平批評者。

人工智能:造成可怖未來的是人類

改裝AI機器用於毀滅性目的會比改裝核反應堆容易得多

因為自動化帶來的巨大效率增長,AI武器會降低瘋狂的個人尋求犯下這種暴行的進入門檻。曾經是擁有整支軍隊的獨裁者的禁臠,將會讓中等富有的個人觸手可及。

有興趣開發這種武器的製造商和政府們會聲稱它們能設計適當的保險措施,確保它們不能被重新編程或破解。對這種聲稱應持懷疑態度。電子投票機、取款機、藍光播放器,甚至飛馳在高速路上的汽車最近都被破解過,儘管它們都標榜着安全性。歷史證明,一個計算設備往往最終會屈服於動機充足的黑客重新利用它的企圖。AI武器也不大可能例外。

* * *

人工智能:造成可怖未來的是人類

早在1925年國際條約已經禁止在戰爭中使用化學武器和生物武器,空尖彈的使用在甚至更早的1899年就被禁止,理由是這些武器產生極端的並且不必要的痛苦。它們特別容易造成平民傷亡。所有這些武器都很容易造成無差別痛苦和死亡,所以它們被禁止。

人工智能:造成可怖未來的是人類

是否有一類AI機器同樣值得禁止?答案是明確的肯定。如果一個AI機器能被便宜地輕易轉變成高效的無差別大規模殺戮設備,那就應該有反對它的國際公約。這種機器與放射性金屬無異,他們可以用於合理目的,但我們必須小心地控制它們,因為它們能被輕易轉變為毀滅性武器。而區別是改裝AI機器用於毀滅性目的會比改裝核反應堆容易得多。

人工智能:造成可怖未來的是人類

什麼算是智能,什麼算是武器?

我們應該禁止AI武器不是因為它們不道德,我們應該禁止它們是因為人類會使用網上容易找到的改裝和破解把AI武器轉變成猙獰嗜血怪獸。一段簡單的代碼就會把很多AI武器轉變成殺戮機器,媲美化學武器、生物武器和空尖彈最惡劣的暴行。

* * *

禁止某些種類的人工智能需要糾結一系列哲學問題。AI武器禁令會阻止美國戰略防禦計劃(俗稱星球大戰導彈防禦)嗎?汽車能被用作武器,那麼請願是否提議在英國城市禁止部署谷歌自主駕駛汽車,或者所有自主駕駛汽車?什麼算是智能,什麼算是武器?

人工智能:造成可怖未來的是人類

這些都是困難和重要的問題。然而,它們並不需要在我們同意制定一項公約來控制AI武器前就被回答。什麼是可以接受的限度必須由國際社會通過科學家、哲學家,以及計算機工程師的建議予以認真考慮。美國國防部已經在某種意義上禁止了完全自治武器,現在是時候完善和擴展這一禁令到國際水平。

當然,沒有一個國際禁令能完全阻止AI武器的擴散。但這並不是放棄禁令的理由。如果我們作為一個社會認為有理由禁止化學武器,生物武器和空尖彈,那同樣也有理由禁止AI武器。

人工智能:造成可怖未來的是人類

The Atlantic

想收到更多趣味新聞?請按讚!