邪惡AI,能邪惡到什麼程度?

人工智能——最壞的結果會是啥?對路易斯維爾大學的計算機科學家Roman Yampolskiy而言,它們可以為所欲為。同未來主義者Federico Pistono共同協作下,他提出了一系列邪惡AI的最糟糕設想:

建立軍隊(發展網絡武器和機械人士兵來實現統治),控制政府(用AI建立霸權,控制人們,或者推翻其他政府),操縱企業(實現壟斷,通過非法手段消滅競爭);以及催生黑帽子黑客,惡棍,末日邪教和罪犯。

Yampolskiy認為預先想到最可怕的結果可以幫助人類預防災難,就如同網絡安全專家尋找脆弱點一樣。他說:「思考AI的標準框架一直都是為了提出新的安全機制」,但是用網絡安全的思維模式來觀察這個問題可以提供全新的視角:列出所有可能的壞消息,從而更好地測試我們將會用到的防範措施。

Yampolskiy和Pistono設想的一些災難場景包括讓人類自相殘殺。在其中一個場景中,一個AI系統發動了一場全球宣傳戰爭,讓政府和人群站在的對立面上,讓「整個行星成為一台混亂的機器」。

他們的工作得到了埃隆馬斯克旗下一家基金會的贊助,他本人就將AI稱為「人類生存的最大威脅」。斯蒂芬霍金也表達過類似的擔憂。

邪惡AI,能邪惡到什麼程度?

杞人憂天?

然而並非所有人都會擔心。倫敦大學金斯密斯學院的Mark Bishop就認為這些恐懼太誇張了。中國互聯網巨頭百度的首席科學家Andrew Ng則把擔心殺人機械人比作擔心火星人口膨脹。

但是Yampolskiy援引了微軟的推特聊天機械人Tay滿口跑火車的例子。雖然這無傷大雅,但是Yampolskiy說這場意外揭示了這類系統的不可預測性。他說:「研究者沒有料到這個結果。」

他補充說:「我不僅僅想要看到我們提出解決方案。我希望你們提出安全機制時再反問自己能不能打破它。」

英國謝菲爾德大學的AI研究者Noel Sharkey就讚同用網絡安全的思路測試任何系統,尤其是自主武器。但是跟Bishop和Ng一樣,他也同樣懷疑AI的普遍威脅。他說:「一個邪惡的超級智慧人工智能仍然只存在科幻作品和想象之中。」

newscientist

想收到更多趣味新聞?請按讚!