世界不思議

科學家警告:如果超級智能機器要傷害人類,拔插頭也無法阻止


「人工智慧(AI)叛亂」聽起來像是科幻電影的情節,但這個概念是一項新研究課題。一個國際科研團隊設計了一種理論上的「遏制算法」,通過模擬AI,確保其在任何情況都不能傷害人類,但結果發現無法做到。

AI多年來一直讓人類著迷,我們對控制汽車、譜寫交響樂或在自己的遊戲中擊敗世界上最好棋手的機器感到敬畏。然而,巨大的力量伴隨著巨大的責任,全世界的科學家都在擔心超級智能系統可能帶來的危險。

據報導,包括馬克斯·普朗克人類發展研究所人類與機器中心的科學家在內的一個國際團隊研究表明,控制一個超級人工智慧是不可能的。

該團隊在分析過程中使用了阿蘭·圖靈(Alan Turning)於1936年提出的「停止」問題,該問題的重點在於電腦程式是否會得出結論並做出「停頓」的反應。

AD:韓國幸福持久口溶片 isentrips.com

據悉,在研究中,該團隊設計了一種理論上的「遏制算法」,通過先模擬人工智慧的行為,如果認為有害,則停止人工智慧的行為,從而確保超級人工智慧在任何情況下都不能傷害人類。

但仔細分析後發現,在目前的計算模式下,這樣的算法是無法建立的。

AD:韓國幸福持久口溶片 isentrips.com 韓國壯陽口溶片

也就是說,目前的算法並不具備阻止人工智慧的能力,因為命令AI不要毀滅世界,會在無意中阻止「遏制算法」自身的運行。

人類與機器中心主任伊亞德·拉赫萬表示,如果發生這種情況,將不知道「遏制算法」是否還在分析威脅,或者它是否已經停止遏制有害的AI。

基於這些計算結果,「遏制問題」是無法計算的,沒有一種算法可以找到判斷人工智慧是否會對世界產生危害的解決方案。

研究結果還證明,我們甚至可能不知道超級智能機器何時到來,因為決定一台機器是否表現出優於人類的智能與「遏制問題」屬於同一領域。

國際科研團隊的論文警告說,如果一台超級智能機器想要控制世界,傷害人類,拔掉插頭也無濟於事。

Related Articles

Back to top button