人工智能界(AI)掀起前所未見的示警浪潮。周三(10月22日),包括蘋果公司共同創辦人Steve Wozniak和維珍集團創辦人Richard Branson在內的850多位公眾人物和專家,聯名簽署一份公開聲明,呼籲各界立即停止研發「超級智能」(superintelligence),這是一種幾乎在所有認知上都能超越人類的AI技術。

這份《超級智能聲明》(Statement on Superintelligence),由AI領域的多位重量級學者率先發起,其中包括被譽為現代AI「教父」的兩位電腦科學家:Yoshua Bengio和Geoff Hinton,以及加州大學伯克利分校的AI領域權威Stuart Russell等人。

聲明警告,若不加限制地推進超級智能研發,恐將導致「人類經濟地位被取代、自由和尊嚴喪失、國家安全受威脅,甚至可能造成文明滅絕」。

簽署者呼籲全面禁止研發超級智能,直到各國能夠獲得強烈的公眾支持和科學界共識,並確保相關技術能被安全建構和控制。

該聲明獲得了各領域人士的支持,簽名者不僅有科技和學術界人士,還有宗教領袖、媒體名人和美國兩黨前政要。其中包括前參謀長聯席會議主席Mike Mullen、前國家安全顧問Susan Rice,以及保守派媒體人Steve Bannon和Glenn Beck。

英國的哈利王子和妻子梅根、前愛爾蘭總統Mary Robinson也在聯署名單中。截至周三,名單人數仍在不斷增加。

目前,超級智能已成為人工智能領域的一個熱門詞,各家公司——從馬斯克(Elon Musk)的xAI 到奧爾特曼(Sam Altman)的OpenAI——都在競相發布更先進的大型語言模型;Meta公司甚至將其大型語言模型部門命名為「Meta超級智能實驗室」。

值得注意的是,像馬斯克和奧爾特曼這樣全球AI產業的領軍人物,過去也多次公開警告「超級智能」的風險。早在2015年,奧特曼就指出,「超人類機器智能(SMI)的發展,很可能是人類持續存在的最大威脅」。今年早些時候,馬斯克在一個播客節目中表示,先進AI導致人類滅絕的機率「約有20%」。

《超級智能聲明》引用「未來生命研究所」(Future of Life Institute)的一項最新調查指出,僅有5%的美國成年人支持目前「快速且不受監管」的超級智能開發,而大多數受訪者認為,在證明「超級智能」技術安全和可控之前,不應繼續推進,並呼籲政府加強對AI實施嚴格管控。

Bengio在聲明中指出,AI系統可能在幾年內,在大多數認知中超越大多數人。它可能幫助人類解決全球問題,但也存在著巨大風險。「為了安全邁向超級智能,我們必須以科學方法設計AI,使其從根本上無法傷害人類。」他說,「我們還需要確保公眾在決定我們共同未來的事項上擁有更大的發言權。」#

----------------------
【新】📊 每周財經解碼
https://tinyurl.com/2asy8m4p
🔑 談股論金
https://tinyurl.com/yc3uda7e
----------------------
【不忘初衷 延續真相】
📰周末版實體報銷售點👇🏻
http://epochtimeshk.org/stores

🔔下載大紀元App 接收即時新聞通知:
🍎iOS🤖Android