site logo: www.epochtimes.com

AI會帶來災難性後果 加拿大準備好了嗎?

2022年10月11日,英國倫敦上議院會議室。 機器人艾達向通信和數碼委員會成員發表首次演講。(Rob Pinney/Getty Images)
人氣: 974
【字號】    
   標籤: tags:

【大紀元2024年03月18日訊】(大紀元記者王蘭多倫多報導)一家領先的人工智能安全公司本週警告稱,包括加拿大在內的各國已經沒有足夠的時間來設計和實施先進人工智能(AI)系統開發和部署的全面保障措施。

據CBC報導,人工智能研究人員在美國國務院委託撰寫的一份報告《縱深防禦:提高先進人工智能安全性的行動計劃》中寫道,在最壞的情況下,追求權力的超人人工智能系統可能會逃脫其創造者的控制,並對人類構成「滅絕級」的威脅。

該部門堅持,作者在報告中表達的觀點不反映美國政府的觀點。

但該報告傳達的信息,使加拿大政府迄今為止在人工智能安全和監管方面的行動,重新成為人們關注的焦點——一位保守黨議員警告說,政府提出的《人工智能和數據法案》已經過時了。

人工智能與所有人的較量

倡導負責任地開發安全人工智能的美國公司Gladstone AI撰寫了這份報告。它的警告分為兩大類。

第一個問題涉及人工智能開發人員失去對通用人工智能(AGI)系統控制的風險。 作者將AGI定義為一種可以在所有經濟和戰略相關領域超越人類的人工智能系統。

雖然迄今為止還不存在通用的人工智能系統,但許多人工智能研究人員相信它們離實現並不遙遠。

「有證據表明,隨著先進人工智能接近人類和超越人一般能力的AGI水平,它可能會變得實際上無法控制。具體來說,在缺乏對策的情況下,能力很強的人工智能系統可能會從事所謂的權力尋求行為。」作者寫道,並補充說,這些行為可能包括防止人工智能本身被關閉或改變其目標的策略。

作者警告說,在最壞的情況下,這種失控「可能對人類構成滅絕級別的威脅」。

「這些系統開始變得本質上危險的創造性的風險。他們能夠發明危險的創造性策略來實現其編程目標,同時產生非常有害的副作用。所以這就是我們正在考慮的失去控制的風險。」該報告的作者之一、Gladstone AI首席執行官傑里米·哈里斯(Jeremie Harris)週四在接受CBC採訪時表示。

報告中提到的第二類災難性風險是先進人工智能系統作為武器的潛在用途。

「一個例子是網絡風險。」哈里斯說,「例如,我們已經看到了自主代理。你現在可以轉到其中一個系統並詢問,『嘿,我希望你為我構建一個應用程序,對吧?』 這是一件了不起的事情。它基本上是軟件工程的自動化。整個行業。這是一件非常好的事情。」

「但是想像一下同一個系統……你要求它執行大規模的分布式拒絕服務攻擊或其它一些網絡攻擊。其中一些非常強大的優化應用程序的訪問壁壘下降了,並且惡意軟件的破壞性使用這些系統隨著它們變得更強大而迅速增加。」

哈里斯警告說,先進人工智能系統的濫用可能會擴展到大規模殺傷性武器領域,包括生物和化學武器。

該報告提出了以美國為首的各國應採取的一系列緊急行動,以防範這些災難性風險,包括出口管制、監管和負責任的人工智能開發法。

加拿大的立法已經失效了嗎?

加拿大目前沒有專門針對人工智能的監管框架。

政府於2021年11月推出了《人工智能和數據法案》(AIDA),作為C-27法案的一部分。該法案旨在為加拿大負責任地設計、開發和部署人工智能系統奠定基礎。

該法案已在眾議院二讀通過,目前正在由工業和技術委員會進行研究。

聯邦政府還於2023年推出了《先進生成人工智能系統負責任開發和管理自願行為準則》,該準則旨在暫時為加拿大公司提供共同標準,直至AIDA生效。

在週五(3月15日)的新聞發布會上,工業部長商鵬飛(François-Philippe Champagne)被問到,鑒於人工智能報告中警告的嚴重性,為什麼他仍然相信政府擬議的人工智能法案有能力監管快速發展的技術。

「每個人都在稱讚C-27。」商鵬飛說,「我有機會與我的七國集團同事交談……他們認為加拿大處於人工智能的最前沿,你知道,建立信任和負責任的人工智能。」

保守黨議員加納(Michelle Rempel Garner)在接受CBC採訪時表示,商鵬飛對C-27法案的描述完全是無稽之談。

加納表示:「專家們在委員會的證詞中並不是這麼說的,這也不是現實。C-27已經過時了。」

AIDA是在世界領先的人工智能公司之一OpenAI於2022年推出ChatGPT之前推出的。人工智能聊天機器人代表了人工智能技術的驚人演變。

加納說:「事實上,政府沒有實質性地解決在技術發生根本性變革之前提出這項法案的事實……這有點像在印刷機廣泛使用後試圖監管抄寫員。政府可能需要重新開始。」

「到AIDA生效時,將是2026年。前沿人工智能系統的規模將比我們今天看到的擴大數百到數千倍。」哈里斯告訴國會議員,「AIDA的設計需要考慮到這種風險水平。」

哈里斯告訴委員會,AIDA需要明確禁止引入極端風險的系統,解決危險強大的人工智能模型的開源開發問題,並確保人工智能開發人員承擔確保其系統安全開發的責任,其中包括防止國家和非國家行為者的盜竊行為。

哈里斯對議員們表示:「AIDA是對現狀的改進,但它需要進行重大修改,才能應對近期人工智能能力可能帶來的全面挑戰。」

責任編輯:嚴楓#

評論