人工智慧將毀滅人類

恐引發軍備競賽 千名科學家:別開發殺人機器人

人氣 106
標籤:

【大紀元2015年07月29日訊】(大紀元記者凌妃綜合報導)正當人類正在享受人工智能(Artificial Intelligence, AI)所帶來的便利之際,一群憂心人工智能發展的科學家,包括霍金、馬斯克和喬姆斯基,公開呼籲更多政府與國際組織應該站出來控管人工智能在機器人武器的發展,以避免第三波全球軍事競爭革命。

據英國《獨立報》(The Independent)7月27日報導,一封來自於上千位知名科學家的公開信表示,殺人武器將在幾年之後就問世,而不是數十年後。人類需要有更高的智慧主導人工智能,因為當人類失去對致命武器的控制權時,可能就是人類災難的開始。

知名科學家公開要求禁止「殺人機器人」

簽署這封公開信的科學家、機器人專家以及人工智能研究員超過1,000人,包括霍金(Stephen Hawking)、科技人馬斯克(Elon Musk)與「美國人的良心」哲學家、麻省理工教授喬姆斯基(Noam Chomsky)。此外,還包括蘋果(Apple)共同創始人沃茲尼亞克(Steve Wozniak)以及數百名來自全球頂尖大學與實驗室的人工智能機器人研究員。

生命未來研究所(Future of Life Institute, FLI)也加入連署,該組織旨在減輕人類所面臨的生存風險,並警告「軍事人工智能軍備競賽」的危險性。

公開信要求禁止「進攻性自主式武器」(Offensive Autonomous Weapons),也就是所謂的「殺人機器人」(Killer Robots)。「殺人機器人」是指,在沒有人操作的情況下,機器人完全掌控生殺大權,能夠自動選擇並瞄凖目標主動攻擊。

「殺人機器人」將威脅到人類存在

「殺人機器人」就像電影《機器戰警》(RoboCop)以及《魔鬼終結者》(Terminator)中執行任務的機器人。霍金警告,人類進一步開發人工智能,創造可以進行思考的機器武器,將會威脅到人類的存在。

特斯拉(Tesla)執行長馬斯克(Elon Musk)形容人工智能是「召喚惡魔」。他說:「我們應該很謹慎地處理人工智能。如果要我猜人類最大的生存威脅是什麼,我想那就是人工智能。」

「殺人機器人」恐引起全球第三波軍備競賽

公開信中強調,這些「殺人機器人」可能會根據程序設定自動搜索並毀滅人類,而不是像現在人必須在千里之外的非戰區操控武裝無人機。

部署人工智能系統在未來幾年內就將成為可能,不需要再等幾十年的時間。這些「進攻性自主式武器」已成為繼火藥和核軍備之後的第三波軍事競爭革命。當「進攻性自主式武器」落入恐怖分子或是獨裁者手中,世界則將陷入毀滅的威脅。

雖然實際的「殺人機器人」還沒真正問世,但是科技的推進已經讓它在不久的將來成為可能。這群專家認為,在未來幾年內,機器人武器的科技將變得廉價並無處不在,這恐將降低戰爭的門檻,使戰爭更常發生。

「禁止殺人機器人活動」

科學家也警告,不要過分強調人工智能將帶給人類的潛在好處,因為機器人武器的威脅更大。現在反對人工智能濫用的聲浪也越來越大,像是成立於2012年的「禁止殺人機器人活動」(Campaign To Stop Killer Robots),旨在禁止機器人武器。

「禁止殺人機器人活動」正積極地將該議題搬至在日內瓦召開的聯合國「傳統武器公約」(Convention of Conventional Weapons)會議上,「傳統武器公約」禁止某些特定傳統武器的使用,諸如地雷以及激光武器等。

「禁止殺人機器人活動」試圖讓「傳統武器公約」成立一個政府級的專家組織,以能夠真正探討這個議題,最終限制使用殺人機器人。

今年初,英國《衛報》報導,英國在聯合國的一個會議中反對禁止殺人機器人,因為他們「還看不到禁止自主式武器的必要性」,但英國外交部官員告訴《衛報》說,英國並沒有開發任何這種武器。

責任編輯:林妍

相關新聞
蘋果iPad和MacBook將改用OLED 撼動顯示器市場
搭機妙招超好用 iPhone一鍵揭航班狀態
韓國選舉管理系統漏洞多 恐遭中朝黑客攻擊
分析:馬斯克新AI計劃 如何最大程度尋真相
如果您有新聞線索或資料給大紀元,請進入安全投稿爆料平台
評論