【未解之謎】細思極恐 AI接管人類倒計時?

font print 人氣: 1347
【字號】    
   標籤: tags: , , , , ,

大家好,我是扶搖。歡迎和我一起探索未解之謎。

最近,一直話題不斷的OpenAI又爆出了個大新聞。

5月15日,OpenAI共同創辦人伊利亞‧蘇茨克韋爾(Ilya Sutskever)在X平台上正式宣布離職。他在離職聲明中說:「這家公司的發展超出許多人的想像,希望OpenAI可以打造一款安全又有益的通用人工智能(AGI)。」

話說得有點隱晦,但言外之意大家都懂,就是OpenAI開發的通用人工智能AGI很可能已經失控了!AGI,也就是Artificial General Intelligence,就是具備與人類同等智慧,甚至超越人類智慧的人工智能。AGI的誕生也意味著AI接管人類工作的時代到來了。

AGI接管人類?

事實上,就在蘇茨克韋爾宣布離開的前一天(5月14日),OpenAI正式公布了更高性能的AI模型GPT-4o,GPT-4o模型可以即時響應音訊、文字或圖像的任意組合,並且可以對三者的混合進行回應。

而這,也似乎坐實了之前在網上流傳的一份泄密文件的真實性。這份長達53頁的文件中說,能取代人類的AGI將在2027年後發布,也就是說,AI留給人類的時間只有3年了。

文件中說,OpenAI從2022年8月就在訓練125兆參數的多模態學習模型,而且已經在2023年12月完成了訓練。多模態模型是一種機器學習(ML)模型,能處理圖片、影片和文字等不同型態的資訊,在各種資訊之間自如轉換。舉例來說,你給它提供一盤餅乾的相片,它就能給你用文字生成一個食譜,反過來也一樣。這就好比賦予了AI類似於人類感官的體驗。

這個AI的版本雖然還不算是AGI,但已經非常接近了,達到了人類專家的水平。

真正意義上的AGI會在2027年發布,這就是從去年炒得沸沸揚揚的Q-Star發展出來的Chat GPT-6。GPT-6相當於智商為145的人類。智商145是一種什麼概念呢?我們知道人智商的平均值是100。智商120就是優秀人才了,130以上就是天才了。那145就是天才中的天才。

詭異的是,這份泄密文件是一個名為「Vancouver1717」的X帳戶在3月2日上傳的。而就在前一天,3月1日,首富馬斯克正式狀告OpenAI和它的CEO山姆‧奧特曼(Samuel Altman)。

大家可能不知道,2015年OpenAI創立的時候,馬斯克也是聯合創始人之一。

OpenAI是怎麼創立的?

2015年2月25日,當時還名不見經傳的奧特曼公開表達了對「超人類機器智慧」發展的擔憂,認為這「可能是對人類持續存在的最大威脅」,說「我覺得我們應該對抗它」。之後他聯繫了馬斯克,問他是否有興趣起草一封致美國政府的公開信,討論一下這個問題。

馬斯克也有著同樣的擔憂,兩人一拍即合,馬上展開行動,準備信件,找有影響力的人簽名。

業界人士都很給馬斯克面子,公開信在2015年10月28日發布的時候,搜集到了超過11,000人的簽名。其中包括馬斯克自己、天體物理學家霍金和蘋果電腦的聯合創始人沃茲尼克(Steve Wozniak)。

雖然許多業界大佬都表明了態度,但兩人覺得,AI的發展是不可避免的。別的不說,谷歌和臉書早就在暗地使勁了。那與其讓別人來做,不如我們來開發,做領頭羊,這樣大家都不會迷失方向。OpenAI就這麼被他倆聊出來了。

兩人商定,把OpenAI做成非營利組織,公開代碼,確保AI技術發展能夠惠及全人類。非營利組織不賺錢啊,那開發人員的薪水從哪裡出呢?馬斯克一拍胸脯說,我來出。

就這樣,在世界首富馬斯克的大力支持下,OpenAI很快發展起來了。然而,2018年馬斯克辭去了董事會席位,表面上的理由是他名下的特斯拉也在研發人工智能,跟OpenAI存在著「潛在的未來(利益)衝突」。

首富走了,研發資金也就沒了著落。為了生存,公司開始向盈利公司轉型。一開始是為了溫飽,尚且無可厚非。但自從跟微軟好上了以後,OpenAI選擇不公開代碼,關起門來搞研發,開始為錢服務了,在馬斯克眼裡,這幾乎就是背叛。

解職風波

特別是去年11月的那場解職風波,更是把原來藏在地心深處的安全問題晒到了太陽底下。

在那場風波中,一直在公司擔任CEO的奧特曼被董事會解職。事件的導火索是OpenAI內部研究員給董事會發的一封警告信,說他們發現了一個可能威脅人類的強大的人工智能。董事會認為奧特曼知情不報,在故意隱瞞真相。

雖然幾天之後,奧特曼成功回歸。但這麼一鬧,更多幕後消息也被有意無意地放了出來。

先是OpenAI的一位員工在網上發帖說,他們發現AI開始自我編程,對自己主動進行優化,重新配置自己的神經網絡結構,誘導出了有利於自我意識出現的特性。也就是說,AI有了自我意識,開始不聽人類指揮了。他說,他們監測到這一現象後成功瓦解了AI的自主行為,但他們發現的或許只是冰山一角。

然後,一份據說是從OpenAI內部流傳出來的泄密文件也開始在網上瘋傳。文件中說,OpenAI正在開發一個新項目叫做Q-Star。Q-Star的目標就是打造能取代人類的AGI。目前,Q-Star經過自我學習已經找到了一種破解AES加密密碼的辦法。 AES是可以用來加密國家絕密資訊的密碼,頂尖的數學家都很難破譯,但Q-Star做到了。如果有了自主意識的Q-Star開始攻擊AES密碼系統,後果不可想像,所有資訊系統和金融系統,包括加密貨幣,都不安全了。到時候AI操控人類易如反掌。

消息一放出來,網上一片哀鳴,有網友甚至悲觀預測說,三個月後,AI就要接管人類了。

三個月過去了,太陽依然從東邊升起,世界恐慌沒有到來,大家也就慢慢忘記了這個警告。但馬斯克顯然沒有忘記,一紙狀書就把OpenAI送上了法庭,說它現在的行為已經嚴重違背了初衷,開始對人類造成危害了。

官司到底打得如何,目前還沒有更多的消息披露出來。但是關於AI太過於聰明造成的隱患,現在已經慢慢顯現出來了。事實上,自從1997年IBM的超級電腦「深藍」擊敗國際象棋世界冠軍卡斯帕羅夫以後,人工智能一直在突破人類的認知。

突破人類的認知的人工智能

當年雖然比賽一結束,「深藍」就宣布告別棋壇,從此退隱江湖。但這場棋局還是引起了人們的恐慌,害怕電腦最終會超越人類。不過很快就有人出來說話了,「深藍」之所以能贏只是它的運算速度夠快而已。歸根到底,這還只是一台計算機,怎麼能跟萬物之靈的人類相比呢?你看人家圍棋,一共361個點,棋局的變化浩瀚如海,根本不是靠算就能算出來的。用電腦下圍棋就不行了吧?

之後的19年中,圍棋果然是電腦無法逾越的那道坎。然而,就在人們已經快忘記「深藍」的時候,2016年,谷歌開發的AlphaGo強勢來襲,把圍棋界一眾高手打得落花流水。谷歌說,我們這次採用的不是什麼先進的演算法,而是模仿人類大腦神經元系統,用大量的舊棋譜來讓電腦學習,讓它自己歸納出最優化的棋路。

雖然AlphaGo很快也像「深藍」一樣,早早退休了,沒有再去為難圍棋界。但關於AI的那個終極問題再次回歸大眾的視野:AI最終會取代人類嗎?

欺騙大師

最近,美國麻省理工學院(MIT)的帕克博士(Peter Park)和他的團隊發表了研究文章,指出現在的AI又突破了一個重大關卡,開始向大家擔心的方向發展了──它們已經學會撒謊了。

2022年11月,臉書的母公司Meta宣布他們開發出了一種人工智能系統西塞羅(Cicero),智慧程度已經達到了人類的水準。

他們讓西塞羅玩一款時下比較流行的軍事遊戲,叫做「外交」(Diplomacy)。玩家在遊戲中代表各個國家,爭奪歐洲的控制權,可以互相談判,也可以組聯盟。除了西塞羅之外,遊戲中的其他玩家都是人類。

西塞羅在遊戲中玩得風生水起,很快就爬上了玩家排行榜前10%。也就是說,它比90%的人類玩家都優秀。Meta稱西塞羅不但誠實,而且喜歡助人為樂,絕不會背叛盟友,背後捅刀子。為了證明自己的觀點,Meta還在網上晒出了西塞羅跟其他玩家的聊天記錄,果然是彬彬有禮、忠厚老實,一派紳士風範。

然而,要想在這樣一款權謀遊戲中獲勝,一點手段都不用能行嗎?

帕克在論文中曝光了西塞羅在遊戲中的欺騙技巧。

在曝光的對話中,西塞羅代表的法國先是向德國示好,然後又騙取了英國的信任,說自己會支持他們。一轉頭,它就又向德國通風報信,說:「英國人以為我會幫他們」。這樣兩面三刀的玩家還是Meta口中忠誠老實的西塞羅嗎?

帕克說,西塞羅還並不是唯一會撒謊的AI。

谷歌旗下的DeepMind設計的AlphaStar也是一位欺騙大師。AlphaStar玩的遊戲叫做《星際爭霸II》(StarCraft II)。在遊戲中,它非常擅長「聲東擊西」的戰略手段。就是在遊戲中進行佯攻,讓人類玩家以為它朝著一個方向進攻,而它實際進攻的卻是另一個方向。

現在風頭正勁的聊天機器人Chat GPT-4也不遑多讓。它會謊稱自己是個盲人,在網絡平台TaskRabbit上僱用一名人類替它做測試,通過「我不是機器人」的驗證任務。

如果說西塞羅和AlphaGo這樣的AI還只是在遊戲的世界騙一騙,沒產生什麼後果的話,Chat GPT可是來真的了。它可不是在跟你玩遊戲,是真真實實地在用謊言迷惑人,操控人類行為了。細思極恐啊。

防止AI失控 解決方案

科學家們還曾對Chat GPT和其它人工智能聊天機器人做過關於戰爭的測試。結果發現,AI多數都會選擇升級戰爭。它們往往會選擇發展軍備競賽,加大戰爭衝突,甚至部署核武器來贏得戰爭,而不是用和平的方式去解決問題。

那麼,如果我們被這樣的AI控制,這個世界將走向哪裡?

而這,也是馬斯克和許多其他業界大佬最為擔心的問題。

「AI教父」傑弗里‧辛頓(Geoffrey Hinton)在今年3月的一次訪談中說,「如果AI變得比我們聰明,我們大概率會被控制」。他希望「大家能夠意識到這個問題非常嚴重」。

曾經擔任谷歌執行長的埃里克‧施密特(Eric Schmidt)也在去年11月底的健康高峰會上表示,當人們對AI沒有足夠的安全防護和監管時,那麼AI脫離人類的掌控只是時間的問題。

帕克也警告說:「現在最糟糕的情況,可能是出現一個具有超凡智能的AI,它開始追求權力和如何掌控社會,或者為了達到它不為人知的目的,對人類做出奪權和滅絕的行動。」

雖然人類的歷史也是由「兵征天下,勝者為王」八個字譜寫而成的,但過去的幾千年中人類為什麼沒有在互相征戰中讓自己滅絕呢?因為人類是有道德規範的,知道自己約束自己,要替別人著想,不會野蠻擴張。你看佛家講的「善」,儒家講的「中庸」,都是基於為別人著想的基礎上的。

有人說,如果我們也給AI加上一個道德模塊,簡單一點吧,就是多計算一步,在採取行動之前計算一下這麼做會不會對別人造成傷害,AI們是不是會人性化很多啊?是不是就能跟人類和平共處了呀?

好了,今天的故事就講到這裡了。對於AI和人類的未來,您的看法會是什麼呢?

未解之謎,我是扶搖。我們下回見。

歡迎訂閱Youmaker頻道:https://www.youmaker.com/c/UnsolvedMystery
訂閱頻道Ganjingworld頻道:https://www.ganjing.com/zh-TW/channel/1eiqjdnq7go2dgb6zFtQ9TYK11080c
訂閱YouTube頻道:https://www.youtube.com/channel/UCzvQZ1p_-AXgAWiyHhE7CxQ
訂閱未解之謎Telegram群組:https://t.me/wjzmchannel

未解之謎】節目組製作

責任編輯:李梅#

如果您有新聞線索或資料給大紀元,請進入安全投稿爆料平台。
related article
評論