人工智能醫生可信嗎? 會診斷卻做不出解釋

人氣 387
標籤:

【大紀元2021年08月23日訊】(大紀元記者李少維編譯報導)2018年,美國食品和藥物管理局(FDA)正式授權第一套人工智能設備用於診斷眼疾。到現在才幾年的時間,醫療領域已經出現了大量人工智能醫療系統。也就是說,機器人已經在給不少人看病了。

賓夕法尼亞大學(University of Pennsylvania)生物醫學信息學研究所所長摩爾(Jason H. Moore)最近發表在美國科學人(Scientific American)雜誌上的文章質疑了人工智能診斷軟件的幾項局限性。其中他覺得最令人擔憂的是,這些軟件直接給出「診斷」結果,拿不出理由。

摩爾是轉化生物信息學科學家、生物醫學信息學家和人類遺傳學家。他表示很高興看到人工智能的發展,特別對於大數據的處理,這些系統展現了人力達不到的優勢。

6月28日,世界衛生組織(WHO)公佈了一份對人工智能醫療系統的管理綱要,裡面提到這些軟件在責任感、公平度、職業道德、可持續發展、透明度、值得信賴度和有據可查等方面都很欠缺。

摩爾說,人工智能系統存在各種隱藏的偏見。這是因為設計師自身存在各種偏見,他們在設計系統的時候不自覺地把這樣的影響留在系統內。現在要把這些偏見從人工智能系統中除掉是非常困難的工作。例如,急診室用的一套系統無意地對不同膚色的人種就會區別對待。

不過摩爾認為現在最糟糕的問題是,人工智能醫療系統診斷過程的透明度很差。

對於疑難雜症,患者一般都會徵求很多專家醫師的意見,也很正常都會提出諸如「為什麼你認為這個療法最好?」,或是「為什麼你推薦這個療程?」這類的問題。醫生都能一一作答,消除病患的疑惑,建立信任。可是現在的人工智能醫療系統完全答不出這些問題。

摩爾說,現在多數人工智能軟件來自商業實體,他們為了保護各自的知識產權並不公開他們的算法和代碼。內部細節的不透明度,可能是這些系統無法向患者就它們做出的診斷結果做出解釋的因素之一。

可是,上世紀70年代推出的最早的一套人工智能系統MYCIN卻能夠很好地解釋自己。那套系統可以給重症監護室的患者自動開出消炎藥處方。面對「為什麼」的問題,那套系統會把自己計算的各種可能性擺出來,告訴用戶它如何得到處方所示的結果。

遺憾的是,這麼重要的功能在近年人工智能飛速發展的過程中竟然丟失了。摩爾認為,這只需要系統把自己計算的每一步做好記錄展示出來就可以辦到。如果是這樣,他希望接下來系統設計人員能把這作為系統的關鍵元素融入設計中。

也有可能有的系統現在發展到如此複雜的程度,連設計者自己都搞不清裡面的機制。摩爾說,如果是這樣,那這樣的人工智能系統就不適合作為醫療系統,根本就不能用。◇

責任編輯:朱涵儒

相關新聞
湯加古城遺址揭開太平洋古文明神祕面紗
NASA圖片說明超大質量黑洞如何進食
美研發出靈敏度極高的芬太尼探測器
研究:99%的汽車都添加一物 威脅人體健康
如果您有新聞線索或資料給大紀元,請進入安全投稿爆料平台
評論