半月談評論員 秦黛新
近日,有關“帶著DeepSeek看病”的話題引發(fā)了大家的關注和討論,有人分享了自己用AI問診的經(jīng)歷,稱不僅AI給出的答案和醫(yī)生給出的建議是一樣的,甚至醫(yī)院的檢查報告還沒出結果,AI就已經(jīng)幫忙分析好了。
人工智能的興起正在引發(fā)醫(yī)療行業(yè)的變革,各地多家醫(yī)院引入DeepSeek,通過本地化部署將其應用于臨床、科研和行政管理等多個場景。然而,AI真的能完全代替醫(yī)生看病嗎?這恐怕得打個問號。
湖南省醫(yī)保局日前印發(fā)通知,其中明確規(guī)定:“嚴禁接收人工智能等自動生成處方”,一些醫(yī)生也表示,AI的診斷結果只能作為診斷的參考,在處理復雜病例、結合患者個體差異進行診斷等方面仍有局限性,最終的診斷還是要依靠醫(yī)生。就現(xiàn)有情況看,AI看病雖然有時候看起來很“準”,但仍然需要醫(yī)生更為專業(yè)的判斷,AI診斷技術也更加適合專業(yè)醫(yī)護人員輔助診療使用。更為重要的是,對于缺乏專業(yè)醫(yī)療知識的普通大眾來說,在使用AI問診時,警惕“AI幻覺”帶來的虛假編造也是其中的關鍵。
很多時候,當我們問AI一個問題時,可能會發(fā)現(xiàn),AI給出了一個詳細、具體、很有邏輯的答案,而當我們就其中的內(nèi)容做進一步核實時,卻發(fā)現(xiàn)這些信息存在虛構和編造,這就是AI幻覺。AI幻覺在各大模型中都難以避免,如果大模型的訓練數(shù)據(jù)存在偏差、不全面,AI就容易“學偏”,生成不準確的結果。同時,AI模型大多基于概率生成,缺乏對個案的真實感知和對事實的深度理解,這種“概率游戲”使得AI在生成內(nèi)容時,容易陷入“自說自話”的境地,甚至編造看似合理實則荒謬的信息。
AI幻覺現(xiàn)象已被不少網(wǎng)友發(fā)現(xiàn),有人發(fā)帖表示,在用AI進行文獻分析時,答案里會出現(xiàn)一些查無此文的文獻;有人發(fā)現(xiàn),AI會把一本書的作者安到另一個人的身上;還有人發(fā)現(xiàn),AI給出的答案存在上下文不符、邏輯不一致的現(xiàn)象。這提醒我們,AI生成的內(nèi)容并不是完全可靠的,要理性看待和使用,謹防虛假和編造內(nèi)容的出現(xiàn),尤其是在醫(yī)療等嚴肅領域,更不可完全信奉AI,以免對自身的健康造成危害。
警惕AI幻覺并不是說我們就要因噎廢食,而是要及時從技術層面加以改進,在倫理和規(guī)范層面未雨綢繆。AI的發(fā)展需要在進步中不斷反思,更要在反思中持續(xù)前行。唯有如此,我們才能讓AI成為推動社會進步的有力幫手,而非隱患之源。