「醫生,AI(Artificial Intelligence『人工智能』)說你處方的藥會導致便秘,又可能引致腹瀉。這到底是甚麼一回事?」前幾天,有位伯伯疑惑地拿著手機向我詢問。
我接過他的手機仔細一看,原來這位病人下載了最近頗受歡迎的人工智能程式DeepSeek,並詢問程式關於上星期我給他處方的藥物可能產生的副作用。
記得兩年半前,OpenAI首次推出人工智能聊天機器人ChatGPT。近幾個月,由內地團隊開發的DeepSeek迅速崛起,令大眾對大型語言模型(Large Language Models, LLMs)有了更多認識和更大好奇心。無可否認,這類人工智能的出現在某些方面確實能夠提供我們日常生活的便利;然而,過於信賴這些自動生成的資訊,仍然存在不少陷阱,值得我們謹慎思考。
這些大型語言模型在訓練階段會收集並吸納大量互聯網上的資料,但是當中有許多資訊其實未經嚴格的科學驗證。這些模型最大的特點就是能以流暢的語句生成看似專業的醫療資訊,實際上卻可能混雜過時、錯誤,甚至未經核實的數據和建議。如果長者或一般病患者輕信這些資訊,可能會出現混亂和誤解,甚至影響治療。更值得留意:若長者長期使用人工智能傾訴情緒問題,模型只能給予標準化、缺乏個人化及臨床判斷的回應,例如對抑鬱症患者僅僅建議「保持樂觀」之類的答覆。這種「自我感覺良好」的回應不但無法紓緩病人的心理壓力,更可能延誤治療的黃金時機。
另外,就是安全資訊被洩露的問題。長者在與人工智能互動的過程中,可能無意間透露了敏感的個人資訊,例如家庭狀況、醫療紀錄,甚至銀行帳戶資料等等。這些資料一旦被收集、存儲並用於模型進一步的訓練或商業用途,便會構成嚴重的個人私隱被洩漏的風險。因此,與人工智能互動的時候,我們必須謹慎注意所輸入的所有資料,並假設這些資料都可能被平台永久保留。
回到伯伯提及的問題,事實上一一解答並不困難。早在人工智能技術普及以前,人們早已習慣使用互聯網尋找相關的醫療資訊。經過多年來的經驗累積,大眾逐漸意識到互聯網上的資訊良莠不齊,並已經學會以審慎的態度看待搜尋得來的答案。如今,面對人工智能的資訊來源,我們同樣應該懷有這種警惕與批判性思維。儘管人工智能帶來便利,最終承擔決策及其引致的責任的人,始終還是我們人類自己。
黎智麟醫生
精神科專科醫生
