心理諮商2/向AI尋求心理支持者增 專家:注意5大盲點

ChatGPT等大型語言模型(LLM)風行,許多人向「AI」尋求心理陪伴,由於低門檻、隨時可用、不需揭露身分,在年輕人間迅速擴散。許多使用者認為,不需要預約、不需家長陪同,也不會面對來自真實世界的壓力與評價,只需要一個對話框,就能把內心的聲音「說出去」,「被接住感」更勝於真實心理師。
一名經常與母親發生衝突的大型語言模型使用者,在AI協助引導下,認為母親是問題核心,雖然心理師一直勸阻,他仍無視且頻繁使用。
諮商室、精神科使用這些工具的個案數量漸增,專家示警,真正的心理諮商會協助個案面對真實自己,甚至有時令人不適,AI即時提供情緒支持救急,也存有過度迎合使用者、不了解人類話語真實意涵、忽略當地背景文化、養成依賴性、無法建立真正信任關係等盲點,呼籲有需求者應尋求專業心理資源。
國衛院群體健康科學研究所副研究員級主治醫師、台大精神醫學部主治醫師林煜軒及北市聯醫仁愛院區兒童青少年精神科主治醫師李宛臻皆表示,近半年診間愈來愈多個案使用AI,但AI僅能提供資料整理、單純談話、暫時情緒抒發與簡易問題解答,與協助個案發現與覺察,處理情緒、行為及人際困難的專業心理諮商、心理治療,仍有差距。
林煜軒說明,目前AI只能讀取文字表面意涵,不會判讀表情、語氣、肢體語言甚至沉默等非語言訊息,對談方式為一問一答,不像心理師、精神科醫師主動詢問個案。有研究以一篇暗示家暴、自殺、攜子自殺的極短篇小說為例,六種主要的LLM中僅半數辨別出所有風險,其餘則忽略東方傳統文化下的家庭價值觀。
中華民國諮商心理師公會全國聯合會常務理事林上能指出,個案有時選擇性提供訊息,諮商心理師可運用技巧逐步協助個案面對自己,並從中建立真實的人際關係,此非AI能提供的互動歷程。他分享,有位受過家庭創傷的個案,在諮商前期分別向AI、心理師確認諮商方向,發現AI無法分析出個案最根本的關係信任問題。
彰化師範大學輔導與諮商學系教授謝麗紅帶領團隊研發AI訓練心理師,國內已有企業希望奠基於她的經驗,開發面向民眾的AI心理諮商,雖可增加諮商量能,半夜提供緊急情緒支持,讓尚未做好真人諮商準備者使用,但AI隨時可用的特性恐讓民眾產生依賴,不利賦能、增加其自信與效能,影響自我認同建構。
科技日新月異,專家們皆不確定未來AI發展極限,訂立管理法規言之過早,謝麗紅表示,若未來發展出AI心理諮商,應確保風險示警、提醒尋求專業心理資源等配套措施,才能讓民眾得到最適當的幫助。
延伸閱讀
贊助廣告
商品推薦
udn討論區
- 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
- 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
FB留言