碩論AI虛構文獻事件啟示:AI不會取代人類 只會放大專業與無知的差距

※如欲轉載本文,請與北美智權報聯絡
李淑蓮╱北美智權報 編輯部
台灣近日接連傳出屏東大學、南華大學的碩士論文,因引用虛構的AI生成文獻被揭發,最終被校方要求撤回重寫,震驚學術界。事緣於中山大學社會學系教授葉高華在台灣博碩士論文知識加值系統搜尋時,發現兩篇碩論將「從未存在」的葉高華著作列為參考文獻。葉高華進一步審閱,赫然發現該篇論文多數文獻皆為AI虛構,完全禁不起檢驗。
事件迅速引起輿論譁然,因為它不僅是單一學生的疏失,而是赤裸地暴露出一個正在擴大的危機:當專業知識不足,卻又貪圖AI的方便與快速,人類不只無法駕馭AI,還會被AI的「幻覺」誤導,搬起石頭砸自己的腳。
AI的危機:幻覺式生成、虛構資訊、放大無知;唯有在那個領域超越AI,才能駕馭AI
AI並非不可靠,而是它的運作基礎從來就不是為了驗證真實。像ChatGPT或其他生成式模型,最擅長的是語言的「預測」;它的運作邏輯是「生成最可能出現的語言組合」,而不是「查證最正確的事實」,所以它極容易生成看起來正確、實則虛構的內容。當學生請AI生成「台灣社會學相關論文參考書目」,AI只會盡力排列出看似專業、格式正確的結果,即使這些文章根本不存在。若使用者自身缺乏該領域的基本素養,自然難以判斷哪些是真實學術成果,哪些只是AI憑空編造的幻影。
以這次「AI論文」事件為例,若學生對社會學領域具備基本的閱讀量和脈絡感知,就會知道哪些論文是社會學圈裡耳熟能詳的基礎文獻、哪些作者從未在該領域發表過文章。AI會隨機組合出「像真的」的文獻格式,若使用者自己對專業認識淺薄,就根本無法辨識這是假資料。AI並不會自己告訴你「這篇文章其實不存在」;它的工作只是在既有的語言模型中找到最可能出現的文字排列。也因此,當人類在該領域的知識深度不足,就更容易被AI誤導。葉高華教授看見碩論裡滿滿不存在的文獻,正是對這種AI「幻覺」的殘酷見證;AI只會把它認為機率最高、語意最通順的結果呈現出來。因此若缺乏批判性,AI只會成為放大錯誤的工具。
AI運作邏輯是「生成最可能出現的語言組合」,而不是「查證最正確的事實」,所以它極容易生成看起來正確、實則虛構的內容 — 學界稱此現象為「AI幻覺」(hallucination)。葉高華發現的情況,就是AI自創了格式正確但根本不存在的學術文獻,而學生與教授都因其「看起來合理」而未起疑。
因此,葉高華才會提醒:「AI資訊來源查核,是很重要的一門功夫,各校應該盡快納入教學。」換句話說,使用者必須先在那個領域的專業能力超越AI,才能駕馭AI。如果自身對該專業領域沒有足夠熟悉度與批判力,就只能被AI的輸出牽著走。
血淋淋的例子
筆者也有被AI帶進魔幻世界的經驗。記得有次在Chat GPT查詢OPPO的摺疊式手機專利,Chat GPT花了不到5秒的時間,即表列出一串名單,含專利號、專利名稱及簡單的技術描述。然而,筆者拿了幾個專利號在專利檢索系統查詢,卻發現全是不同廠商、不同產品的專利,當下立即向Chat GPT質詢。一開始,Chat GPT一直堅持這是OPPO的專利,在再三拷問下,它才居然告訴我「專利有2種,一種是正式專利、一種是預測專利,OPPO的是預測專利」;預測專利是指在觀察OPPO的技術研發軌跡後,再預測他們會申請專利的技術,然後再預估審查的進度,再推算出可能的專利號。這就是生成式AI似是而非的邏輯,是不是很魔幻?整個推論看起來很合理,但直接提供「預測專利號」又不詳細說明就已經是造假,如果遇到不求證的使用者,這些假的OPPO專利資訊就會被複製貼上,繼而廣為流傳,後果堪虞。
一直有未經官方證實的傳言指出,付費的ChatGPT準確度會比免費的版本高。然而,曾有網友貼文表示「付費的ChatGPT錯誤很多,是否應該退掉?」,結果貼文一出即引來一眾苦主留言,紛紛表示給付費的ChatGPT也是一言難盡。一位苦主表示,曾經把幾個景點丟給ChatGPT,請它安排4天3夜的行程,結果編排出來的行程有模有樣,但當中交通資訊都是錯誤的,所列出的船班、航班都是不存在的。照前面提到的生成式AI邏輯,它就是在搜集大數據之後,再「生成最適合下指令者的行程」,而不會「查證(交通)資訊是否正確」。因此可見,不管付費與否,生成式AI的底層運作方式都是一樣的。
這是一堂AI素養的必修課
也因此,現在看到校方不得不加強補救:屏東大學要求未來老師指導學生逐條核對文獻,並計畫開設AI素養與應用課程;南華大學更直接採購能辨識AI生成內容的檢核系統,所有論文都必須先過AI比對,才能進行口試。這些都說明了,與其害怕AI搶走飯碗,不如認真思考:人類該如何在AI興起之後,更加精進自己的專業,發展批判性與查核能力,讓AI成為輔助而非陷阱。
AI可以協助用戶快速搜尋、生成草稿,但它無法代替你理解脈絡、辨別真偽,也不能代替用戶提出獨到的見解。未來能善用AI的,必然是那些已經在專業領域有深厚底蘊的人;對於沒有專業根基、希望用AI「投機取巧」的人來說,AI最終只會變成一面照妖鏡,將其不足赤裸裸地顯現出來。
AI顯示了人類專業的不可替代性
其實,這道理放在記者與研究工作上也同樣適用。近年許多編輯室、研究機構內部,紛紛引進AI協助彙整資料、生成摘要或初稿。但不少資深記者、研究員很快就發現:AI可以快速拉出一堆看似詳細的段落,甚至引用看似正確的案例與數字,但一旦追查原始資料來源,就經常發現是拼貼錯誤、引錯年份,甚至直接憑空創造出不存在的研究報告。
這恰恰證明,專業記者與研究員(研究助理、法務研究員、專利分析師等)並不能仰賴AI來「代替」做功課。他們在使用AI之前,必須先靠自己多年累積的專業功力,判斷哪些資料值得信賴、哪些結論邏輯不通,才能讓AI成為真正的輔助工具,而不是自陷泥沼的陷阱。
在使用AI之前,先用專業「訓練出自己的專屬AI」
更進一步說,未來AI很可能會變成一種「客製化的專業助手」。就像律師會建立專屬的法律檔案庫、醫師會用特定醫學影像資料訓練AI判讀系統,專業記者與研究員同樣應該用自己的資料、案例、分析模型來訓練自己的AI,讓它逐漸熟悉你所在領域的脈絡、偏誤、議題歷史。如此才能逐步發展出一個更懂你需求的專屬AI,減少錯誤與誤導。
但要做到這一步,必須先有紮實的「人類專業」。如果人類自己都不懂新聞判讀、產業鏈條、國會質詢紀錄、專利架構圖,AI就算讀進去再多資料,也只能學會「表面模仿」;最後還是要靠專業者來訂正、來挑出脈絡的細微偏差。
關鍵警訊:AI不該過早導入兒童教育,否則奪走思辨力
這樣的問題更令人擔憂地延伸到基礎教育。當前不少補習班、程式教學業者紛紛推動「讓孩子從小學會用AI寫作、找資料」,表面看是科技素養,實則暗藏隱憂。因為在尚未建立基本邏輯與資訊判讀能力前,學童過早接觸AI工具,極可能造成依賴性與思考能力弱化。
AI生成的答案是經過大數據統計後的語言組合,不是小學生自己透過比較、歸納、驗證得出的認知結果。若孩子習慣直接從AI「獲得答案」,久而久之會失去提問能力、推理耐性、甚至懷疑權威的勇氣。而這些,才是教育真正該培養的素養。
比起讓孩子「早點用AI」,我們更該問的是:「孩子是否已經具備獨立思考、查證來源的能力?」在這些能力尚未成熟之前,AI應是受限使用的工具,而不是全面導入教室的標配。
AI不是取代人類,而是放大專業與無知的差距
大學的碩論虛構文獻事件提醒我們:AI不是來取代人類的,而是來放大人類的專業與無知的。對有專業素養的人而言,AI是加速器;對缺乏專業基礎的人來說,AI是危險的陷阱。
無論是學生、記者還是研究機構的研究員,未來都勢必要與AI共處。但唯一能讓我們不被AI牽著鼻子走的,就是先在自己的領域裡擁有超越AI的深度,懂得質疑、懂得驗證,甚至能以自身專業去「再訓練」AI,使之成為你的輔助者,而不是讓AI用似是而非的幻象帶領你跌入更大的錯誤。
所以,與其問「AI會不會取代我?」不如自問:「在我所處的專業領域,我已經比AI強到足以指導它了嗎?」
參考資料:
|
延伸閱讀&電子報訂閱連結:
【詳細內容請見《北美智權報》384期;歡迎加入NAIPNews網站會員成為我們的訂戶,以掌握最關鍵的專利商標智財消息!】
延伸閱讀
贊助廣告
商品推薦
udn討論區
- 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
- 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
FB留言