學術界和網絡安全專家警告稱,一波利用人工智能(artificial intelligence,簡稱AI)生成的虛假科學研究正在隱秘地繞過學術查重機制,最終被列入學術記錄系統。專家表示,這種現象助長了長期存在的「論文工廠」(paper-mill)式造假,從而危及科學研究未來的公信力。
學術論文工廠是一種通過偽造學術研究報告和代寫論文而牟利的造假組織,多年來一直困擾著學術界人士。隨著人工智能在學術領域的應用,現在這方面的亂象呈幾何式增長。
一些專家認為,要解決這個問題,不僅僅需要更好的查重工具,還需要進行結構性的變革。
AI學術造假範圍之廣令人震驚。據總部位於英國倫敦的久負盛名的國際學術期刊合集《自然組合》(Nature Portfolio)的數據,2023年全球有超過10,000篇研究論文被撤稿。
瑞典博羅斯大學(University of Borås)的研究發現,利用大型語言模型(large language model,LLM)偽造的論文正在多個學術領域和平台(包括Google學術/Google Scholar)上大量湧現。近期發表在《自然組合》(Nature Portfolio)上一項題為「期刊充斥著人工智能可以撰寫的『山寨』論文」(Journals infiltrated with『copycat』papers that can be written by AI,09/23/2025)的分析指出,包括ChatGPT、Gemini和Claude在內的LLM工具能夠生成看似可信、而且能通過學術論文標準查重檢測的研究論文。
今年5月,希臘的雅典經濟與商業大學(Athens University of Economics and Business)電腦科學學者兼教授迪奧米迪斯‧斯皮內利斯(Diomidis Spinellis)在發現自己成了某項研究的署名作者之後,撰寫了一篇關於人工智能生成內容的獨立研究報告,題為「虛假署名:一篇以我的名義發表的人工智能生成文章的探索性案例研究」(False authorship: an explorative case study around an AI-generated article published under my name,05/27/2025)。報告發表在總部位於加州的《全球國際創新研究雜誌》(Global International Journal of Innovative Research)上。
斯皮內利斯在研究報告中指出,在他所查閱的53篇文章中,只有5篇(這些文章的文內引用次數最少)顯示出人類研究人員參與的跡象。人工智能檢測得分證實,其餘48篇文章的內容「極有可能」(high probabilities)是由人工智能生成的。
瑞典大學研究人員對Google學術(Google Scholar)上發表的人工智能生成的「垃圾」(junk)科學文章進行了分析,發現了100多篇疑似人工智能生成的文章。
到目前為止,Google尚未回應《大紀元時報》的置評請求。
瑞典大學研究報告顯示,人工智能生成的研究報告(無論是有人類輔助的還是其它方式的)的一個主要問題是,錯誤的訊息可能被用於「戰略操縱」(strategic manipulation)。
「當人工智能生成的研究報告在搜索引擎中傳播時,我們所說的『證據篡改』(evidence hacking)風險就會顯著地增加。這可能會帶來切實的後果,因為錯誤的結果可能會進一步滲透到社會當中,甚至可能滲透到越來越多的領域。」該研究的作者比約恩·埃克斯特倫(Björn Ekström)說。
此外,瑞典大學團隊認為,即使撤回這些文章,人工智能論文也會給本已不堪重負的同行評審系統增加額外的負擔。
負面影響深遠
位於猶他州的西部州長大學(Western Governors University)的人工智能倫理學家尼珊希·舒克拉(Nishanshi Shukla)向《大紀元時報》表示:「人工智能產生的大量偽科學對人們關心的研究領域造成的破壞性影響最大。」
舒克拉認為,當使用人工智能分析數據時,人類的監督和分析不可或缺。
「當所有研究成果都由人工智能生成時,就會存在知識同質化的風險。」她解釋道。
她表示:「短期來看,這意味著所有遵循類似路徑和方法的研究,都會受到類似假設和偏見的影響,變得只會迎合特定群體的需求。長期來看,這意味著沒有任何新的知識,知識的生產過程只是一個人類批判性思維缺位的循環過程。」
人工智能研究公司「維爾圖斯」(Vertus)的聯合創辦人米哈爾·普里瓦塔(Michal Prywata)也認為,人工智能偽科學的趨勢存在很大問題,而且其影響已經顯現。
「我們現在看到的情況本質上就相當於一次拒絕服務攻擊(denial-of-service attack,又稱「DoS攻擊」)。真正的研究人員被淹沒在科研噪音之中,同行評審員不堪重負,引用文獻中充斥著捏造的參考文獻。這使得真正的科學進步更難被識別和驗證。」普里瓦塔告訴《大紀元時報》。
(譯註:在電腦領域,拒絕服務攻擊(denial-of-service attack)是一種網絡攻擊,攻擊者通過暫時或永久性的破壞連接網絡的主機服務,使目標用戶無法使用特定機器或網絡資源。拒絕服務通常通過向目標機器或資源發送過量請求來實現,試圖使系統超載,從而阻止部份或全部合法請求得到響應。DoS攻擊手段包括向伺服器發送數百萬請求來降低伺服器性能、用大量無效數據令伺服器不堪負荷,以及提交帶有非法IP地址的請求等。)
在與前沿人工智能系統合作的過程中,普里瓦塔近距離地觀察到了大規模部署的LLM的副產品,他認為這才是問題的核心。
「將人工智能視為生產力工具,而沒有去真正理解智能的本質,必然就會出現這樣的結果。目前的人工智能系統的構建並非和人腦一樣。它們是一個複雜的模式匹配系統,在生成聽起來合情合理的文本方面非常擅長。而虛假的研究報告要想看起來令人信服,所需要的恰恰就是AI的這種能力。」他說。
總部位於科羅拉多州丹佛市的網絡安全公司Optiv的首席資訊安全官(Chief information security officer,簡稱CISO)內森·溫茲勒(Nathan Wenzler)認為,學術公信力的未來正面臨著考驗。
「隨著受人尊敬的期刊和重要的科學評論中增加越來越多不正確或完全虛假的AI生成內容,無論是近期的還是長期的影響都是一樣的:學術公信力將受到削弱。」溫茲勒向《大紀元時報》表示。
從安全角度來看,溫茲勒認為,在知識產權盜竊方面,大學現在面臨著一種不同類型的威脅。
他說:「我們已經看到一些國家行為體發起網絡攻擊,專門竊取大學和研究機構的研究成果,而這些國家隨後又將其作為自己大學的研究成果發布出來,就好像這些研究是他們自己完成的一樣。」
溫茲勒表示,對於那些依靠撥款來進行合法的科學研究、技術、醫療保健等領域的組織機構來說,最終這將在財務上產生巨大的影響。
溫茲勒舉例描述了一個現實世界中可能出現的情況:「人工智能很容易被用來增強這類網絡攻擊,只需對被盜的研究內容稍加修改,就能製造出一個假象,讓它看起來內容獨特,而且是獨立研究成果;或者通過創建虛假的反駁數據,來破壞原始數據和研究發現的可信度,從而製造出現有研究存在缺陷的虛假敘事。」
「潛在的經濟影響是巨大的。然而,這對造福全球民眾的科學進步所產生的負面影響,卻是無法估量的。」他說。
普里瓦塔指出,很大一部份公眾已經對學術界提出了質疑。
「我擔心的是,這會加速人們對科學機構的質疑。」他說。「現在已經有證據表明這個系統可以被大規模地操縱。我認為對於社會來說,這是十分危險的。」
大量人工智能生成的虛假研究論文的出現,正值公眾對科學的信任度低於新冠疫情爆發前之際。總部位於華盛頓特區的皮尤研究中心(Pew Research Center)發布的一項題為「公眾對科學家的信任以及對科學家在政策制定中作用的看法」(Public Trust in Scientists and Views on Their Role in Policymaking,11/14/2024)的分析報告發現,對於科學家是否會以公眾利益為先,僅有26%的受訪者表示「很有信心」。51%的受訪者表示他們有一定的信心;相比之下,2020年對科學抱有同樣信心的受訪者比例高達87%。
與此同時,美國民眾對人工智能的進步也表現出越來越不信任的態度。總部位於華盛頓特區的布魯金斯學會(Brookings Institution)發布的一項題為「了解人工智能進展對信任的影響」(The impact of learning about AI advancements on trust,12/2025)的研究成果發現,與沒有接觸過人工智能發展相關訊息的參與者相比,接觸過人工智能發展相關訊息的參與者在語言學、醫學和約會等眾多不同的領域,表現出更多的不信任感。
尋求解決方案
舒克拉認為,人工智能偽造研究報告的氾濫,是學術界不斷發表新論文帶來的壓力所致。
「論文的數量和引用次數決定了研究人員的學術生涯,在這種情勢之下,使用人工智能生成研究成果成為了捷足先登的捷徑。因此,要想阻止人工智能生成研究成果,首先要做的是減輕論文發表方面的壓力,並建立更好的指標來衡量學術上的成就。」她說。
舒克拉強調,針對人工智能生成研究開展宣傳活動,提高相關認知十分重要。同時,還需要在學術報告和真實性驗證方面保持「嚴格的標準」。
總部位於法國巴黎的國際科學理事會(International Science Council,簡稱ISC)指出,科研論文的發表情況一直在推動大學的排名和個人職業發展。這種為發表論文不惜一切代價的「持續不斷的壓力」,導致了數據造假現象的增加。
國際科學理事會表示:「除非這種情況有所改變,否則整個研究領域可能會向標準不那麼嚴格的方向轉變,從而阻礙醫學、技術和氣候科學等領域的重要進展。」
普里瓦塔指出,當人工智能偽造的數據發布之後,這些訊息可以被用來訓練新的人工智能模型,從而形成虛假資訊的反饋循環。這令事情變得更為糟糕。
「人們需要為這種做法承擔後果。」他說。
目前,幾乎所有的激勵措施都在促使學術研究人員儘可能多地發表學術論文。大學層面十分看重論文的發表數量,長期以來將其與研究人員能否保住工作和獲得研究項目經費聯繫起來。
「解決辦法不是開發更好的人工智能檢測工具,那是一場註定失敗的軍備競賽。現在一些可以規避人工智能檢測的工具已經在開發之中。」普里瓦塔說。
他認為,需要徹底改變學術論文發表的激勵機制,令發布造假論文的研究人員和機構在經濟上承擔相應的責任。
「必須停止根據論文發表的數量進行獎勵的做法,而是應根據論文被引用的質量和實際影響力來提供資金支持。」他說。
溫茲勒指出,雖然同行評審(peer review)仍然是期刊驗證研究成果的「黃金標準」(gold standard),但是進行評審的團隊必須投入必要的時間和技術。
「要對研究論文進行全面審查,並核實其中所提供的任何訊息來源。」他說。
溫茲勒認為,為了維護科研誠信,需要加強學術機構之間的合作和政府投資。
然而,同行評審制度並非沒有挑戰。由於評審內容日益增多,評審時間有限,審稿人員疲勞工作已經是一個普遍存在的問題。雪上加霜的是,《自然組合》的證據表明,在同行評審過程中,人工智能正扮演著越來越重要的角色,這一趨勢引發了科學界新一輪的擔憂。
對此,普里瓦塔建議:「要求公開評審員身份並進行實時同行評審。另外,要為同行評審工作提供充足的資金,而不能指望評審人員免費勞動。」
原文:How AI Is Supercharging Scientific Fraud刊登於英文《大紀元時報》。#
-------------------
香港大紀元創辦24周年
時代變,信念從未變。
-------------------
💪🏻支持我們,您可以:
刊登祝賀廣告
📞 熱線:2770 5566
成為網站會員
🔗 https://hk.epochtimes.com/subscribe
















