今年春季學期開學,各大高校紛紛宣布接入DeepSeek,學生利用AI工具輔助論文寫作現象已愈發普遍,但伴隨的使用規范和學術誠信問題也隨之而來。


從大背景來看,近些年來,學術不端引發的學術界科研誠信危機較為顯著。隨著AI技術不斷發展,因存在大量隨機生成內容導致論文撤稿的比重日益增加,在高校學生群體中,直接復制使用AI生成內容等不當使用情況也日益增多。


隨著復旦大學首發國內高校“AI禁令”,今年以來,不少高校紛紛推出新的政策為AI“立規矩”,以規范學生使用生成式人工智能的行為。


學術寫作中AIGC使用邊界應如何界定?除了“立規矩”,是否有更加“硬核”的治理機制?面對AI發展浪潮,高校要如何引導學生合理使用?對此,新京報記者采訪了多所高校的教授,探討這些熱點話題。


多所高校發文規范AI使用邊界


“我們在申報項目、撰寫文章的時候,會先借助AI生成一個框架,再將自己的研究內容填充進去,這樣非常便捷。在編寫代碼時,一些基礎運算也會交給AI處理,自己再根據研究進行完善提升。”北京航空航天大學一位從事理工科研究的博士研究生告訴記者,在科研過程中,AI會被當作輔助工具,但是鑒于AI在某些特定領域的水平有限,無法完全讓AI替代真人來進行研究和學術寫作。


據深圳大學大數據系統計算技術國家工程實驗室教授陳杰的觀察,目前在高校,相當多的學生會使用人工智能輔助學習生活。“研究生層次的學生能夠比較規范地使用這些工具,本科階段的同學對于人工智能的使用相對不足。”


“隨著AI的普及和其功能愈發強大,出現了學生借助AI寫作業、甚至寫論文的情況,我們學校也在對AI寫作進行規范。”中國傳媒大學文化產業管理學院法律系主任鄭寧說道。


鄭寧介紹了利用AI生成論文的弊端。“人工智能生成的文章在表達上是有些套路的,有時候看似觀點很全面,但其中不乏邏輯性、準確性、真實性的問題,尤其會出現數據和材料的偽造情況,也需要學生在使用人工智能是要警惕AI可能帶來的學術倫理問題。”


“AI寫作功能可以做一些輔助性的工作,我們學校規定使用AI在論文中所占的比例,同時學生要注明文章中哪些部分是AI寫的,或借助AI寫的。”鄭寧認為,在人工智能時代背景下,要形成一個新的學術規范,建立AI時代的學術倫理。


高校紛紛開始行動。復旦大學打響“第一槍”,于2024年末正式發布《復旦大學關于在本科畢業論文(設計)中使用AI工具的規定(試行)》,系國內高校首個專門針對AI工具在畢業論文、畢業設計中的規范化管理文件。其中,《規定》明確了“六個禁止”使用AI工具的范圍,引發關注。


隨后,深圳大學發布的《深圳大學學術道德專門委員會關于進一步規范學術論文發表的指導意見》;中國傳媒大學本科生院下發了《關于加強2024年畢業論文(設計)中規范使用人工智能管理的通知》;北京師范大學新聞傳播學院聯合華東師范大學發布《生成式人工智能(AIGC)學生使用指南》;上海交通大學等高校也紛紛出臺相關規范文件,為AI“立規矩”。


學術寫作中AIGC的使用邊界仍需探討


對于AI是否可以使用、在哪些方面可以使用,多所高校都作出了嚴格規定。


復旦大學要求,禁止在研究方案設計、創新性方法設計、算法(模型)框架搭建、畢業論文結構設計、研究選題、研究意義及創新性總結、研究假設提出、數據分析、結果分析與討論以及結論總結等關鍵環節使用AI工具。


2月25日,深圳大學最新發布的《深圳大學學術道德專門委員會關于進一步規范學術論文發表的指導意見》中提到,一般不得使用人工智能工具直接生成代表作者觀點的論述。


北京郵電大學2024年9月出臺的《北京郵電大學2025屆本科畢業設計(論文)指導手冊》,第八章中明確規定:生成式人工智能技術僅可用于文獻調研、數據處理、引文整理等輔助工作,嚴禁直接應用于開題報告、中期報告和論文撰寫。


北京郵電大學教授鄂海紅指出,目前通過技術能夠識別出一段話中使用AI生成的概率,標注疑似大模型生成的段落,但是否屬于學術不端行為則是另一個問題,其中存在的邊界問題仍需要探討。


我國相關主管機構也在推動界定學術倫理邊界。2024年9月,中國科學技術信息研究所在科技部科研誠信監督司指導下,出臺了《學術出版中的AIGC使用邊界指南2.0》(下稱《指南》),其中對圖表制作和文字撰寫進行了邊界規范。


例如,在文字撰寫方面,《指南》明確,AIGC不應該用來產生研究假設、直接撰寫整篇論文文本或解釋數據、得出科學結論等;但AIGC可以作為高標準語言檢查器,提高稿件可讀性和寫作質量,以消除研究傳播中的語言障礙。


對此,復旦大學則有更嚴格的要求,禁止直接使用AI工具生成正文文本、致謝或其他組成部分;禁止進行語言潤色和翻譯。


還有一些高校試圖通過劃定一定的比例來進行限制。北京師范大學新聞傳播學院聯合華東師范大學聯合發布《生成式人工智能(AIGC)學生使用指南》中明確,學生在使用生成式人工智能完成作業時,需標紅相關內容,且直接生成的內容不能超過全文的20%。天津科技大學則要求,論文中智能生成比例不超40%。


對于這一核心問題,陳杰認為,AI工具可以做一些文章論述的潤色,在文字通順程度、減少錯別字等方面進行提升。此外,一些實驗結果的展示,借助AI的幫助進行表格生成,可以更加直觀和高效。


“比如說在進行文獻綜述時,大模型可以對現有的一些文獻內容進行匯總。相較于傳統的基于關鍵詞的搜索方法,人工智能會用更具可讀性的方式總結數據,但務必注意,通過人工智能生成的內容真假難辨,需要仔細思考前后的邏輯關系。”


“在學術論文中,我們在投稿的時候,但凡用到人工智能去做潤色的部分,都會要求主動申報。同時嚴格禁止使用人工智能去形成觀點,這是被列入違反學術誠信的操作。”陳杰強調,“學生要是被發現使用了人工智能來寫作,肯定就是判0分或者重做了。”


在圖表制作方面,中國科學技術信息研究所出臺的《學術出版中的AIGC使用邊界指南2.0》明確,作者根據數據特點和作圖目的,AIGC可以推薦合適的統計圖表類型,直觀呈現數據結論;但是通過AIGC增強、模糊、移動、刪除或引入圖像中的特定特征是不可接受的。而復旦大學明確,禁止生成或改動原始數據、原創性或實驗性的結果圖片、圖像和插圖。


此外,不少高校對AI使用要求“留痕”。復旦大學強調,在使用AI工具時,學生必須在本科畢業論文承諾書中明確披露所使用的AI工具名稱和版本號、使用時間、具體用途、AI工具生成的內容或提供的建議以及AI工具在論文中的具體使用部分。同時,學生還需保留AI工具處理之前的相關重要材料,以備指導老師或評審專家對使用AI工具的情況進行檢查和質詢。


再如,中國傳媒大學繼續教育學院要求學生須明確披露是否使用生成式人工智能,如使用,須描述使用方式、細節,包括模型/軟件/工具名稱、版本及使用時間。涉及事實和觀點引證的輔助生成內容,須明確說明其生成過程,并同時在畢業論文(設計)相應位置具體標注,確保真實準確和尊重他人知識產權。


用技術高效識別AI偽造內容


人工智能大模型的出現也給高校老師提出了很大的挑戰。


陳杰提到,目前在閱讀學生論文的時候,基本可以判斷出哪些論文是使用大模型生成的。“大模型生成的文章在表達上有一些特定的模式。”此外,在做論文查重的時候,傳統的做法是通過跟歷史的文章片段比較進行查重,近年來增加了AI查重。


“高校在推行相應規范時,還是需要有查重的檢測手段和工具,以免增加老師的核實負擔。”鄭寧認為,在AI時代,高校也同時在推動“人工智能+”的行動,希望所有的專業和課程都能夠融合AI,能夠讓AI輔助教師和學生的學習,而不僅僅讓AI替代學生去寫論文。


科研誠信問題已經成為當前科技政策部門、出版機構和科研機構共同關注的焦點問題。記者注意到,目前已有技術團隊在行動。


北京郵電大學從事多模態大數據處理和理解技術研究的鄂海紅教授團隊,受科技部等部門委托,“用技術解決技術問題”,高效識別由AI生成或者篡改的實驗數據和圖片。


新一輪AI技術發展為學術不端檢測帶來哪些新挑戰?鄂海紅介紹,一方面,與過去學生在網上“手動”拼湊寫論文相比,如今AI生成內容量大幅激增,過去靠專家審稿發現圖文表述不一致等問題來識別造假,但在AI技術普及的當下,造假已規模化。


另一方面,傳統高校學位論文查重主要聚焦于文本相似度檢測,而隨著人工智能技術的突破性發展,諸如AI圖像生成與編輯等新型學術創作形式逐漸涌現。為應對層出不窮的新學術不端行為,必須提升檢測能力,讓高校查重維度更全、顆粒度更細,讓檢測更智能。


在圖像學術不端行為自動化檢測方面,團隊取得了重大進展。鄂海紅告訴新京報記者,目前團隊研發成果能夠判斷一篇文章中是否存在同其他已發表論文圖像存在重復區域的復用圖像,該檢測技術能夠抵抗各類篡改行為(包括縮放、旋轉、翻轉、亮度、對比度、顏色操作)的干擾。


“在AI生成圖像檢測方面,隨著技術的進步,人眼越來越難以判別圖像的真實與否,學術出版界對圖像生成偽造檢測技術的需求日益增加。通過相關技術手段,我們能使用主流生成模型,反向還原圖像原始噪聲并重新生成一張重構圖像,輸入圖像和重構圖像的差別叫做重構損失,作為判斷圖像是否為AI篡改或生成的依據。”她進一步解釋,“真實圖像的重構損失通常較大,相比生成式偽造圖像差別非常顯著。”


此外,近年來還出現了以批量生產虛假論文為目的的“論文工廠”,這些論文往往具有高度相似的寫作結構以及圖文相關性特征,給傳統檢測方法帶來了巨大挑戰。鄂海紅指出,針對這些復雜場景,團隊進一步拓展技術邊界,開發了多模態數字指紋和獨立檢測機制,寫作結構的檢測準確率超過90%,力求全面覆蓋各類學術不端行為。


2023年9月,鄂海紅教授團隊與萬方數據公司聯合研發的“文察多要素綜合察驗服務”(簡稱文察)已在萬方數據科研誠信服務平臺上線,面向全國所有高校、科研院所、醫藥衛生機構等提供在線大規模自動化論文圖像、文本相似性、AIGC生成、參考文獻風險等多維度綜合檢測察驗服務。


記者了解到,目前所有高校都會要求學生學位論文,尤其是碩博士論文,在送審前進行查重,但一些專門的學科領域中圖片問題頻發,以及目前大語言模型工具的泛用,僅檢測文本相似性不足以更全面地揭示一篇論文的科研誠信風險問題,需要能檢測更多元素的工具來輔助檢測工作,很多高校已經開始使用文察。學術出版界的一些學術期刊,在投稿、審稿期間也會委托平臺開展察驗服務。


“隨著大模型的發展,服務需求預計會更大。只要有違法行為,就會有相應制止手段。”鄂海紅說道。


開設人工智能通識課,幫助學生正確使用AI


“我們首先要讓學生了解,AI工具在論文中應該扮演的角色是什么?論文是創造知識的載體,里面的觀點都應該是原創性的內容,這些是不能通過人工智能去創造的。現在的AI工具都是數據驅動,主要是基于已知的知識。”陳杰說道,“但是在撰寫論文的過程中合理借助AI一些功能的幫助,能夠提高寫作效率。”


面對人工智能的浪潮,高校應該如何應對?深圳大學大數據系統計算技術國家工程實驗室教授彭小剛認為,人工智能是新的趨勢,不可阻擋,各高校應該積極引導。“大學開設人工智能通識課,我覺得是非常有必要的。就像當年開設計算機基礎課程一樣,人工智能的使用能力未來將會成為標配。”同時,對于人工智能倫理問題的思考也同樣重要。“人類不能無腦地任由人工智能來控制你,要知道怎樣去用好它。”


彭小剛強調,關于人工智能的課程要分層次,明晰什么是人類應該掌握的,什么是可以用人工智能來替代的。“單純地禁止用AI,或是什么事都用AI,這兩種態度都是不對的。”


記者注意到,從2024年起,全國許多高校陸續開設了人工智能通識課,將人工智能教育納入通識教育的范疇。2025春季學期開學伊始,深圳大學宣布與騰訊云達成合作,共同推出基于DeepSeek的人工智能通識課程。深大學子本學期即可選課學習。 “我們在人工智能通識課中也專門設置了一個章節介紹生成式人工智能的一些倫理和安全問題,希望可以通過課程規范大家在使用人工智能中的倫理規范。”陳杰說道。


2月24日是彭小剛本學期所負責教授的人工智能通識課第一次開課,教室座無虛席。這門課程一周四節,共計3個學分,本學期開設了4個班級的課程。“反響很熱烈,來的同學比預期的多,連續換了兩次更大的教室上課,才基本滿足學生選課需求。”


彭小剛介紹,深圳大學大數據系統計算技術國家工程實驗室從2024年起就開始籌備開設人工智能通識課。而DeepSeek的推出恰好是一個契機。深圳大學的人工智能通識課有三個特點。一是零基礎開設,不在課程中出現具體的公式,讓文科理科的同學都能夠理解。二是立足國際視野,讓同學們了解世界各國人工智能的發展進程,鼓勵同學們在此基礎上做出更加深入的研究。三是與各學科領域融合,通過這門課程知道人工智能不光是計算機學,也與倫理、立法等學科息息相關,激發所有學科的同學一起參與思考人工智能的建設。


除理論課程外,課程十分重視實際操作。課程設置4項實驗課題。第一個是教大家如何搜索、如何分析數據。第二個是教大家如何合理地利用AI來幫助同學們完成論文的檢索。第三個是讓同學們知道怎么樣用文字來生成圖片和視頻。第四個實驗是文理分開,理工類學生會進行深度學習的一些應用,文科的學生會深入探討數據搜集整理綜合。學生們會在實驗課程中通過實際操作利用人工智能的幫助進行論文檢索、圖表生成、文章潤色等功能。


在鄂海紅看來,幫助學生學會在論文寫作中正確使用AI大模型,一方面要加強學術誠信教育。作為教育者,應著重培養學生對AI工具的批判性使用能力,明確AI的本質是輔助工具,其文本生成、數據分析等功能不能替代研究者的學術判斷與創新思維。因此,學生不僅要掌握AI在提升文獻整理、語法修正等方面的技術優勢,還要清楚認識到AI的使用邊界,警惕其可能引發的學術剽竊、數據失真等風險。


與此同時,鄂海紅也強調,面對人工智能技術快速迭代與科研倫理建設并行的新形勢,高校應當采取雙軌并進的策略,既要系統提升師生AI工具的應用效能,又要明確技術使用邊界和學術規范,強化實操教育,解決AI使用中的倫理矛盾,在教學過程中,應特別強調“可為”與“不可為”的界限,通過案例教學來強化學生的倫理意識,幫助學生在技術創新與學術規范之間建立動態平衡,實現負責任的研究創新。


新京報記者 馮琪 徐彥琳 劉洋

編輯 繆晨霞 校對 柳寶慶