看到今年的畢業季,估計王勃會氣得從地里爬出來,把開發 AIGC 檢測模型的人電腦插頭拔了。
事情是這樣的,今年很多學校為了防止學生用 AI 寫畢業論文,在論文送審時加了一項 "AIGC 檢測 ",意思就是檢測你文章里多少內容是由 AI 生成的。
但直到最近,大伙的論文都接近尾聲了,才發現這玩意兒讓大伙的畢業季變成了走馬燈。
" 我寫的內容會被識別成 AI,而 AI 寫的反而不會被識別成 AI,因此 AI 檢測論文就是在檢測誰能把話說的更不像人話。"25 屆畢業生小蛋如是說,此處內含臟話過濾器。
大伙發在網上的評論,更是一個比一個離譜。
因為自己寫得太專業,被檢測成 AI 寫的。
我估計是因為,這文章寫得太華麗了,對仗工整,用典密集,信息密度巨大,跟現在的 AI 文章確實是有點相似之處的。。
而且,你猜怎么著?AI 生成疑似度的檢測,也是由 AI 進行的。
這活兒,別說碳基生物了,硅基生物都想不到,自己被設計出來,要幫人寫文章,改文章,還要幫你猜猜這文章是不是人寫的??早知道上輩子爛在服務器里了。
但從過程來看,就有點搞笑了。
所以說,要是同事畢業那年有這指標,還真得開罵,這結果根本就不準啊。
更何況一共四萬多字,就要了我 84 塊。。如果有人 AI 生成疑似度死活降不下去的話,我能感受到一種砸鍋賣鐵的絕望。
而之前,咱也就試了一下論文這種專業性強的東西,我就很好奇啊,它是不是啥也不準。于是我當場手碼了一段文字,讓 AI 給我檢測下。
看這無敵的邏輯性,就知道 AI 肯定寫不出來。
所以,檢測 AI 生成疑似度的原理到底是啥?不能 AI 說啥就是啥吧?
沒想到吧,還真是。
當你把文字輸入檢測工具時,它會分析這段文字的各種語言特征,包括詞匯、句子結構、段落銜接方式等等。。然后,它會將這些特征與 AI 的寫作模式進行對比。
對比分析后,檢測工具就會得出一個判斷,并不是絕對地告訴你 " 是 " 或 " 不是 ",而是一個基于語言特征的概率推斷。
像 OpenAI 在 ChatGPT 剛發布時,就推出了自己的 AI 文本識別工具 AI Text Classifier。但準確性就很拉了,只有約 26%,還把莎士比亞的作品當成 AI 生成的。。
當 AI 寫出的文本越來越像人類,分類器也越來越難跟上這種變化,導致它的判斷完全不準確,甚至比瞎蒙還不準確。。就算它看出來了,你隨便加一點,它也就看不出來了。
再說了,刨去準不準的事兒不提,AI 本身就是用來模仿人的寫作風格的。。把人類的文章拿來訓練 AI,再把 AI 拿來檢驗人類寫出的文章像不像 AI,本身就有一種 " 爸爸像兒子 " 般的荒謬。
意思是 AI 學會了我的寫作風格,我就再也不能用這種風格了嗎?那留給人類的時間不多了。
而且,擁有不確定性,就意味著一定會導致誤傷。拿這個作為畢業指標,是不是有點拼運氣了?這一整,沒有大保底,非酋怕是畢不了業了,肄業原因是臉太黑。
于是,大家只能費盡心思,把自己的文章改得越來越不像人。
寫過論文的朋友們都知道,很多大學都有自己的檢測系統,卻不喜歡給學生試用,為了順利畢業,學生只能自掏腰包去第三方網站自查。
查重降重這種東西本來就要花錢。。而現在又多了一項指標,就意味著要花錢的地方又多了一頭。
但有個非常奇特的現象,用不同網站測同一篇文章,AI 生成疑似度完全不一樣,甚至相同網站不同時間的結果也不一樣。
這導致學生被迫成了無頭蒼蠅——誰主張誰舉證,這些網站都在主張你疑似使用 AI,但根本沒有證據,甚至沒有一個統一的標準。所以,到底要怎么改呢?
所以,理論上只要把活老老實實干完,保證實驗嚴謹,數據真實,就達到要求了。用 AI 把我的工作,用學術風格寫出來又怎么了?
AI 的發明就是用來減輕人類負擔的,它們早已成為很多研究者工作中的一部分。
中科院理化研究所的楊曉濤博士就曾表示過,單位和導師都鼓勵科學家學習使用 AI 工具,也會讓他們思考如何與科研結合。而高校卻不允許我們的學生使用 AI,又怎么能接近真正的研究者呢。
但,這其實也很好解決。AI 用多了,你就會發現,肉眼辨 AI 基本上就夠用了。
太離譜的文章,一眼能看出來是 AI 一作的,肯定是過不了關的。但一眼看不出來的,說明和人寫的已經所差無幾了——只要內容詳實,又何必在意詞句?
與其糾結 AI 生成疑似度,不如把目光放到內容真實性上來,一篇論文中包含的努力和汗水,才是其中最寶貴的東西。
總之,AI 被發明的初衷是服務人類,現在讓大家和 AI 斗智斗勇,屬實是有點沒事找事了。
處在 AIGC 元年的大伙,在此刻也終于理解了王勃——時運不齊,命途多舛;三尺微命,一介書生。
撰文:不咕