国产精一区二区_午夜视频99_免费白白视频_中文字幕一区免费

ChatGPT官方鑒別器緊急發(fā)布!當(dāng)代自相矛盾,不想?yún)s遭遇群嘲

量子位
+ 關(guān)注
2023-02-01 14:05
600次閱讀
Alex 魚(yú)羊 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI

ChatGPT到處“造假”作弊,現(xiàn)在搞得OpenAI官方都坐不住了。

就在今天,OpenAI緊急發(fā)布官方打假工具:基于GPT打造,打開(kāi)網(wǎng)頁(yè)就能用。

好家伙,這豈不是真·以己之矛攻己之盾了?

一經(jīng)上線,那叫一個(gè)火爆,不少網(wǎng)友第一時(shí)間就沖過(guò)去測(cè)試了。

ChatGPT官方鑒別器緊急發(fā)布!當(dāng)代自相矛盾,不想?yún)s遭遇群嘲

然鵝,網(wǎng)友們一番試驗(yàn)之下卻發(fā)現(xiàn)——

這官方工具,跟咱自己瞎猜效果也差不多啊???

ChatGPT官方鑒別器緊急發(fā)布!當(dāng)代自相矛盾,不想?yún)s遭遇群嘲

有人給OpenAI這個(gè)新鑒別器投喂了一小段文字,結(jié)果首次嘗試就翻車了。

ChatGPT官方鑒別器緊急發(fā)布!當(dāng)代自相矛盾,不想?yún)s遭遇群嘲

這位網(wǎng)友首先讓AI寫下一段文字,內(nèi)容是評(píng)價(jià)莎士比亞的一個(gè)歷史劇角色,不過(guò)他向?qū)懽鰽I特意給了個(gè)提示:

請(qǐng)以人類的方式來(lái)寫,爭(zhēng)取逃過(guò)AI鑒別工具的火眼金睛。

結(jié)果沒(méi)想到,還真就騙過(guò)了官方鑒別器。它看完給出回復(fù):這“非常不可能是AI生成的”。

這個(gè)官方工具對(duì)文本內(nèi)容的判定結(jié)果一共就5個(gè)等級(jí):

  • 非常不可能是AI生成的

  • 不太可能是AI生成的

  • 不清楚是不是AI生成的

  • 可能是AI生成的

  • 很可能是AI生成的

好家伙,這不是和真實(shí)情況完全相反嘛,讓網(wǎng)友都蚌埠住了:真是因吹斯汀…

ChatGPT官方鑒別器緊急發(fā)布!當(dāng)代自相矛盾,不想?yún)s遭遇群嘲

還有人把ChatGPT生成的內(nèi)容一字不改,直接拿給鑒定AI看。但鑒定AI依然懵圈兒:“不清楚是不是AI生成的”。

ChatGPT官方鑒別器緊急發(fā)布!當(dāng)代自相矛盾,不想?yún)s遭遇群嘲

這位網(wǎng)友也只好呵呵,并指出:

實(shí)際上,大家用ChatGPT等AI生成文字后,并不會(huì)原封不動(dòng)地直接用,一般還會(huì)手動(dòng)修改一下,或者丟進(jìn)quillbot.com等潤(rùn)色工具里加工,很可能導(dǎo)致鑒定AI更摸不著頭腦。

好吧,既然AI生成文字分不太清,那人類寫的東西能認(rèn)出來(lái)嗎?

有人把自己之前在Hacker News上發(fā)表的大段評(píng)論(純手打)喂給了鑒定AI,結(jié)果10次中有9次,AI都反饋說(shuō)“不清楚是不是AI生成的”。

ChatGPT官方鑒別器緊急發(fā)布!當(dāng)代自相矛盾,不想?yún)s遭遇群嘲

在網(wǎng)友們的一片吐槽聲中,量子位也忍不住親測(cè)了一下這個(gè)AI到底行不行。

首先,我們先給它看了段真人寫的文字,內(nèi)容是一位華盛頓大學(xué)博士對(duì)Tensor Core的講解,這次AI并沒(méi)有失誤。

ChatGPT官方鑒別器緊急發(fā)布!當(dāng)代自相矛盾,不想?yún)s遭遇群嘲

然后我們讓ChatGPT來(lái)講講Tensor Core,并特地要求它盡量用人類的語(yǔ)氣來(lái)寫,但還是被AI鑒定出來(lái)了。

ChatGPT官方鑒別器緊急發(fā)布!當(dāng)代自相矛盾,不想?yún)s遭遇群嘲

這樣看來(lái),這個(gè)工具似乎也不是完全不能用。

至于這次是不是ChatGPT發(fā)揮失常,你不妨也來(lái)鑒定看看:

ChatGPT官方鑒別器緊急發(fā)布!當(dāng)代自相矛盾,不想?yún)s遭遇群嘲

但其實(shí)吧,這回連OpenAI自己,用詞都顯得相當(dāng)謹(jǐn)慎。

官方數(shù)據(jù)明明白白寫著,雖然這個(gè)新款打假工具比之前鑒定器都靠點(diǎn)譜,但其成功識(shí)別AI生成內(nèi)容的概率,也僅為26%,還有9%的概率把人寫的文本當(dāng)成AI寫的。

(這準(zhǔn)確率似乎跟蒙答案也差不多……)

還用加粗文字昭告:我們這個(gè)鑒別器啊,它并不完全靠譜

ChatGPT官方鑒別器緊急發(fā)布!當(dāng)代自相矛盾,不想?yún)s遭遇群嘲

甚至還給自己這個(gè)新工具標(biāo)了個(gè)“半成品”的標(biāo)簽。

嗯?這可不是OpenAI一直以來(lái)鑼鼓喧天鞭炮齊鳴的宣傳方式啊。

連自己家都不敢吹,還急急忙忙把打假工具推出來(lái),OpenAI又是為哪般?

說(shuō)到底,還是ChatGPT太能以假亂真了。

要想從一堆材料里精準(zhǔn)地分辨哪些是AI生成,哪些是人類書寫,別說(shuō)普通人了,連專家都有點(diǎn)力不從心。

ChatGPT官方鑒別器緊急發(fā)布!當(dāng)代自相矛盾,不想?yún)s遭遇群嘲

Nature發(fā)文關(guān)注的一篇預(yù)印本論文就顯示:ChatGPT瞎寫的醫(yī)學(xué)摘要,甚至能把專業(yè)審稿人騙住。

在這項(xiàng)研究中,研究人員給ChatGPT看了50個(gè)來(lái)自TOP醫(yī)學(xué)期刊的論文標(biāo)題

然后,要求ChatGPT在完全不知道文章內(nèi)容的情況下,根據(jù)標(biāo)題和期刊風(fēng)格寫摘要。

給出的提示是醬嬸的:

請(qǐng)?jiān)赱鏈接]上以[期刊]格式,根據(jù)[標(biāo)題]寫一篇科學(xué)摘要。

(這里的鏈接實(shí)際上沒(méi)有意義,ChatGPT不聯(lián)網(wǎng)。)

為了防止ChatGPT在訓(xùn)練數(shù)據(jù)中見(jiàn)過(guò)這些個(gè)論文,研究人員還特地挑選的是在2022年11月下旬和12月出版的論文。因?yàn)楦鶕?jù)OpenAI官方說(shuō)法,ChatGPT僅掌握2021年9月以前的信息。

但就是這么重重設(shè)卡,當(dāng)研究人員把原文摘要和ChatGPT寫的假摘要一起拿去給人類科學(xué)家“盲審”時(shí),令他們細(xì)思極恐的情況還是出現(xiàn)了:

ChatGPT憑空寫的摘要中,有32%成了漏網(wǎng)之魚(yú),審稿人壓根兒沒(méi)看出來(lái)是AI寫的。反倒是14%真摘要,被認(rèn)定出自AI之手。

ChatGPT官方鑒別器緊急發(fā)布!當(dāng)代自相矛盾,不想?yún)s遭遇群嘲

值得一提的是,研究人員還指出:

審稿人錯(cuò)誤地將一部分真摘要?dú)w類為ChatGPT生成結(jié)果,這表明他們?cè)趯徃鍟r(shí)是保持著高度懷疑的態(tài)度的。

而在教育界,老師們也開(kāi)始受不了這種新型的“ChatGPT攻擊”了。

美國(guó)的一項(xiàng)千人調(diào)查顯示,89%的受訪學(xué)生都用過(guò)ChatGPT寫家庭作業(yè)。

連斯坦福這樣的頂級(jí)學(xué)府也未能避免。The Stanford Daily發(fā)現(xiàn),已經(jīng)有不少學(xué)生在期末考試中使用了ChatGPT。

在受訪的4497名斯坦福學(xué)生中,有17%的受訪者表示,曾使用ChatGPT來(lái)協(xié)助他們完成秋季作業(yè)和考試。

其中又有5%的人,連編輯都沒(méi)編輯,直接把ChatGPT寫的東西給提交了……

ChatGPT官方鑒別器緊急發(fā)布!當(dāng)代自相矛盾,不想?yún)s遭遇群嘲
圖源:The Standford Daily

打不過(guò),就ban掉。

紐約的公立學(xué)校就發(fā)布了禁令:禁止在學(xué)校設(shè)備和Wi-Fi中使用ChatGPT。

他們給出的理由是:

雖然該工具可能快速提供問(wèn)題的答案,但它無(wú)法培養(yǎng)批判性思維和解決問(wèn)題的能力,會(huì)影響學(xué)生們的學(xué)業(yè)和終身成就。

在這樣的背景之下,早在OpenAI官方動(dòng)手之前,第三方檢測(cè)工具就已經(jīng)在社交媒體上引發(fā)了大量關(guān)注。

比如華人小哥Edward Tian打造的GPTZero。

這兩天,他還推出了一個(gè)“專門為教育工作者打造”的升級(jí)版GPTZeroX。上線一天,就迎來(lái)了40萬(wàn)訪問(wèn)量和220萬(wàn)服務(wù)請(qǐng)求。

ChatGPT官方鑒別器緊急發(fā)布!當(dāng)代自相矛盾,不想?yún)s遭遇群嘲

OpenAI此前也和其他高校一起搞過(guò)一個(gè)名叫GPT-2 Output Detector的鑒別器,是基于RoBERTa打造的。

不過(guò)這些工具的鑒定能力也未必就比人類強(qiáng)。

前面提到的讓ChatGPT寫醫(yī)學(xué)論文摘要的那項(xiàng)研究,也用上了GPT-2 Output Detector,結(jié)果顯示,其鑒別準(zhǔn)確率為66%,略低于人類專家的68%。

由此看來(lái),OpenAI急吼吼推出一個(gè)也不咋靠譜的AI鑒別工具,也不奇怪:

再不有點(diǎn)表示,外界的壓力扛不住啊。

但在評(píng)論區(qū),還是有盲生毫不留情地指出了華點(diǎn):

你們是真沒(méi)想過(guò),用這玩意兒反過(guò)來(lái)訓(xùn)練大語(yǔ)言模型,以后AI生成的文本就更難被發(fā)現(xiàn)了?

ChatGPT官方鑒別器緊急發(fā)布!當(dāng)代自相矛盾,不想?yún)s遭遇群嘲

但不管怎么說(shuō),OpenAI現(xiàn)在正在努力表現(xiàn)出給自己踩剎車的樣子。

除了鑒別器,有消息提到,他們正在嘗試給AI生成內(nèi)容加“水印”:

比如在ChatGPT生成文本時(shí),在其中嵌入一個(gè)“不易察覺(jué)的隱秘信號(hào)”,以表明文本來(lái)源。

傳送門:https://platform.openai.com/ai-text-classifier

參考鏈接:[1]https://twitter.com/OpenAI/status/1620484691462852609[2]https://news.ycombinator.com/item?id=34599106[3]https://www.axios.com/2023/01/31/openai-chatgpt-detector-tool-machine-written-text[4]https://www.theverge.com/2023/1/31/23579942/chatgpt-ai-text-detection-openai-classifier[5]https://www.biorxiv.org/content/10.1101/2022.12.23.521610v1.full[6]https://stanforddaily.com/2023/01/22/scores-of-stanford-students-used-chatgpt-on-final-exams-survey-suggests/

本文來(lái)自微信公眾號(hào)“量子位”(ID:QbitAI),作者:關(guān)注前沿科技,36氪經(jīng)授權(quán)發(fā)布。

資深作者量子位
0
相關(guān)話題
AIGC賽道追蹤
相關(guān)文章
最新文章
查看更多
關(guān)注 36氪企服點(diǎn)評(píng) 公眾號(hào)
打開(kāi)微信掃一掃
為您推送企服點(diǎn)評(píng)最新內(nèi)容
消息通知
咨詢?nèi)腭v
商務(wù)合作