上周,OpenAI在一篇宣傳博客文章中為教育工作者提供了一些提示,展示了一些教師如何將ChatGPT作為教育輔助工具,并提供了一些建議性的提示。在相關的常見問題解答中,他們也正式承認了我們已經知道的事實:盡管經常被用來懲罰學生的AI寫作檢測器無法正常工作。
在常見問題解答的一個部分中,OpenAI寫道:“簡而言之,不行。雖然一些(包括OpenAI在內)發(fā)布了聲稱可以檢測AI生成內容的工具,但這些工具都沒有可靠地區(qū)分AI生成和人類生成的內容?!?/p>
七月份,我們深入探討了為什么像GPTZero這樣的AI寫作檢測器無法正常工作,專家稱其為“大部分都是騙人的”。由于依賴未經證實的檢測指標,這些檢測器經常產生誤報。最終,AI寫作文本并沒有什么特別之處總是能將其與人類寫作區(qū)分開來,而且檢測器可以通過改寫來規(guī)避。同一個月,OpenAI停止了其AI分類器,這是一個用于檢測AI寫作文本的實驗性工具。它的準確率僅為26%。
OpenAI的新常見問題解答還解決了另一個常見的誤解,即ChatGPT本身是否能夠知道文本是否為AI生成。OpenAI寫道:“此外,ChatGPT無法‘知道’哪些內容可能是AI生成的。它有時會對問題做出編造的回答,比如‘你寫的這篇文章嗎?’或‘這可能是由AI寫的嗎?’這些回答是隨機的,沒有事實依據?!?/p>
在這方面,OpenAI還解釋了其AI模型傾向于虛構錯誤信息的特點,我們在Ars上也進行了詳細報道。公司寫道:“有時,ChatGPT聽起來很有說服力,但它可能會給出不正確或誤導性的信息(在文獻中通常稱為‘幻覺’)。它甚至可以編造引語或引文,因此不要將其作為您研究的唯一來源?!?/p>
盡管自動化的AI檢測器無法正常工作,但這并不意味著人類永遠無法檢測到AI寫作。例如,熟悉學生典型寫作風格的教師可以察覺到他們的風格或能力突然發(fā)生的變化。此外,一些將AI生成的作品冒充人類寫作的粗糙嘗試可能會留下明顯的痕跡,例如短語“作為一個AI語言模型”,這意味著有人在復制和粘貼ChatGPT的輸出時不夠小心。最近,科學期刊《自然》的一篇文章展示了人類如何注意到科學論文中的短語“重新生成回應”,這是ChatGPT中一個按鈕的標簽。
就目前的技術而言,最安全的做法是完全避免使用自動化的AI檢測工具。常見AI分析師和沃頓商學院教授Ethan Mollick在七月份告訴Ars:“AI檢測器的誤報率很高,因此不應使用它們?!?/p>
本文譯自Ars Technica,由 BALI 編輯發(fā)布。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )