4月17日消息,日前,世界數(shù)字技術(shù)院(WDTA)發(fā)布了一系列突破性成果,包括《生成式人工智能應(yīng)用安全測試標(biāo)準(zhǔn)》和《大語言模型安全測試方法》兩項國際標(biāo)準(zhǔn)。這是國際組織首次就大模型安全領(lǐng)域發(fā)布國際標(biāo)準(zhǔn),代表全球人工智能安全評估和測試進(jìn)入新的基準(zhǔn)。
信息顯示,此次發(fā)布的兩項國際標(biāo)準(zhǔn)是大模型及生成式AI應(yīng)用方面的安全測試標(biāo)準(zhǔn)。由OpenAI、螞蟻集團、科大訊飛、谷歌、微軟、英偉達(dá)、百度、騰訊等數(shù)十家單位的多名專家學(xué)者共同編制而成。
其中,《生成式人工智能應(yīng)用安全測試標(biāo)準(zhǔn)》由WDTA作為牽頭單位。該標(biāo)準(zhǔn)為測試和驗證生成式AI應(yīng)用的安全性提供了一個框架,特別是那些使用大語言模型(LLM)構(gòu)建的應(yīng)用程序。它定義了人工智能應(yīng)用程序架構(gòu)每一層的測試和驗證范圍,包括基礎(chǔ)模型選擇、嵌入和矢量數(shù)據(jù)庫、RAG或檢索增強生成、AI應(yīng)用運行時安全等等,確保AI應(yīng)用各個方面都經(jīng)過嚴(yán)格的安全性和合規(guī)性評估,保障其在整個生命周期內(nèi)免受威脅和漏洞侵害。
《大語言模型安全測試方法》由螞蟻集團作為牽頭單位。該標(biāo)準(zhǔn)則為大模型本身的安全性評估提供了一套全面、嚴(yán)謹(jǐn)且實操性強的結(jié)構(gòu)性方案。它提出了大語言模型的安全風(fēng)險分類、攻擊的分類分級方法以及測試方法,并率先給出了四種不同攻擊強度的攻擊手法分類標(biāo)準(zhǔn),提供了嚴(yán)格的評估指標(biāo)和測試程序等,可解決大語言模型固有的復(fù)雜性,全面測試其抵御敵對攻擊的能力,使開發(fā)人員和組織能夠識別和緩解潛在漏洞,并最終提高使用大語言模型構(gòu)建的人工智能系統(tǒng)的安全性和可靠性。
與會的WDTA人工智能安全可信負(fù)責(zé)任工作組組長黃連金表示,隨著人工智能系統(tǒng),特別是大語言模型繼續(xù)成為社會各方面不可或缺的一部分,以一個全面的標(biāo)準(zhǔn)來解決它們的安全挑戰(zhàn)變得至關(guān)重要。此次發(fā)布的標(biāo)準(zhǔn)匯集了全球AI安全領(lǐng)域的專家智慧,填補了大語言模型和生成式AI應(yīng)用方面安全測試領(lǐng)域的空白,為業(yè)界提供了統(tǒng)一的測試框架和明確的測試方法,有助于提高AI系統(tǒng)安全性,促進(jìn)AI技術(shù)負(fù)責(zé)任發(fā)展,增強公眾信任。
據(jù)了解,近年來,世界各國都在加強對于大模型安全的研究和管控。我國先后發(fā)布了《全球人工智能治理倡議》《生成式人工智能服務(wù)管理暫行辦法》《生成式人工智能服務(wù)安全基本要求》等,旨在促進(jìn)生成式人工智能安全可信發(fā)展,推進(jìn)全球人工智能治理領(lǐng)域合作共識。
- 餓了么灰測“悅享會員”加碼用戶體驗,提供一系列專屬優(yōu)惠和個性化服務(wù)
- 啟信寶2025奶茶趣味報告:奶茶企業(yè)5年激增140%,40萬家共筑3500億帝國
- 《黑神話:悟空》PS5國行版將于6月18日正式發(fā)售,建議零售價268元起
- 報告:2029年美國AI搜索廣告支出將達(dá)260億美元,占比13.6%
- 重塑內(nèi)生安全體系 實現(xiàn)AI時代安全突圍 ——2025北京網(wǎng)絡(luò)安全大會(BCS)開幕
- 門禁憑證技術(shù)進(jìn)化簡史:開啟更加安全和便利的未來
- Google I/O 大會:科技盛宴,引領(lǐng)未來創(chuàng)新潮流
- 馬蜂窩端午出行大數(shù)據(jù):短途周邊游是主流,非遺民俗關(guān)注度持續(xù)走高
- 微軟裁員6000人原因揭曉 AI沖擊首當(dāng)其沖
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。