據(jù)每日郵報報道,英國大科學家史蒂芬·霍金(Stephen Hawking)與美國連續(xù)創(chuàng)業(yè)家伊隆·馬斯克(Elon Musk)都曾警告稱,AI(人工智能)變得太聰明非常危險,甚至導致人類滅絕。現(xiàn)在,谷歌團隊又向這個噩夢般的假設邁近了一步,正教授其神經(jīng)網(wǎng)絡系統(tǒng)如何保密。計算機系統(tǒng)已經(jīng)學會如何保護自己的信息,以躲避人類窺探。
來自谷歌Brain團隊的研究人員馬丁·阿巴迪(Martin Abadi)與戴維·安德森(David Andersen)發(fā)表論文,闡述計算機網(wǎng)絡如何通過使用簡單的加密技術,確保信息安全。谷歌的研究團隊專注于深度學習領域,利用大量數(shù)據(jù)進行研究。
谷歌的計算機系統(tǒng)是基于人類大腦神經(jīng)網(wǎng)絡的工作原理設計的,這種計算機又被稱為“神經(jīng)網(wǎng)絡”。研究人員在論文中寫道:“我們想知道神經(jīng)網(wǎng)絡是否能學習使用密匙,以便對其他神經(jīng)網(wǎng)絡保密信息。具體來說,我們主要想確保在多智能體系中確保保密性能。”
研究人員表示,他們創(chuàng)建了由愛麗絲(Alice)與鮑勃(Bob)組成的神經(jīng)網(wǎng)絡系統(tǒng),同時限制名為艾娃(Eve)的第三方神經(jīng)網(wǎng)絡竊聽愛麗絲與鮑勃之間的通信。愛麗絲、鮑勃以及艾娃都是參與實驗的計算機科學家和物理學家的名字。
為了確保信息保密,愛麗絲必須將它的純文本信息轉變成毫無意義的代碼。這意味著任何攔截到信息的人,包括艾娃,都無法理解信息內(nèi)容。當然,鮑勃可以理解愛麗絲的“密文”,但其他人不行。
最初,愛麗絲與鮑勃并不善于隱藏信息,但是在經(jīng)過多次實踐后,它們的表現(xiàn)越來越好,甚至讓艾娃難以獲得有效信息。研究人員稱,這是巨大突破,因為神經(jīng)網(wǎng)絡被設計得并不善于加密信息。
美國加密公司PKWARE的喬·斯特隆納斯(Joe Sturonas)表示:“這種規(guī)模的神經(jīng)網(wǎng)絡在最近幾年才成為可能,而我們找到了它的起點。”
可是就在不久前,霍金還曾警告AI可能產(chǎn)生自我意識,而這種意識很可能與人類意識相沖突。這預示著,強大的自動化武器可能非常危險。但是如果進行充分研究可以避免危險,AI就可以幫助人類根除疾病和貧困。
- 從王傳福躋身全球商界影響力TOP10,看比亞迪的全球躍升之路
- 微軟狂賺仍裁3160人:AI越賺錢,員工越危險?
- PlayStation亮相2025ChinaJoy 攜國產(chǎn)精品游戲邀玩家“決戰(zhàn)游戲之巔”
- 支持力度全面躍升 “中國之星計劃”第四期啟動,助力中國游戲出海升級
- NASA近4000人離職,超總員工五分之一,仍未達減員目標
- 百億美元預算僅分到3.25億,馬斯克的SpaceX遭遇最狠一擊
- 啟信寶發(fā)布《全國產(chǎn)業(yè)集群大全》,全景透視超20000個特色產(chǎn)業(yè)集群
- 人民日報對話任正非:國家越開放,會促使我們更加進步
- 五大領域,六大亮點!全國首個新域新質(zhì)創(chuàng)新大賽落地青島
- 2025新域新質(zhì)創(chuàng)新大賽新聞通氣會?在青島召開
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。