蘋果公司近日推出了三條打擊兒童性犯罪的和性侵害的功能,但這些也引發(fā)了人們對隱私保護的擔(dān)憂,對此,負責(zé)軟件工程的高級副總裁克雷格·費德里吉(Craig Federighi)發(fā)言稱解釋了相關(guān)問題。
克雷格·費德里吉(Craig Federighi)
這三條保護政策在十天之前宣布,包括:機器篩查Messages信息,當(dāng)孩子收到色情圖片時,圖片會變得模糊,并且Messages應(yīng)用程序會顯示一條警告;兒童性虐待內(nèi)容(簡稱CSAM)檢測,該功能讓蘋果檢測存儲在iCloud云端照片中的這類圖像特征信息,如果確定有此類圖像,蘋果會向執(zhí)法部門報告;Siri和搜索功能改進,人們可詢問Siri如何報告兒童性虐待內(nèi)容或性剝削,Siri將告訴用戶在哪可以匯報給有關(guān)部門。
其中引發(fā)爭議的主要是第一二條,費德里吉在接受《華爾街日報》采訪時說:“我們希望每個人都能更清楚地了解這一點,因為我們對自己正在做的事情感到非常積極,而我們看到它被廣泛誤解了。”
“事后看來,我承認,同時引入這兩個功能是造成這種混亂的一個緣由,”他繼續(xù)道。 “很明顯,很多信息都被嚴重地混淆了。我相信早期傳出的聲音是,‘天哪,蘋果正在掃描我的手機以獲取圖像。——但這不是事實。”
費德里吉隨后沒事了iCloud掃描上傳的CSAM圖像所涉及的過程,以及當(dāng)通過消息向孩子發(fā)送此類圖像時會發(fā)生什么。
對這些功能的批評集中在蘋果正在分析用戶iPhone照片的看法上。 “這是一個常見但非常深刻的誤解,”費德里吉說。
“這個過程作為將某些內(nèi)容存儲在云中的過程的一部分來應(yīng)用,而不是對您存儲在Messages信息的圖像進行某些處理……或者您正在通過網(wǎng)絡(luò)瀏覽的內(nèi)容。這實際上是在iCloud中存儲圖像的管道的一部分。”
他想說的是,蘋果公司是在分析圖像是否與國家失蹤和受虐兒童中心提供的已知CSAM圖像數(shù)據(jù)庫匹配,而不是分析圖片本身。他們將國家失蹤和受虐兒童中心的數(shù)據(jù)庫轉(zhuǎn)換為一組不可讀的哈希函數(shù)(將一段較長的數(shù)據(jù)映射為較短的數(shù)據(jù)),之后進行對比。一旦匹配程度達到某個閾值,蘋果公司將手動審查確認匹配,然后禁用用戶的帳戶,并向國家失蹤和受虐兒童中心發(fā)送報告。
當(dāng)被問及現(xiàn)在是否有發(fā)布此功能的壓力時,費德里吉說沒有。
“不,我們想通了,”他說。 “我們本來就想做點什么,但此前一直不愿意部署涉及掃描所有客戶數(shù)據(jù)的解決方案。”
- 人工智能邊緣計算如何徹底改變工業(yè)物聯(lián)網(wǎng)
- 如何利用人工智能和數(shù)據(jù)分析實現(xiàn)可持續(xù)綠色技術(shù)
- 雷軍稱將推出下一代智能設(shè)備;三星夏季Unpacked發(fā)布會前瞻:折疊屏旗艦與AI生態(tài)成焦點——2025年06月24日
- 人工智能究竟是如何被應(yīng)用的?
- 千家周報|上周熱門資訊 排行榜(06月16日-06月22日)
- 數(shù)字生活至關(guān)重要:您的在線數(shù)據(jù)有多安全?
- 5G對業(yè)務(wù)增長和連接的影響
- 冷鏈管理中的物聯(lián)網(wǎng):智能溫度監(jiān)控革命
- 華為攜手產(chǎn)業(yè)達成移動AI基礎(chǔ)網(wǎng)共識,加速5G-A體驗變現(xiàn)
- 工業(yè)以太網(wǎng) PoE 的演進與未來
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。