用 iPhone 傳色情照片將被自動打馬賽克,還會檢查 iCloud 內的兒童色情照片

iOS專區 3年前 (2021) 蘋果哥
10 0

用 iPhone 傳色情照片將被自動打馬賽克,還會檢查 iCloud 內的兒童色情照片

蘋果今日發佈新兒童安全政策,為了保護兒童安全,將會在 iOS 15iPadOS 15watchOS 8macOS 12 Monterey 中加入全新的兒童防護機制。阻止兒童性虐待素材 CSAM(Child Sexual Abuse Material)傳播。新安全政策在發佈時只在美國地區執行,未來將會擴及全球其他地區。

訊息 App 會阻擋敏感圖片,並發出警告

訊息 App 中會加入新的兒童安全防護工具,利用機器學習的方式,分析訊息中的任何敏感內容,蘋果不會從中獲取任何資訊。在接收或傳送含有色情內容的圖片時,會向孩童與其父母發出警告訊息。

用 iPhone 傳色情照片將被自動打馬賽克,還會檢查 iCloud 內的兒童色情照片

收到敏感內容的照片時,照片會自動模糊,兒童不會看到相關的敏感內容。同時為了確保孩童安全,在收到或是發送內含敏感內容的訊息時,孩童與家長都會收到警告訊息,即時阻止敏感訊息傳播。

檢測上傳至 iCloud 的兒童色情照片

在 iOS 15 與 iPadOS 15 中,新功能會檢查儲存在 iCloud 中的照片,若有 CSAM 相關的照片存在 iCloud 中,會自動與相關執法單位(例如:NCMEC 美國國家兒童失蹤與受虐兒童援助中心)聯繫並報告相關情況。

同時蘋果強調新的安全機制,是以保護用戶隱私為前提而設計的。該安全機制並不會直接掃描 iCloud 中的照片,而是將 NCMEC 還有其他兒童安全組織提供的 CSAM 圖像資料庫,轉換成一組不可讀的 hashes,再傳送到用戶的裝置上。

用 iPhone 傳色情照片將被自動打馬賽克,還會檢查 iCloud 內的兒童色情照片

當用戶將照片上傳至 iCloud 時,會透過一種名為 Private Set Intersection 的加密技術,與 NCMEC 還有其他兒童安全組織提供的 CSAM 圖像資料庫進行比對。若上傳違規照片到達一定的數量,蘋果將會查閱違規內容,並使用人工的方式逐一檢查。若照片違規屬實,蘋果就會禁用該 iCloud 帳號,並向相關執法單位報告。當然這還是有弊端的,只要不上傳照片到 iCloud 上,就不會被檢查比對,所以未來蘋果可能還是要想辦法解決,這類 CSAM 散播的問題。

搜尋敏感內容時會發出警告

若使用 Siri、Spotlight 搜尋 CSAM、相關兒童色情內容時,新功能也會阻擋,並發出警告訊息。 Siri、Spotlight 的警告功能,將在今年稍晚更新至 iOS 15、iPadOS 15、watchOS 8、macOS 12 Monterey 中。

用 iPhone 傳色情照片將被自動打馬賽克,還會檢查 iCloud 內的兒童色情照片

相關文章