Categories: 生活科技

iOS 15自動模糊相片 阻兒童色情內容傳播

Published by
Chris
Share

Apple 一向重視私隱,近日更推出新「兒童保護」政策並引入 3 項全新機制,自動偵測 iPhone、iCloud 可能存在的兒童色情圖片,期望能同時兼顧私隱及避免兒童色情內容外流。功能預計於最新版本的 iOS 15、iPadOS 15 及 macOS Monterey 推出。

 

 

近日,Apple 宣布推出「兒童保護」(Child Safety)政策,新政策將會引入 3 項全新機制。Apple 將會採用與 Google、Microsoft 類似的做法,系統將會主動將可疑照片數據透過新的密碼學程式轉換為不可讀取的數值,並僅儲存於用戶設備中。同時,系統亦會在上傳至 iCloud 的過程中進行兒童色情內容檢查。

 

 

若有綁定家庭帳號,家長將會於 Apple 裝置內置的 Messages 上收到通知,而當兒童收到色情內容時亦會為照片進行模糊處理並彈出警示。而 Siri 和搜尋系統亦會在兒童搜尋兒童色情相關內容時,彈出提醒並主動解釋行為不恰當,同時為用戶提供諮詢渠道。而迢項功能預計在最新版本的 iOS 15、iPadOS 15 及 macOS Monterey 推出。

 

資料來源:9TO5MAC

unwire.hk Mewe 專頁 : https://mewe.com/p/unwirehk


相關文章:
  • 新 iPad 發佈活動今晚舉行 預料時間僅 35 分鐘
  • 首款 Apple 可摺疊屏幕產品 未來 2 年有望推出
  • Tim Cook:中國是全球競爭最激烈市場 但仍看好 AI 能回復消費者信心

  • Published by
    Chris