[新聞] 蘋果預計將兒童色情偵測功能擴展到第三方應用程式已刪文

看板kodomo (蘿莉正太)作者 (s142857)時間2年前 (2021/08/13 17:55), 編輯推噓0(000)
留言0則, 0人參與, 最新討論串1/2 (看更多)
1.媒體來源: Technews科技新報 2.記者署名: 邱倢芯 3.完整新聞標題: 一次到位,蘋果預計將兒童色情偵測功能擴展到第三方應用程式 4.完整新聞內文: 上週蘋果(Apple)宣布新兒童保護(Child Safety)政策,將在 iOS 與 iPadOS 加入圖片 審查機制,自動偵測用戶 iPhone 與 iCloud 是否有兒童色情影像,打擊兒童相關性犯罪問 題。《MacRumors》報導,蘋果新措施不僅審查用戶 iPhone 與 iCloud,未來也會擴展到第 三方應用程式。 新兒童安全保護政策 何謂蘋果的兒童安全保護政策?官方資料顯示,未來孩童 iPhone、iPad、Mac 如果接收與 色情相關內容,且有綁定家庭帳號的情況下,系統會自動通知孩童父母;系統也會模糊處理 色情影像,並跳出警告提醒孩子。 這項政策的另一項功能,就是會自動偵測用戶 iPhone、iCloud 儲存的照片影像,查看是否 有大量兒童性剝削(CSAM)內容;如果系統偵測到影像,就會自動通報美國國家兒童失蹤與 受虐兒童援助中心(NCMEC),會與美國各地執法機構合作,打擊犯罪。 不過《MacRumors》也指出,蘋果新措施僅限偵測兒童色情相關照片,影片尚未納入。 蘋果 Siri 與 Spotlight 搜尋功能未來也將兼具「色情守門員」功能,防止孩童在不知情 或不安全情況下,接收到不恰當的色情資訊。 保護措舉將涵蓋第三方 App 《MacRumors》也指出,雖然蘋果尚未公布詳細資訊,但兒童安全保護政策未來將擴展到第 三方應用程式,使用戶獲得更廣泛的保護。 至於會擴展到哪些類型的應用程式,目前官方尚未公告,據外國媒體猜測,可能會擴展到 S napchat、Instagram 或 WhatsApp 等應用程式,當兒童收到色情圖片時,系統會自動模糊 這些影像。 又或蘋果 CSAM 偵測系統擴展到第三方應用程式,當兒童色情圖片上傳後就會通報。 5.完整新聞連結 (或短網址): https://reurl.cc/ogG3qV 6.備註: 蘋果這功能預計在iOS/iPadOS 15 還有macOS Monterey 推出更新。也就是手機平板電腦都 會審查。 不知道會不會審查safari之類的瀏覽器 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.150.80.175 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/kodomo/M.1628848527.A.BE6.html
文章代碼(AID): #1X5a6Flc (kodomo)
文章代碼(AID): #1X5a6Flc (kodomo)