中文字幕亚洲欧美日韩在线不卡,亚洲欧美日产综合在线网性色,思思久久精品6一本打道,综合视频中文字幕

    <sub id="dxmnt"><ol id="dxmnt"></ol></sub>

      1. 蘋果宣布iCloud放棄兒童性虐待材料(CSAM)檢測計劃

        更新時間:2022-12-08 10:05:53作者:智慧百科

        蘋果宣布iCloud放棄兒童性虐待材料(CSAM)檢測計劃

        IT之家 12 月 8 日消息,在分享給 WIRED 的一份聲明中,蘋果今天宣布 iCloud 云服務(wù)已放棄兒童性虐待材料(CSAM)檢測計劃。這項檢測計劃于 2021 年 8 月開始測試,主要會檢測存儲在 iCloud 的 CSAM 圖像資料,但自推出以來備受爭議。


        Illustration: Jacqui VanLiew

        蘋果最初表示,CSAM 檢測將在 2021 年底之前在 iOS15 和 iPadOS15 的更新中實現(xiàn),但該公司最終根據(jù) "客戶、宣傳團體、研究人員和其它方面的反饋" 推遲了這項功能。現(xiàn)在,經(jīng)過一年的沉默,蘋果已經(jīng)完全放棄了 CSAM 檢測計劃。

        IT之家了解到,蘋果的計劃受到了廣泛的個人和組織的批評,包括安全研究人員、電子前沿基金會(EFF)、政治家、政策團體、大學研究人員,甚至還包括一些蘋果員工。

        一些批評者認為,該功能將為設(shè)備創(chuàng)造一個 "后門",政府或執(zhí)法機構(gòu)可以利用它來監(jiān)視用戶。另一個擔憂是誤報,包括有人可能故意將 CSAM 圖像添加到另一個人的 iCloud 賬戶中,使其賬戶被標記。

        蘋果公司在聲明中表示:

        在廣泛征求專家意見,收集我們?nèi)ツ晏岢龅膬和Wo舉措的反饋后,我們正加大對 2021 年 12 月上線的 Communication Safety 功能的投資。我們決定不再推進我們之前提出的 iCloud 照片的 CSAM 檢測工具。 兒童可以在沒有公司梳理個人數(shù)據(jù)的情況下得到保護,我們將繼續(xù)與政府、兒童倡導者和其它公司合作,幫助保護年輕人,維護他們的隱私權(quán),讓互聯(lián)網(wǎng)成為兒童和我們所有人更安全的地方。

        本文標簽: icloud  蘋果  ios  apple  虐待  csam