蘋果對(duì)CSAM的未來(lái)保持沉默
發(fā)布日期:2022-08-22 09:06:48 來(lái)源: 編輯:
自蘋果公司在iCloud照片上推出其CSAM或兒童性虐待材料保護(hù)已經(jīng)一年了,但到目前為止,該公司尚未宣布任何有關(guān)其發(fā)展方向以及是否會(huì)實(shí)施新措施的信息。
目前,iCloud照片模糊了信息和Siri兒童剝削資源中的色情照片。蘋果提到,到2021年底,iPadOS15和iOS15將啟用CSAM檢測(cè)。然而,由于“研究人員、倡導(dǎo)團(tuán)體和客戶的反饋”,它被推遲了。
去年9月,蘋果發(fā)布了其兒童安全頁(yè)面的更新,稱盡管該公司旨在幫助保護(hù)兒童免受掠食者的侵害并限制兒童性虐待材料的傳播。次年12月,Apple刪除了該帖子。一位發(fā)言人表示,蘋果將繼續(xù)尋求選擇,但此后未發(fā)表任何公開評(píng)論。
CSAM受到政策團(tuán)體、政治家、EFF、安全研究人員和大學(xué)研究人員等的批評(píng)。
標(biāo)簽: