Apple 最新的iOS15.2 测试版引入了先前宣布的选择性加入通信安全功能,旨在在儿童(而不是父母)发送或接收包含裸体的照片时警告他们。
消息功能是8 月份宣布的一系列儿童安全计划的一部分。重要的是,iMessage 功能并不是旨在检测iCloud 中儿童性虐待材料 (CSAM) 的有争议的系统。
尽管默认情况下未启用,但父母或监护人可以为家庭共享计划中的儿童帐户打开消息功能。该功能将检测信息中的裸体、模糊图像并警告孩子。
苹果表示,孩子们将获得有用的资源,并保证他们不想查看图像也没关系。如果孩子试图发送包含裸体的照片,类似的保护措施就会启动。无论哪种情况,孩子都可以选择向他们信任的人发送消息寻求帮助。
与之前计划的该功能版本不同,如果系统检测到包含裸体的消息,父母将不会收到通知。Apple 表示,这是因为担心家长通知可能会给孩子带来风险,包括身体暴力或虐待的威胁。
苹果表示,裸体标志的检测永远不会离开设备,系统不会侵犯 iMessages 的端到端加密。
值得注意的是,该功能是可选的,仅包含在 iOS 的测试版中,这意味着它目前不面向公众。没有关于何时可以到达最终 iOS 更新的时间表,并且有可能在此之前从最终版本中提取该功能。
再说一次,这个功能不是苹果宣布然后延迟的有争议的 CSAM 检测系统。早在 9 月份,Apple 就表示将在 2021 年晚些时候推出 CSAM 检测功能。现在,该公司表示需要更多时间来收集输入并进行必要的改进。
没有迹象表明 CSAM 系统何时会首次亮相。但是,Apple 确实表示将在 Siri 和搜索中为儿童和父母提供额外的指导。在 2021 年晚些时候对 iOS 15 和其他操作系统的更新中,当用户搜索与儿童剥削相关的查询并解释该主题有害时,该公司将进行干预。
免责声明:本文由用户上传,如有侵权请联系删除!