导航菜单

苹果攻击儿童色情 推出这些措施覆盖iPhone/平板等

导读 【手机中国新闻】8月6日,手机中国获悉,苹果宣布了一项新措施,在iPhone上扫描虐待儿童的图像。苹果表示:“苹果检测已知CSAM(儿童性虐待
2021-11-12 02:59:29

【手机中国新闻】8月6日,手机中国获悉,苹果宣布了一项新措施,在iPhone上扫描虐待儿童的图像。

苹果表示:“苹果检测已知CSAM(儿童性虐待材料)的方法是在考虑用户隐私的情况下设计的。“这个系统不是在云中扫描图像,而是使用NCMEC(国家失踪和受虐待儿童中心)和其他儿童安全组织提供的已知CSAM图像哈希数据库来执行设备匹配。苹果进一步将数据库转换成一组不可读的哈希值,安全地存储在用户设备上。”

苹果分析图片的技术原理(图源新浪科技)

分析苹果图片的技术原理(图源新浪科技)

苹果在技术摘要中提供了更多关于CSAM检测系统的详细信息,并表示其系统使用阈值“设置为提供极高的准确性,并确保每年给定账户贴错标签的概率低于万亿分之一”。

苹果表示,这些变化将“在今年晚些时候iOS 15、iPadOS 15、watchOS 8和macOS Monterey的更新中引入”。苹果还将部署能够在Messages应用程序中分析图像的软件,以开发一个新系统,该系统将“在接收或发送色情照片时警告儿童及其父母”。

敏感图像将是模糊的,并且家庭组中父母的产品上会有通知(图源新浪科技)

敏感图像会模糊,家庭群中会有家长产品的告示(图源新浪科技)

“邮件使用设备上的机器学习来分析图像附件,并确定照片是否有色情内容。这一功能旨在让苹果无法访问消息,”苹果表示。

当“信息”中的图像被标记为“照片会变得模糊,孩子们会收到警告,提供有用的资源,并确保他们不想看这张照片也没关系。”如果孩子确实看了标记的照片,系统会让家长收到消息,“如果孩子试图发送色情照片,可以使用类似的保护措施。在发送照片之前,孩子会收到一条警告,如果孩子选择发送,父母可以收到一条信息,”苹果说。

SIri增加类似“我该怎么办”功能(图源新浪科技)

SIri增加了“我该怎么办”这样的功能(图源新浪科技)

苹果表示,还将更新Siri和搜索,以“为父母和孩子提供更多信息,并在他们遇到不安全的情况时提供帮助”。Siri和搜索系统将“在用户搜索与CSAM相关的查询时进行干预”,并“向用户解释对该主题感兴趣是有害和有问题的,并提供合作伙伴的资源以获得关于该问题的帮助”。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢:

最新文章: