新闻

苹果将扫描iphone虐童图片。隐私专家担心

“政府将要求(技术)从每一个人。”

有人认为iPhone
Pexels

苹果公司宣布了一个新系统,将扫描每一个iPhone搜索儿童性虐待图像和材料。

新系统目的是检测儿童性虐待在顾客的设备上的图像在美国之前上传到iCloud。如果检测到一个图像,一个人类评论家将审查照片确认是儿童性虐待和报告发现执法和/或国家失踪和受虐儿童中心。人的iCloud账户也将被禁用,每个苹果,美国国家公共电台,英国广播公司。

苹果的新技术,叫做“NeuralHash”,将工作通过利用现有的儿童性虐待的照片材料来自美国国家失踪与受虐儿童中心以及其他儿童安全组织。图像变成“散列”,这些数值编码可以匹配的图像儿童性虐待在苹果设备,即使他们是编辑。NeuralHash找到“散列”,能够识别图像。

苹果还将“扫描用户的加密消息为色情内容作为儿童安全措施。”

这些举措,苹果说的增殖抑制儿童色情作品性图像的孩子遭到了隐私专家的批评,因为它授予政府和私人实体访问什么人在他们的手机上。

说到英国广播公司、安全专家马修的约翰霍普金斯大学的绿色表示担忧。“不管什么是苹果公司的长期计划,他们发出了一个非常明确的信号,”他说。”(很有影响力)看来,它是安全的构建系统,扫描用户的手机禁止内容…他们是否会对还是错在这一点上并不重要。这将打破大坝——政府将要求它从每一个人。”

苹果公司称,这项技术提供了隐私,只了解用户的照片“如果他们有一个已知的儿童性虐待图像集合”iCloud。

不过,隐私专家担心,可以利用的技术来阻止任何水平的演讲中,信息共享,图片分享,或更多的政府——特别是专制的——想要南瓜。

被禁止的内容,然后,可能不仅意味着儿童色情。这也意味着政治言论或可以用威权政府镇压异议,或用作质量监测工具。

在Twitter上,绿色还指出,因为苹果的运作在中国仅存的加密的通讯服务,“当苹果发展的技术能够扫描加密内容,你不能只说,“好吧,我想知道中国政府将与技术。这不是理论。”

在一系列的tweet,爱德华·斯诺登共享类似的情绪,注意的是,苹果不仅会不断更新每个电话比较照片和云存储重版书,但它也会告诉你的父母,如果你查看在iMessage裸体。”

史蒂文·默多克

Baidu