新闻

苹果公司仍计划扫描手机对儿童色情。专家们敲响了警钟。

问题是这个技术可能意味着全球隐私标准。

更新:
出版:

在夏天,苹果发布iPhone计划自动扫描照片儿童性虐待材料(CSAM),决定立即会见了反弹一些隐私专家

现在,一群主要计算机科学和安全专家发表了一篇论文,记录他们的担忧该软件,根据ComputerWeekly.com。纸,不同行评议,通过哥伦比亚大学和Arxiv发表,开放获取研究数据库。

很多互联网公司扫描CSAM,包括像Facebook这样的社交媒体巨头,报告Vox。虽然这些扫描在外部服务器上,苹果的计划将扫描照片注定iCloud账户个人iphone等设备。此外,苹果正计划允许父母选择扫描照片由用户通过消息发送不到12岁,Vox报告。

扫描照片的手机,而不是集中的服务器,称为“客户端扫描,”或CSS——这就是问题的作者这篇文章。他们说,问题不是对CSAM扫描,而未来使用的CSS技术。

客户端扫描(CSS)可以非常个人隐私和安全问题

“即使最初部署扫描儿童性虐待材料,内容显然是非法的,会有巨大的压力,扩大它的范围,”作者写道。“我们将很难找到任何方式拒绝其扩张或控制系统的滥用。”

作者指出担忧可能目标从政治活动有组织犯罪和恐怖主义”+人,根据给定的政府正在寻找。如果这项技术创建了门到人的电话,你可以想象压力打开那扇门扫描图像与不受欢迎的政治观点或反独裁专制政府的消息。

最初的反应计划促使公司返工,但维护,iPhone CSS的建议,报告Ars Technica。此外,苹果写道一系列的反应这方面的一些问题。在回答问题,政府是否能让苹果扫描CSAM以外的事情,该公司表示,他们将“拒绝这样的要求”,“这项技术仅限于检测CSAM存储在iCloud,我们不会加入任何政府的要求扩大。”

苹果公司在隐私问题,比如与联邦调查局的请求解锁圣贝纳迪诺射击的iPhone在2016年。虽然联邦调查局最终进入了手机,苹果保持拒绝帮助,根据边缘

但问题不只是在于国家的演员。本文引用了对腐败的警察,这样的人甚至家庭成员。“举例来说,一个女人打算逃离暴力或控制伴侣虐待她和他们的孩子,”作者写道。“施虐者会经常上安装跟踪狂器皿家庭电话,而且他可能使用“智能家居”基础设施,比如视频门铃来控制他们。”

苹果已经对这样的问题如果功能将“防止儿童虐待的家庭寻求帮助”,在他们的网站上说,“安全的通信功能只适用于色情照片共享或接收消息。其他通信,受害者可以使用它来寻求帮助,包括文本信息,不受影响”,注意,他们添加支持Siri和搜索受害者提供更多的支持。

对这个建议的反应没有一致- - - - - - -边缘指出,一些专家满意拦截CSAM的潜力。和孩子成长在一个以互联网为中心的社会,这是非常重要的让他们安全的在线

确保你保持你的孩子尽可能离线,当网络和教育

你可以做的最重要的一件事,除了让你的孩子从互联网和智能手机尽可能长时间,是跟你的孩子关于网络安全和数据隐私,让他们知道现实的监控,数据收集,和潜在的坏演员在当今世界。

网上随着世界的发展,这将是一个挑战,找到可行的解决方案,让人们,特别是孩子,安全,使我们的数据在看不见的地方从罪犯威权政府给私人公司。

这篇文章的作者注意一些较大的潜在影响的质量监控。“引入扫描我们的个人设备,防止信息备忘录文本和图片爱ones-tears公民个人隐私的核心,”他们写道。“这样批量监控会导致显著的寒蝉效应的言论自由,实际上,民主本身。”

这篇文章最初发表在

Baidu