Apple 将扫描 iCloud 寻找包含暴力侵害儿童的图像。

作者照片
stealth

我们知道, Apple 您非常关心通过生态系统中的设备的数据的机密性,并且它们受到很好的保护,不会被窥探。 然而,这并不意味着用户不应该遵守与伦理、道德以及人性相关的规则。

Apple 宣布将很快推出一项技术,能够扫描用户存储的所有图像 iCloud 并识别包含对儿童进行性虐待的照片。 儿童性虐待材料 (CSAM)。
该技术将由 Apple 到今年年底,最有可能是针对少数用户的试点版本。

如果您想知道“数据机密性在哪里?”,找出我们收到的所有内容 视频/照片 它是通过加密协议完成的。 以及将数据存储在 iCloud 它是加密的,但此类服务的提供者拥有加密数据的密钥。 在这里我们不仅要说 Apple. 微软、谷歌等数据存储服务 cloud 我做同样的事情。

如果在法律诉讼中要求或公然违反法律,则可以对存储的数据进行解密和验证。 比如那些针对儿童和妇女的暴力行为。

为了保证用户的机密性,该公司依赖一种名为 NeuralHash 的新技术,该技术将扫描来自 iCloud 并将通过将它们与数据库中的其他图像进行比较来识别包含暴力侵害儿童的内容。
它有点类似于面部识别或者物体、动物等元素的智能识别。

该技术将能够扫描和验证通过 iPhone、iPad 或 Mac 设备拍摄或传输的照片,即使它们会发生变化。

我很高兴分享我在计算机、手机和操作系统领域的经验,开发网络项目并带来最有用的教程和建议。 我喜欢用iPhone“玩”, MacBook Pro、iPad、AirPort Extreme 和操作系统 macOS、iOS、Android 和 Windows.

发表评论