Apple

Apple 将扫描 iCloud 寻找包含暴力侵害儿童的图像。

我们知道, Apple 您非常关心通过生态系统中设备的数据的机密性,并且它们受到很好的保护,不会被窥探。ios伊洛。 然而,这并不意味着用户不应该遵守道德、道德和人性的规则,为什么不遵守。

Apple 宣布将很快推出一项技术,能够扫描用户存储的所有图像 iCloud 并识别包含对儿童进行性虐待的照片。 儿童性虐待材料 (CSAM)。
该技术将由 Apple 到今年年底,最有可能是针对少数用户的试点版本。

如果您想知道“数据机密性在哪里?”,找出我们收到的所有内容 视频/照片 它是通过加密协议完成的。 以及将数据存储在 iCloud 它是加密的,但此类服务的提供者拥有加密数据的密钥。 在这里我们不仅要说 Apple. 微软、谷歌和其他云数据存储服务也是如此。

如果在法律诉讼中要求或公然违反法律,则可以对存储的数据进行解密和验证。 比如那些针对儿童和妇女的暴力行为。

为了保证用户的机密性,该公司依赖一种名为 NeuralHash 的新技术,该技术将扫描来自 iCloud 并将通过将它们与数据库中的其他图像进行比较来识别包含暴力侵害儿童的内容。
它有点类似于面部识别或对物体、动物和其他元素的智能识别。

该技术将能够扫描和验证通过设备拍摄或传输的照片 iPhone, iPad 或 Mac,即使它们会发生变化。

Apple 将扫描 iCloud 寻找包含暴力侵害儿童的图像。

关于作者

隐形

我很高兴分享我在计算机,移动电话和操作系统方面的经验,开发Web项目并提供最有用的教程和技巧。
我喜欢“玩” iPhone, MacBook Pro, iPad, AirPort Extreme 和 macOS 操作系统, iOS, 安卓和 Windows.

发表评论