Apple revisará todas las fotos que se hagan desde sus dispositivos en busca de contenidos pederastas
Agencias
La tecnológica sigue los pasos de Google, que ya escaneaba de forma automática las imágenes que se suben a la nube y pone en alerta a los activistas de la privacidad digital.
Apple se sube al carro de la vigilancia de contenidos. La compañía de Cupertino ha anunciado que a finales de este año pondrá en marcha en Estados Unidos un sistema que revisará automáticamente las imágenes subidas desde iPhones e iPads en busca de contenidos pederastas (CSAM, child sexual abuse material).
Se suma así a lo que ya venía haciendo Google, que también escanea las fotos y vídeos que se suben en su nube (Google Drive) para detectar ese tipo de archivos.
El anuncio, avanzado ayer por el Financial Times, se produce tan solo un mes después de que el Parlamento de la Unión Europea aprobara suspender temporalmente la Directiva de la privacidad online precisamente para que las operadoras tengan el paraguas legal necesario para combatir la difusión de pornografía infantil. En Estados Unidos, el Centro Nacional para Menores Desaparecidos y Explotados (National Center for Missing and Exploited Children, NCMEC) hace tiempo que solicita la cooperación de las tecnológicas para perseguir a los pedófilos.
La decisión de Apple ha sentado como un jarro de agua fría a los activistas en defensa de la privacidad digital. El temor de fondo es que, una vez abierta la puerta a la revisión de contenidos privados de los teléfonos para detectar a potenciales criminales, se pueda extender ese escrutinio a otros objetivos bajo argumentos variopintos.