Apple escanea las fotos en iCloud en busca de imágenes de abuso infantil

0
892

Por primera vez en 28 años, Apple vuelve a Las Vegas para dar una pequeña charla en el Consumer Electronic Show en su edición de 2020. Durante la misma, Jane Horvath, directora de privacidad a nivel global en la compañía, sacó filo a una de las armas que mejor está funcionando frente al resto de rivales en las empresas del Big Tech.

Apple reconoce que escanea las imágenes en iCloud en busca de fotos de abuso infantil. Recientemente los cambios en su política de privacidad fueron actualizados para permitirlo (Foto: Especial).

Apple, que ya ha hecho campaña ensalzando el valor de la privacidad en sus dispositivos, reconoce ahora que realiza un seguimiento masivo de las imágenes que los usuarios almacenan en iCloud.

Según Horvarth eliminar el cifrado no es su opción y «no es la forma en la que vamos a resolver estas cuestiones», a lo que añade: «Estamos utilizando algunas tecnologías para ayudar a detectar material de abuso sexual infantil».

Esta cesión sería el contrapeso a las históricas demandas por parte de distintas autoridades, que piden colaboración por parte del gigante de Cupertino tanto en crímenes concretos como en áreas más amplias como esta. Esta misma semana, el FBI volvía a pedir a Apple el desbloqueo de dos iPhone de un hombre involucrado en el tiroteo que acabó con la vida de tres personas en una base naval en Florida.

La directiva cuenta que «Apple utiliza tecnología de comparación de imágenes para ayudar a encontrar y denunciar la explotación infantil«. Si bien no se ha detallado cómo se realiza esta comparación a un nivel técnico, afirma que sus «sistemas utilizan firmas electrónicas para encontrar imágenes de abuso infantil sospechosas».

Muchas compañías tecnológicas –entre las que se encontrarían Facebook, Google y Twitter– utilizan un sistema llamado PhotoDNA, en el que las imágenes se comparan –o una representación reducida de estas– contra una base de datos de imágenes previamente identificadas.

Este escaneo se lleva a cabo probablemente desde el pasado mes de octubre, cuando Apple realizó cambios a su política de privacidad reflejando estas capacidades, entre las que se incluyen «la preselección o el escaneo del contenido cargado en busca de contenido potencialmente ilegal, incluido el material de explotación sexual infantil».

Si bien Jane Horvarth afirma que las cuentas de iCloud con este tipo de material serán desactivadas, no queda claro cuál es el proceso por el cual se toma esa decisión final y si hay trabajadores revisando los positivos detectados.

Las grandes tecnológicas reconocieron, solo tras desvelarse –incluyendo a Apple, aunque esta dejó de hacerlo y no así el resto– la escucha activa de una pequeña porción de los audios en los asistentes de voz para la mejora de los resultados. De forma similar, queda la duda de si un proceso similar está ocurriendo en con las imágenes en iCloud.

Por ahora, la postura oficial de Apple sigue protegiendo el cifrado de sus dispositivos móviles con un propósito amplio: «El cifrado punto a punto es de vital importancia para los servicios en los que confiamos. Datos de salud, datos de pago. Los teléfonos son relativamente pequeños; se pierden y son robados. Tenemos que asegurarnos de que si pierdes ese dispositivo no estás [exponiendo esos datos]».

Comentarios

comentarios