por Fernanda Celis
Infosel, agosto. 5.- Apple (NASDAQ:AAPL), el gigante tecnológico que elabora los smartphones más codiciados el mundo, pondrá en marcha nuevas funciones para limitar la propagación de material de abuso sexual infantil, incluyendo aplicaciones que permitan detectar este tipo de contenido.
Apple explicó en un comunicado que la nueva tecnología en iOS y iPadOS le permitirá detectar imágenes de abuso sexual a menores que estén almacenadas en iCloud Photos, para reportar dichos casos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés), que actúa como un centro de informes integral y trabaja en colaboración con las agencias de aplicación de la ley en Estados Unidos.
"En lugar de escanear imágenes en la nube, el sistema realiza una comparación en el dispositivo utilizando una base de datos de hashes [algoritmos] de imágenes de abuso sexual infantil conocidos proporcionados por NCMEC y otras organizaciones de seguridad infantil. Apple transforma aún más esta base de datos en un conjunto ilegible de hash que se almacena de forma segura en los dispositivos de los usuarios", explicó Apple.
Esta tecnología permite interpretar el contenido, luego la compañía revisa manualmente cada informe, deshabilita la cuenta del usuario y envía un informe al NCMEC.
Si un usuario considera que su cuenta fue marcada por error, puede presentar una apelación para que la cuenta sea restablecida, explicó Apple.
"Utilizando otra tecnología llamada umbral de intercambio secreto, el sistema garantiza que Apple no pueda interpretar el contenido de los vales de seguridad a menos que la cuenta de iCloud Photos cruce un umbral de contenido de abuso sexual infantil. El umbral está establecido para proporcionar un nivel de precisión extremadamente alto y garantiza menos de uno en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada", agregó Apple.
AAPL
![Apple escaneará iPhones para detectar imágenes abuso infantil](https://d49-invdn-com.investing.com/content/pic346a4336bcec44075e27a4c2a0e36cfb.jpg)
Infosel, agosto. 5.- Apple (NASDAQ:AAPL), el gigante tecnológico que elabora los smartphones más codiciados el mundo, pondrá en marcha nuevas funciones para limitar la propagación de material de abuso sexual infantil, incluyendo aplicaciones que permitan detectar este tipo de contenido.
Apple explicó en un comunicado que la nueva tecnología en iOS y iPadOS le permitirá detectar imágenes de abuso sexual a menores que estén almacenadas en iCloud Photos, para reportar dichos casos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés), que actúa como un centro de informes integral y trabaja en colaboración con las agencias de aplicación de la ley en Estados Unidos.
"En lugar de escanear imágenes en la nube, el sistema realiza una comparación en el dispositivo utilizando una base de datos de hashes [algoritmos] de imágenes de abuso sexual infantil conocidos proporcionados por NCMEC y otras organizaciones de seguridad infantil. Apple transforma aún más esta base de datos en un conjunto ilegible de hash que se almacena de forma segura en los dispositivos de los usuarios", explicó Apple.
Esta tecnología permite interpretar el contenido, luego la compañía revisa manualmente cada informe, deshabilita la cuenta del usuario y envía un informe al NCMEC.
Si un usuario considera que su cuenta fue marcada por error, puede presentar una apelación para que la cuenta sea restablecida, explicó Apple.
"Utilizando otra tecnología llamada umbral de intercambio secreto, el sistema garantiza que Apple no pueda interpretar el contenido de los vales de seguridad a menos que la cuenta de iCloud Photos cruce un umbral de contenido de abuso sexual infantil. El umbral está establecido para proporcionar un nivel de precisión extremadamente alto y garantiza menos de uno en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada", agregó Apple.
AAPL
![Apple escaneará iPhones para detectar imágenes abuso infantil](https://d49-invdn-com.investing.com/content/pic346a4336bcec44075e27a4c2a0e36cfb.jpg)