‘Nude’ utiliza el aprendizaje automático en dispositivos iOS para proteger fotos sensibles

Si bien algunos fabricantes han incluido formas de bloquear ciertas carpetas en los dispositivos, Apple no se ha subido a este tren, dejando espacio para que los desarrolladores externos encuentren soluciones.

YC Chen y Jessica Chiu, quienes desarrollaron la aplicación con un pequeño equipo, vieron la oportunidad de encontrar una manera de bloquear fotos sensibles. Chiu dice que se interesó en la idea después de hablar con actrices de Hollywood sobre otro proyecto relacionado con el cine. También incluye la posibilidad de tropezar con una foto de desnudo al azar en el teléfono de alguien:

“Chiu dice que se interesó en los modelos de negocios desnudos después de hablar con actrices de Hollywood como parte de un proyecto cinematográfico en el que está trabajando. Todos tenían imágenes sensibles en sus teléfonos o computadoras portátiles, dijo, y expresó dudas sobre cómo protegerlos. Cuando Chiu regresó a Berkeley, sus amigos le entregaron sus teléfonos para que mirara las fotos recientes que habían tomado, e inevitablemente se desvió demasiado y vio algo de desnudez.

La aplicación solo puede detectar automáticamente fotos de desnudos en este momento. Si un usuario tiene videos confidenciales que desea almacenar en la bóveda privada, deberá cargarlos manualmente por ahora. La bóveda privada en sí está protegida con PIN, y los desarrolladores dicen que la aplicación monitoreará el rollo de la cámara en segundo plano, por lo que cualquier nueva imagen de desnudos se mueve rápidamente. También hay un cuadro de diálogo de confirmación que aparecerá después de almacenar una imagen en la bóveda privada, preguntando al usuario si desea eliminar datos confidenciales de su Camera Roll y iCloud Photo Storage.

Para mayor seguridad, si alguien intenta ejecutar su PIN para acceder a la bóveda segura y falla, la aplicación usará la cámara frontal para tomar una foto de ellos, para que pueda saber quién estaba intentando ingresar a su caja fuerte.

Con CoreML, el esfuerzo de aprendizaje automático de Apple, todo esto se maneja en el dispositivo. Esto significa que ninguna de las fotos de desnudos se envía a los desarrolladores de Nude. Esto limita inherentemente el temor de que estas fotos puedan ser pirateadas desde un servidor. Este es un gran problema, considerando la situación de “Celebgate” que surgió en 2014.

Nude es una aplicación gratuita para instalar, pero el servicio en sí cuesta $ 1 por mes. Los desarrolladores también señalan que la protección adicional del aprendizaje automático a bordo solo está disponible en dispositivos iOS que ejecutan iOS 11; para obtener la mejor experiencia posible, se recomienda una actualización a esta versión del sistema operativo móvil.

También se está desarrollando una versión para Android de la aplicación.

Descargar

[via The Verge]