Cualquier persona puede hacer montajes usando Inteligencia Artificial (IA) de una celebridad, un animal y de usuarios comunes que suban fotos a sitios públicos.
Pensando en eso, el Instituto Tecnológico de Massachusetts (MIT), Estados Unidos, creó una herramienta para evitar este uso no autorizado y se llama ‘PhotoGuard’.
PhotoGuard funciona alterando pixeles seleccionados en una imagen de modo que interrumpan la capacidad de una IA para comprender qué es la imagen.
“Es necesario un enfoque colaborativo que involucre a desarrolladores de modelos, plataformas de redes sociales y legisladores. Hay que crear una defensa sólida contra la manipulación no autorizada de imágenes. Trabajar en este tema es de suma importancia hoy”, dice Hadi Saman, doctorado del MIT y principal autor del estudio sobre Photoguard.
¿Cómo funciona ‘PhotoGuard’?
- Esta herramienta es una creación del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL por sus siglas en inglés) del MIT.
- La nueva Photoguard del MIT CSAIL está enfocada en fotos comunes y corrientes.
- La técnica consiste en introducir en la imagen información que resulta invisible al ojo humano, pero que interfiere completamente con la manera que tienen las IA de analizar los píxeles de la imagen.
- Cuando alguien trata de editar las imágenes alteradas usando herramientas de IA, el resultado es una imagen llena de aberraciones que hacen evidente que se trata de un montaje.
- Hasta es posible introducir perturbaciones que hagan que los algoritmos de IA trabajen sobre una foto completamente diferente que es invisible a ojos vista.