PhotoGuard: software que inmuniza imágenes originales ante edición de IA

Fotos

El Laboratorio de Ciencias y Tecnología de Massachusetts (MIT) ha desarrollado el software ‘PhotoGuard’ para proteger las imágenes y fotos originales de las ediciones maliciosas hechas con inteligencia artificial (IA). Este modelo introduce aspectos que perturban y engañan al robot, pero que son invisibles para el ojo humano.

El Laboratorio de Ciencias de la Computación e Inteligencia Artificial de Instituto de Tecnología de Massachusetts (MIT – CSAIL) ha desarrollado el modelo PhotoGuard para descartar modelos algorítmicos en las imágenes, impidiéndole a la IA hacer ediciones y modificaciones importantes a la composición original de las fotografías u obras de arte.

El salvaguardo se hace a través de “perturbaciones” casi invisibles a la vista humana pero que bloquean la manipulación que pueda hacer la máquina y sus capacidades.

“El ataque del codificador hace que el modelo piense que la imagen de entrada (que se va a editar) es otra imagen (por ejemplo, una imagen gris). Mientras que la difusión obliga al modelo de difusión a realizar ediciones hacia alguna imagen de destino (que también puede ser una imagen gris o aleatoria)”. La técnica no es infalible, los actores maliciosos podrían trabajar para aplicar ingeniería inversa a la imagen protegida potencialmente agregando ruido digital, volteando la imagen“., afirma el autor principal del artículo que revela el desarrollo, Hadi Salman.

Te puede interesar: Unicafam y Google abren convocatoria de becas en soporte TI, análisis de datos y diseño UX

PhotoGuard altera píxeles seleccionados en una imagen de modo que interrumpan la capacidad de una IA para comprender qué es la imagen. El método “codificador” introduce estos aspectos, dirigiéndose a la representación latente de la imagen objetivo del modelo algorítmico.

El software utiliza las matemáticas complejas que describen la posición y el color de cada píxel en una imagen, lo que esencialmente evita que la IA entienda lo que está escaneando.

El método de “difusión” camufla una imagen como una imagen diferente a los ojos de la IA. Define una imagen objetivo y optimiza las perturbaciones en su imagen para parecerse a su objetivo. Así, la IA intentará realizar ediciones en imágenes “inmunizadas” equivocándose, y las aplicará a las imágenes “objetivo” falsas, produciendo una imagen distorsionada.

Te puede interesar: Anthropic, Google, Microsoft y OpenAI crean ‘Frontier Model Forum’ para el desarrollo responsable de la IA

“Un enfoque colaborativo que involucre a desarrolladores de modelos, plataformas de redes sociales y legisladores presenta una sólida defensa contra la manipulación no autorizada de imágenes. Trabajar en este tema apremiante es de suma importancia hoy. Y aunque me complace contribuir a esta solución, se necesita mucho trabajo para que esta protección sea práctica. Las empresas que desarrollan estos modelos deben invertir en diseñar inmunizaciones sólidas contra las posibles amenazas que plantean estas herramientas de IA”, explica Salman.

Photoguard no impide el ejercicio de la IA, pero sí frustra sus resultados. La inteligencia artificial tiende a ser muy útil, pero también es usada para manipular, crear contenido falso y montajes que afectan la reputación de las personas.

Imagen: PhotoGuard

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos