La proliferación de imágenes generadas por inteligencia artificial (IA) ha desencadenado una creciente preocupación por la desinformación en línea. Es por esto que la directora técnica de OpenAI, Mira Murati, anunció que la empresa se encuentra en las etapas de prueba de una nueva herramienta diseñada para detectar imágenes creadas por IA. Esta noticia llega en un momento en que la IA generativa ha permitido que millones de usuarios accedan a herramientas de creación de imágenes. Por desgracia (para algunos) las imágenes generadas por IA a menudo son difíciles de distinguir de las fotografías reales.La IA generativa ha experimentado un auge en el último año, con programas como DALL-E y Midjourney inundando la web con millones de creaciones sintéticas, algunas de las cuales son sorprendentemente realistas. Sin embargo, este aumento ha llevado a preocupaciones sobre la distorsión de la realidad y la memoria, ya que la línea entre lo real y lo artificial se vuelve borrosa.Según uno de los cocreadores de ChatGPT, la tecnología de detección de imágenes creadas por IA es altamente confiable, con una precisión del 99%. Sin embargo, esta herramienta tiene un punto débil: solo puede detectar “falsificaciones” si han sido diseñadas con DALL-E. Aunque el modelo basado en GPT-3 es popular, las imágenes creadas con esta IA multimodal representan menos del 6% de las 15 mil millones de imágenes generadas con esta tecnología.
Te puede interesar: Este es el símbolo que Adobe y Microsoft quieren adoptar para marcar los contenidos generados con IA
El problema de las imágenes generadas por IA es cada vez más grave, ya que se estima que se han creado más de 15 mil millones de imágenes. Para ello, se han utilizado algoritmos de conversión de texto a imagen en un año, superando con creces la producción fotográfica de 150 años. Para combatir la proliferación de deepfakes y contenido sintético, otras empresas tecnológicas, como Adobe, han propuesto etiquetas y marcas universales para identificar imágenes creadas por IA.OpenAI se encuentra en la fase de pruebas internas de su sistema de detección de imágenes de IA antes de su lanzamiento al público general. Si se cumple la promesa de esta herramienta, podría ayudar a prevenir la propagación de noticias falsas que utilizan ilustraciones falsas, al tiempo que contribuiría a cumplir con la propuesta normativa de la Unión Europea para abordar este desafío.Este desarrollo refleja una creciente conciencia sobre la necesidad de soluciones para detectar contenido sintético y deepfakes. A medida que se avanza hacia modelos de IA más avanzados, como GPT-4, se busca minimizar las “alucinaciones” o la creación de contenido inventado. Sin embargo, todavía hay desafíos por superar en el camino para garantizar la precisión y la integridad en la era de la IA.Imagen: Growtika