Acabamos de comenzar la semana y ya tenemos una nueva polémica cortesía de Elon Musk. Este fin de semana el dueño de X/Twitter y Tesla compartió un video de Kamala Harris modificado con inteligencia artificial. Utilizando deepfake el clip recrea la voz de la vicepresidenta de los Estados Unidos para decir cosas como “fue escogida por la contratación por diversidad definitiva” o “tuve cuatro años de aprendizaje bajo el tutelaje del último títere del Estado”.
El principal problema para muchos está en que Musk compartió el video sin agregar algún tipo de anotación que indique que es falso. La publicación solo tiene el texto de “esto es divertidísimo” y un emoji de una carita llorando de la risa. Al momento de publicación de este artículo el post en X/Twitter ya supera los más 119 millones de vistas.
This is amazing 😂
pic.twitter.com/KpnBKGUUwn— Elon Musk (@elonmusk) July 26, 2024
De hecho, la publicación ni siquiera cuenta con algún tipo de etiqueta que señale que se trata de un video falso, incluso haciendo uso de las notas de la comunidad (después de que Elon Musk despidió a todo su personal encargado de moderar las publicaciones en la red social creó un nuevo sistema llamado ‘notas de la comunidad’ que les permiten a ciertos usuarios el agregar anotaciones a publicaciones para ofrecer el contexto adecuado cuando se necesita).
La respuesta en redes sociales por parte de los seguidores de Musk y los detractores de Harris es que es obvio que se trata de un video falso. Hay algo de razón en este punto, pues el montaje tiene algunos de los indicios claros de un montaje con IA (por ejemplo, ciertos tonos). Sin embargo, lo que la historia nos ha indicado es que los videos que modifican o alteran la voz de candidatos políticos (en especial durante periodo de elecciones) son particularmente peligrosos pues no todas las personas entienden el contexto en el que fueron creados.
¿Deberían todas las redes sociales etiquetar sus videos creados o modificados con IA?
Desde que la inteligencia artificial se convirtió en el nuevo santo grial de la tecnología uno de los principales temas de conversación es cómo se debe moderar su uso al momento de recrear o imitar las voces de personalidades. El video compartido por Kamala Harris no es el primer caso en el que se viraliza un video de alguna figura pública.
El problema para muchos está en dos partes: que sea el líder de una de las redes sociales más importantes el que haya compartido este contenido sin etiquetarlo como falso. Más importante, X/Twitter se ha rehusado a implementar políticas para que los contenidos creados con inteligencia artificial sean etiquetados e identificados.
Esto es importante, porque a estas alturas plataformas como YouTube han implementado reglas dentro de sus términos y servicios con el objetivo de que estos videos creados con IA. En caso de que un video sea subido y no respete estas reglas para que sea identificado estarán expuestos a que se eliminen, a una posible suspensión del programa de socios de YouTube u otras sanciones.
Imágenes: Wikicommons a través de Gage Skidmore