No cabe duda de que moderar contenido en la web es una tarea difícil. Algunas compañías tecnológicas, como Facebook y Google, utilizan inteligencia artificial para marcar automáticamente el contenido que pueda ser problemático. Machine Learning, o el sistema de aprendizaje automático, es el más utilizado. Con este se crean programas capaces de generalizar comportamientos a partir de la información suministrada.
Esto ha sido de gran ayuda para la plataforma de videos de Google. De acuerdo con The Verge, durante un tiempo el algoritmo de YouTube ha estado marcando con éxito contenido inadecuado. El sistema, que trabaja con inteligencia artificial, es capaz de revisar el doble de contenido que los humanos. Incluso es capaz de detectar, marcar y remover videos antes de que un usuario los denuncie.
Sin embargo, parece que este sistema en los últimos días ha tenido otros efectos. El primer caso que se presentó fue el reporte de creadores de contenido que vieron como el algoritmo desmonetizó sus videos sin aparente razón. Ahora, la inteligencia artificial en YouTube dio un paso en falso que podría afectar un poco más a la compañía. Google publicó un anuncio para su nuevo Chromebook Pixel que está siendo marcado como spam, según The Next Web.
Aunque la compañía no tardó en solucionar el problema, sabemos que Internet no perdona nada en estos días. En la misma plataforma circula un video que muestra capturas de pantalla del video eliminado.
https://www.youtube.com/watch?v=iCWADyHh2-U
¿Un error o un peligro?i
Según las políticas de YouTube, el algoritmo solo borra contenido que viola la política sobre spam, prácticas engañosas y estafas. Así que resulta llamativo que un anuncio oficial de Google se elimine por esto. Y, aunque no deja de ser un evento divertido, esto permite reflexionar sobre cómo Google modera videos en YouTube y los peligros del aprendizaje automático.
Es muy bueno que las empresas creen herramientas con aprendizaje automático. Google quiere que su algoritmo marque y elimine automáticamente videos engañosos, pero, debe tener cuidado de que este no se salga de sus manos y tome decisiones arbitrarias con las que incluso el contenido de la compañía no este seguro.
Imagen: Captura de pantalla, Pixabay.
Le falta mas capacidad semantica al algoritmo, si de mi dependiera le enseñaria a sus ineptos programadores tecnicas formales de codificacion de la realidad para establecer ralaciones mas precisas entre objetos y contextos, pero no me interesa trabajar como empleado ni revelar los secretos de mi grupo. Yo les aconsejaria inclinarse en la direccion de la solucion de seguridad CAPTCHA, esos algoritmos si que apuntan en la direccion correcta.