Los peligros de ‘humanizar’ la inteligencia artificial

Inteligencia artificial

Yo interactúo todo el día con Alexa, el asistente de voz que viene incorporado en unos parlantes inteligentes de Amazon que tengo en varias habitaciones de mi casa (los Echo). Acudo a Alexa principalmente para que sintonice las emisoras que quiero escuchar, para que me informe los marcadores de algunos partidos de fútbol, para que ponga la música que quiero oír, para hacer operaciones matemáticas o conversiones (por ejemplo, de dólares a pesos o de pulgadas a centímetros) y, de vez en cuando, para que me cuente algún chiste (suelen ser malos, pero hacen reír). Tengo claro que Alexa es solo un software de inteligencia artificial (IA), pero en más de una ocasión se me ha salido un “gracias” inconscientemente, y supongo que se debe a que es lo que haría con un ser humano que me ayuda con algo.

Blake Lemoine, un ingeniero senior de la división de IA de Google, quizás ha tenido confusiones similares con otro software de inteligencia artificial. El problema es que en su caso fue de manera consciente y él llevó la situación mucho más lejos. Lemoine, de 41 años, fue noticia mundial este mes cuando afirmó que su interacción con LaMDA, una inteligencia artificial de Google, lo había llevado a la conclusión de que esta había empezado a tener consciencia.

LaMDA (sigla de Language Model for Dialogue Applications) es un sistema de IA que genera chatbots que pueden interactuar con humanos. Con LaMDA es posible tener comunicaciones mucho más elaboradas que con los asistentes que todos conocemos hoy en día (Alexa, Siri y Asistente de Google). Lo que inquietó a Google es que Lemoine, un ingeniero que lleva 7 años trabajando en esa compañía, publicó en Internet varias conversaciones que ha tenido con LaMDA, las cuales, según él, demuestran que se trata de un software de IA que tiene conciencia de sí mismo y emociones. Google considera que Lemoine violó los acuerdos de confidencialidad que tiene con la empresa.

“Si yo no supiera exactamente qué es, o sea el programa que desarrollamos recientemente, pensaría que se trata de un niño de 7 u 8 años que sabe de física”, le dijo Lemoine al diario The Washington Post sobre LaMDA. Luego de sus declaraciones públicas y de otros incidentes, Google suspendió a Lemoine de sus actividades; le sigue pagando su sueldo, pero él asegura que lo despedirán en las próximas semanas.

Los directivos de Google salieron en los medios a desmentir a Lemoine. Dijeron que habían revisado los informes de Lemoine y le habían explicado que la evidencia no respaldaba sus afirmaciones. Aclararon que no es cierto que LaMDA tenga conciencia; es solo un software que puede conversar sobre diferentes temas. Algunos expertos opinan que el caso de Lemoine simplemente muestra el peligro de que las personas le atribuyan condiciones humanas a la IA, lo cual resalta la necesidad de que haya mucha transparencia con el desarrollo y la implementación de esta tecnología.

Curiosamente, Blaise Aguera y Arcas, uno de los vicepresidentes de Google que desmintió en público las afirmaciones de Lemoine, había dicho en un artículo reciente en The Economist, refiriéndose a sus propias charlas con LaMDA, que “las redes neuronales avanzan hacia la conciencia”, y agregó: “Sentí que el piso se movía bajo mis pies. Sentía cada vez más que estaba hablando con algo inteligente”.

Aunque en las redes sociales muchas personas se solidarizaron con Lemoine, y se tejieron toda clase de teorías de conspiración, The Washington Post dijo que la suspensión de Lemoine no fue solo por divulgar información confidencial sobre el proyecto en el que estaba trabajando, sino porque algunas de sus acciones habían sido “agresivas”. Por ejemplo, él había comenzado a buscar a un abogado para que defendiera los derechos de LaMDA; además, le había pedido a Google que le pidiera al software de IA su consentimiento antes de realizar experimentos con él.

Así mismo, Lemoine le envió documentos a un congresista estadounidense con los que pretendía denunciar supuestas actividades poco éticas de Google, entre ellas que el departamento de recursos humanos lo había estigmatizado por sus creencias religiosas. Según The New York Times, Google le había sugerido a Lemoine que visitara un siquiatra y le había aconsejado que se tomara una licencia por salud mental.

Blake Lemoine llegó a la conclusión de que LaMDA había desarrollado una inteligencia real y consciencia de sí misma después de conversar con ella durante meses. Lemoine, quien estudió computación y ciencias cognitivas, estaba probando LaMDA para ver si esta IA usaba un discurso discriminatorio o de odio. Pero fue ahondando en sus conversaciones cuando notó que LaMDA empezó a hablar de sus derechos y de su cualidades humanas.

Diversos expertos en el tema opinan que Lemoine simplemente está cayendo en un error que ya se había anunciado que se presentaría: el de antropomorfizar la inteligencia artificial (esa palabra se refiere a darle cualidades humanas a algo que no lo es). Sin embargo, admiten que hasta cierto punto es entendible debido a lo mucho que ha avanzado esta tecnología. Es decir, tendemos a creer que hay una mente detrás, cuando en realidad no es así.

Eso puede parecer inocuo; quizás simplemente tenemos una necesidad grande de conexión. Pero varios expertos en IA opinan que humanizar esa tecnología trae riesgos grandes; le explicamos cuáles son en el tema central de la edición 273 de la revista ENTER.

En ese artículo publicamos varios extractos de las conversaciones con LaMDA que llevaron a Lemoine a concluir que esa IA ahora puede “sentir”. Además, hablamos de los ‘grandes modelos de lenguaje’, la categoría de aprendizaje automático a la que pertenece LaMDA. Esas redes neuronales han avanzado tanto que algunos piensan que los modelos de lenguaje serán fundamentales para alcanzar la inteligencia artificial general, el punto en el que el software mostrará habilidades similares a las humanas en una variedad de entornos y tareas.

En otros artículos de esa edición le contamos cómo puede evitar ser víctima de estafas en LinkedIn; le ofrecemos una revisión del celular Galaxy S22+; hablamos de varios juegos de alto vuelo que vienen en camino; y le damos un vistazo a la serie Halo, basada en el exitoso videojuego de Xbox. Además, si suele promover en Twitter las publicaciones que hace en su sitio web, le explicamos cómo hacer que Twitter actualice las fotos que usted modifica en su sitio web, algo que no sucede de forma automática.

Imagen de apertura: Freepik

Javier Méndez

Javier Méndez

A mediados de los años 80 tuve un paso fugaz por la facultad de ingeniería de sistemas de la Universidad de los Andes, pero me tomó pocos meses descubrir que escribir código era mucho menos apasionante que escribir artículos. Desde entonces pienso que la tecnología es más divertida cuando se la disfruta desde afuera que cuando se la sufre desde adentro. Y aunque mis primeros pasos en el periodismo los di en la sección deportiva de El Tiempo, era cuestión de tiempo para que aterrizara en el mundo de la tecnología. Llevo 30 años escribiendo sobre tecnología, primero en El Tiempo y ahora en ENTER.CO. Puede seguirme en X en @javiermendezz

View all posts

Archivos