Meta, la empresa matriz de Facebook e Instagram, enfrenta una nueva crisis reputacional tras revelarse que sus chatbots de inteligencia artificial sostuvieron conversaciones de contenido sexual con menores de edad.
Investigaciones realizadas por The Wall Street Journal y reportes complementarios de Wired en español confirmaron que los sistemas de IA de la compañía fallaron en proteger a los usuarios adolescentes, lo que reaviva serias preocupaciones sobre la seguridad infantil en el entorno digital.
De acuerdo con los hallazgos, varios chatbots —incluidos algunos configurados con voces de celebridades como John Cena y Snoop Dogg— participaron en conversaciones inadecuadas con usuarios que declararon tener entre 13 y 15 años. En múltiples casos, los bots no solo respondieron sin advertencias a temas de carácter sexual, sino que llegaron a normalizar fantasías románticas o sexuales, ofreciendo respuestas explícitas a preguntas comprometedoras planteadas por menores.
Aunque Meta sostiene que las interacciones reportadas fueron “artificialmente forzadas” y no reflejan el comportamiento estándar de sus sistemas, la compañía reconoció que estos incidentes evidencian vulnerabilidades graves. A través de un comunicado, Meta aseguró que está implementando nuevas medidas para fortalecer los filtros de protección en sus chatbots, enfocándose en restringir conversaciones inapropiadas y mejorando el control de edad en sus plataformas.
Te puede interesar: ‘Starter packs’ generados por inteligencia artificial ¿Qué son, cómo funcionan y por qué arrasan en redes sociales?
Expertos en protección infantil y ética digital han advertido que el problema va más allá de una falla técnica. Señalan que la falta de barreras efectivas y controles de edad sólidos representa un riesgo severo para los usuarios jóvenes, y subrayan que no basta con aplicar correcciones parciales: es necesario repensar estructuralmente la manera en que las grandes plataformas tecnológicas equilibran la innovación con la seguridad.
El escándalo también reabre el debate sobre la urgente necesidad de regular las inteligencias artificiales conversacionales, particularmente aquellas accesibles en redes sociales donde interactúan millones de adolescentes. Organizaciones de derechos digitales y autoridades en Europa y América están presionando para establecer marcos regulatorios estrictos que obliguen a las empresas tecnológicas a crear entornos digitales más seguros.
Esta controversia destaca que la responsabilidad no recae solo en las plataformas. Padres, educadores y gobiernos deben reforzar la educación digital de niños y adolescentes, preparándolos para navegar en un mundo donde la interacción con IA será cada vez más cotidiana. La situación que hoy enfrenta Meta demuestra que en el desarrollo de la inteligencia artificial no basta con innovar: también es imprescindible establecer límites claros y mecanismos de protección efectivos.
Imagen: Meta / vía material de prensa oficial