La Organización Mundial de la Salud (OMS) ha pedido tener cuidado al usar inteligencias artificiales como ChatGPT, Bard, Bert u otras que usan modelos de lenguaje grande (LLM). También señala que es importante examinar los riesgos cuando se utilizan LLM para mejorar el acceso a la información de salud. ¿Cuáles son sus preocupaciones ?
OMS, explica que al usar este tipo de herramientas como en la toma de decisiones, o incluso para mejorar la capacidad de diagnóstico en entornos de escasos recursos para proteger la salud de las personas y reducir la inequidad, hay que ser responsables.
Esta preocupación de la organización, es porque, “su difusión pública meteórica y su creciente uso experimental con fines relacionados con la salud están generando un entusiasmo significativo en torno al potencial para apoyar las necesidades de salud de las personas”.
OMS, dice que la adopción precipitada de sistemas no probados podría generar errores por parte de los trabajadores de la salud, causar daño a los pacientes, erosionar la confianza en la IA y, por lo tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de tales tecnologías en todo el mundo.
Te puede interesar: Conozca a LuzIA, la IA que funciona como un contacto de WhatsApp y resuelve cualquier duda
Sin embargo aclara que no quiere satanizar el usos de estas IA, de hecho dice estar entusiasmada con el uso apropiado de las tecnologías, incluidos los LLM, para apoyar a los profesionales de la salud, los pacientes, los investigadores y los científicos.
Pero le preocupa “que la cautela que normalmente se ejercería para cualquier tecnología nueva no se está ejerciendo de manera coherente con los LLM”. Esto incluye la adhesión generalizada a los valores clave de transparencia, inclusión, participación pública, supervisión experta y evaluación rigurosa.
¿Qué le preocupa y qué pide la OMS?
Los datos utilizados para entrenar la IA pueden estar sesgados, generando información engañosa o inexacta que podría plantear riesgos para la salud, la equidad y la inclusión.
- Los LLM generan respuestas que pueden parecer autorizadas y plausibles para un usuario final; sin embargo, estas respuestas pueden ser completamente incorrectas o contener errores graves, especialmente para las respuestas relacionadas con la salud.
- Los LLM pueden recibir capacitación sobre datos para los cuales es posible que no se haya proporcionado previamente el consentimiento para dicho uso, y los LLM pueden no proteger los datos confidenciales (incluidos los datos de salud) que un usuario proporciona a una aplicación para generar una respuesta.
- Los LLM pueden usarse indebidamente para generar y difundir desinformación altamente convincente en forma de contenido de texto, audio o video que es difícil para el público diferenciar del contenido de salud confiable.
Si bien está comprometida con el aprovechamiento de las nuevas tecnologías, incluida la IA y la salud digital para mejorar la salud humana, la OMS recomienda que los formuladores de políticas garanticen la seguridad y protección del paciente mientras las empresas de tecnología trabajan para comercializar los LLM.
Finalemnte, organizacion propone que se aborden estas preocupaciones y se mida la evidencia clara del beneficio antes de su uso generalizado en la atención médica y la medicina de rutina, ya sea por parte de individuos, proveedores de atención o administradores del sistema de salud y formuladores de políticas.
Imagen: tmeier1964