A raíz del primer fallo a favor de una tutela en Colombia en el que se utilizó ChatGPT el 30 de enero de 2023, se conoció que la Corte Constitucional revisará el uso de la inteligencia artificial en decisiones judiciales.
Recordemos que el Juzgado Primero Laboral del Circuito de Cartagena resolvió, en segunda instancia, fallar a favor de la familia de un menor con trastorno del espectro autista y ordenó a Salud Total EPS prestar toda la atención de los servicios médicos que el niño necesitaría.
La orden se dió luego de que el juez Manuel Padilla le consultó al chatbot de OpenAI si un menor de edad autista podría estar exento de pagar las cuotas moderadoras en sus terapias y recibir el servicio. Además preguntó si ha habido casos similares en los que la Corte Constitucional ha tomado este tipo de decisiones.
Te puede interesar: Juez colombiano usó ChatGPT para tomar una decisión judicial
Pues bien, ChatGPT contestó, en tanto a la primera pregunta que “sí es correcto. De acuerdo con la normativa en Colombia, los menores con diagnóstico de autismo están exonerados de pagar cuotas moderadoras en sus terapias (..).
El togado incluyó la respuesta del chatbot en el texto legal y justificó su acción diciendo, que aunque esta fue generada por la IA, no remplazaría a un juez, y sí podría agilizar tiempo de redacción de fallos con una previa curación.
Sobre este caso en particular, se conoció esta semana, que magistrados de la Corte Constitucional seleccionaron esta tutela para estudiar qué implicaciones tiene el uso de estas herramientas que están impulsadas con inteligencia artificial, sobre todo cuando está de por medio los derechos de un menor de edad.
Te puede interesar: Esta es la cifra que debe pagar abogado por usar ChatGPT para ganar demanda contra Avianca
Por otro lado, sobre este caso la Defensoría del Pueblo, aseguró que pese a que la IA promete una revolución en la investigación, esta podría poner en riesgo derechos fundamentales como el de la salud.
“Diversos problemas de carácter jurídico han comenzado a ser suscitados y las respuestas han sido buscadas en los marcos normativos existentes, que no fueron pensados para esas realidades. Riesgos como violaciones de la privacidad y algoritmos sesgados, por mencionar dos, requerirán un desarrollo y una regulación jurídica, difícil de implementar, en la medida en que estas tecnologías avanzan rápidamente. El derecho, en cambio, se toma su tiempo mientras asimila lo que sucede y actúa para regularlo”, dijo el Defensor.
Finalmente, afirmó que “la tecnología debe estar al servicio del ser humano y no el ser humano al servicio de la tecnología. Ello implica una tecnología respetuosa de los derechos fundamentales”.
Imagen: Universidad Externado de Colombia