Los riesgos de la inteligencia artificia
l (IA) son inminentes, algunas entidades regulatorias y empresas han expresado su temor ante el alcance de esta nueva tecnología. Ahora, los de OpenAI, máximos exponentes de la IA por estos tiempos planean formar un equipo dedicado a gestionar los riesgos de la “superinteligencia artificial”.
Para entrar en contexto, la superinteligencia es un modelo de la IA hipotético que es más inteligente que la IA, incluso que el ser humano más inteligente. Así mismo, este tipo de tecnología no solo se especializa en un área como los chatbots que conocemos, sino que tiene dominio de múltiples conceptos y campos.
Desde OpenAI consideran que este tipo de modelos podrían llegar antes de que finalice la década. “La superinteligencia será la tecnología más impactante que la humanidad haya inventado y podría ayudarnos a resolver muchos de los problemas más importantes del mundo”, dijo la organización sin fines de lucro.
Así mismo, explican que el poder de la IA es impactante pero el de la IA superinteligente puede llegar a ser tan grande como devastador. “El vasto poder de la superinteligencia también podría ser muy peligroso y podría llevar a la pérdida de poder de la humanidad o incluso a la extinción humana”, comentan desde OpenAI.
Te puede interesar: El vaticano publicó su propio manual de ética para el uso de la inteligencia artificial
Lo cierto es que el nuevo equipo de “guardianes de la IA superinteligente” estará codirigido por el científico jefe de OpenAI, Ilya Sutskever y Jan Leike, el jefe de alineación del laboratorio de investigación. Por otro lado, la empresa comunicó que dedicarán el 20 por ciento de su poder de cómputo actual a esta iniciativa. Con esto, pretenden desarrollar un investigador de alineación automatizada.
En teoría, este nuevo sistema estaría alineado con los valores humanos, de manera que pueda ayudar a OpenAI a garantizar que la superinteligencia sea segura de usar. “Si bien este es un objetivo increíblemente ambicioso y no tenemos garantizado el éxito, somos optimistas de que un esfuerzo concentrado y concertado puede resolver este problema”, dijo OpenAI.
Desde el laboratorio de la compañía de IA aseguran que harán pública su hoja de ruta en un futuro. Este anuncio surge cuando países como Estados Unidos y la Unión Europea buscan crear equipos y políticas que regulen el uso de la IA.
Imagen: Maximalfocus