Sam Altman, CEO de OpenIA y creador de ChatGPT, escribió una carta donde expone su postura sobre las superinteligencias que se han o se están desarrollando; en su misiva señala la necesidad de que el planeta la regule y que se gestione cualquier riesgo que estas puedan ocasionar a la humanidad. Aquí algunos de los apuntes.Altman, deja claro que la “superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado”. Apunta, que pese a que en algunos años el mundo puede ser, “dramáticamente más próspero”, desde ya se debe gestionar el riesgo de las IA. “No podemos simplemente ser reactivos. La energía nuclear es un ejemplo histórico de uso común de una tecnología con esta propiedad; la biología sintética es otro ejemplo”, señala.Sin embargo, insiste en que se debe mitigar cualquier riesgo de la inteligencia artificial del ahora y aquellas superinteligencias, sin duda alguna, afirma que “deben tener un tratamiento y una coordinación especial”.
Te puede interesar: Meta lanzó modelo IA multilingüe entrenado con la Biblia que identifica 4 mil idiomas
Garantizar el desarrollo de la superinteligencia es el objetivo, dice. “Mantener la seguridad y ayudar a la integración fluida de estos sistemas con la sociedad”. El CEO de OpenIA, explica que quienes deben trabajar en ello, sin duda alguna y principalmente, son los gobiernos de todo el mundo; no obstante asegura que las empresas no solo deben sujetarse, sino también ser responsables ante este panorama. También propone la creación de una organización y la bautizó como la ‘OIEA’; ésta sería el techo para que las IA no rebosen sus capacidades y pongan en riesgo al mundo. Dice que la superinteligencia debe estar sujeta a una autoridad internacional para que “puedan inspeccionar sistemas, requerir auditorías, probar el cumplimiento de los estándares de seguridad, imponer restricciones en los grados de implementación y niveles de seguridad”. Sin embargo también le tira la pelota a las compañías creadoras, pues señala que antes de que esta organización controle, deberían desde ya y voluntariamente “comenzar a implementar elementos ya mencionados para dicha regulación (…).
Te puede interesar: 4 libros que todos deberíamos leer sobre IA: impacto, capitalismo de vigilancia y ética
“Sería importante que una agencia de este tipo se centre en reducir el riesgo existencial y no en cuestiones que deberían dejarse en manos de países individuales, como definir lo que se le debe permitir decir a una IA”, explica Sam Altman.Así mismo, señala que es necesario que exista “la capacidad técnica para hacer que una superinteligencia sea segura. Esta es una pregunta de investigación abierta en la que nosotros y otros estamos poniendo mucho esfuerzo”.Finalmente, dice que desde Open IA, creen que las personas de todo el mundo deberían decidir democráticamente los límites y valores predeterminados de los sistemas de IA. “Todavía no sabemos cómo diseñar tal mecanismo, pero planeamos experimentar con su desarrollo. Seguimos pensando que, dentro de estos amplios límites, los usuarios individuales deberían tener mucho control sobre cómo se comporta la IA que utilizan”, asegura.
Imagen: JASON REDMOND/GETTY IMAGES