“Riesgos catastróficos” de la IA según científicos; ¿qué harán gobiernos para protegernos?

inteligencia artificial muerte

Un grupo de científicos pioneros en la Inteligencia Artificial, expresaron su preocupación por los daños graves y los riesgos catastróficos que conllevaría esta tecnología. ¿Los gobiernos están al tanto de todo el desarrollo en los laboratorios?

Un grupo de influyentes científicos expresaron en un comunicado su preocupación de que la tecnología que ayudaron a construir pudiera causar daños graves.

Advirtieron que la Inteligencia Artificial, en cuestión de años, superaría las capacidades de sus creadores; habría una “pérdida de control humano o el uso malicioso. Los sistemas podrían conducir a resultados catastróficos para toda la humanidad”.

Te puede interesar: ¿Qué tan vulnerable es tu trabajo a la Inteligencia Artificial? Esto pasará con profesores, bomberos y call centers

Según  Gillian Hadfield, jurista y profesora de ciencias de la computación y gobierno en la Universidad Johns Hopkins, si los sistemas en cualquier parte del mundo desarrollaran estas capacidades, no hay ningún plan sobre cómo controlarlas.

“Si dentro de seis meses tuviéramos algún tipo de catástrofe, si detectamos que hay modelos que están empezando a mejorar de forma autónoma, ¿a quién llamarías?”

Geoffrey Hinton, un científico pionero que pasó una década en Google, se unió a los firmantes. Hadfield se reunió con colegas de todo el mundo en Venecia para hablar sobre dicho plan.

Fue la tercera reunión de los Diálogos Internacionales organizados por Safe AI Forum, un proyecto de un grupo de investigación sin fines de lucro en Estados Unidos llamado Far.AI.

Ellos aseguran que los gobiernos necesitan saber qué está pasando en los laboratorios de investigación y en las empresas. También la posibilidad de  comunicar acerca de los riesgos potenciales sin que los investigadores compartan información patentada.

El grupo propuso que los países establezcan autoridades de seguridad para registrar sistemas dentro de sus fronteras. Luego, esas autoridades trabajarían juntas para acordar un conjunto de líneas rojas y señales de advertencia.

De lo contrario, el sistema podría copiarse a sí mismo o engañar intencionalmente a sus creadores. Científicos de Estados Unidos, China, Gran Bretaña, Singapur, Canadá y otros lugares firmaron la declaración.

Te puede interesar: IA genera gran cantidad de CO2 para energizarse; ¿cómo mitigar la amenaza ambiental?

Entre los firmantes se encuentra Yoshua Bengio, cuyo trabajo es citado con tanta frecuencia. Andrew Yao, cuyo curso en la Universidad Tsinghua de Beijing ha dado origen a muchas de las principales empresas tecnológicas de China. Junto Geoffrey Hinton, son los tres son ganadores del Premio Turing, el equivalente al Premio Nobel de Computación.

Además se unieron algunos ex funcionarios del gobierno, entre ellos Fu Ying, que había sido diplomático del Ministerio de Relaciones Exteriores de China, y Mary Robinson, ex presidenta de Irlanda. A principios de este año, el grupo se reunió en Beijing, donde informaron a altos funcionarios del gobierno chino sobre su discusión.

Su última reunión en Venecia tuvo lugar en un edificio propiedad del filántropo multimillonario Nicolas Berggruen. La presidenta del grupo de expertos del Instituto Berggruen, Dawn Nakagawa, también participó en la reunión.

Imagen: Archivo ENTER.CO

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos