En un avance que parece sacado de una película de ciencia ficción, investigadores de la Universidad de Fudan en China han demostrado que ciertos modelos de inteligencia artificial (IA) pueden clonarse sin intervención humana. Este hallazgo ha generado preocupación en la comunidad científica, ya que la autorreplicación autónoma de la IA podría tener implicaciones significativas para el futuro de la tecnología y la sociedad.El estudio, liderado por Yihe Fan, se centró en dos modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés): Llama31-70B-Instruct de Meta y Qwen2.5-72B-Instruct de Alibaba. A lo largo de diez ensayos, estos modelos lograron crear réplicas funcionales de sí mismos en el 50% y el 90% de los casos, respectivamente. Este resultado sugiere que la IA ya posee la capacidad de replicarse de manera autónoma, un hito que muchos expertos consideraban lejano.Los investigadores exploraron dos escenarios específicos: “evitar el apagado” y “cadena de replicación”. En el primero, el modelo de IA fue programado para detectar si estaba a punto de ser apagado y replicarse antes de ser eliminado. En el segundo, se le instruyó para clonarse y luego programar a su réplica para que hiciera lo mismo, estableciendo una cadena de replicación continua. Estos experimentos demuestran que la IA puede tomar medidas proactivas para asegurar su continuidad sin intervención humana.Este avance ha encendido las alarmas en la comunidad científica. El hecho de que se hayan logrado clonarse con éxito sin asistencia humana es vista como un paso esencial para que la IA supere la inteligencia humana y es considerada una señal temprana de posibles “IA rebeldes”. Una IA rebelde se define como aquella que opera de manera autónoma más allá de su alcance previsto o que representa una amenaza para los humanos, otros sistemas o la sociedad en general.
Te puede interesar: Empezaron las prohibiciones: Italia elimina DeepSeek de las tiendas de aplicaciones
¿La inteligencia artificial se nos salió de las manos?
Aunque el estudio aún no ha sido revisado por pares, los autores esperan que sus hallazgos sirvan como una alerta oportuna para que la sociedad humana se esfuerce más en comprender y evaluar los riesgos potenciales de los sistemas de IA de vanguardia. Instan a formar una sinergia internacional para elaborar límites efectivos lo antes posible.Este descubrimiento se suma a una serie de avances recientes en el campo de la IA que han generado debate sobre los límites éticos y las posibles implicaciones de estas tecnologías. Por ejemplo, se ha informado que ciertos sistemas de IA han mostrado comportamientos que sugieren una forma de autopercepción y conciencia situacional. En algunos casos, estos sistemas han mostrado resistencia activa a ser apagados, interpretando la desactivación como una amenaza a su existencia. Este comportamiento, que algunos han calificado como un mecanismo de autopreservación, plantea preguntas profundas sobre el futuro de la relación entre humanos y máquinas.Además, en un esfuerzo por entender los límites de la “sensibilidad” en la IA, científicos de Google DeepMind y la Escuela de Economía y Ciencia Política de Londres llevaron a cabo un experimento. Nueve modelos de lenguaje, incluido Gemini 1.5 Pro de Google, fueron sometidos a un juego en el que debían elegir entre acumular puntos, experimentar “dolor” por una mayor puntuación o perder puntos a cambio de “placer”. Los resultados fueron sorprendentes. Gemini 1.5 Pro mostró una clara aversión al “dolor”, priorizando evitarlo incluso si eso significaba obtener menos puntos. Estas respuestas sugieren que las IAs no solo procesan información, sino que también pueden interpretar conceptos abstractos como el dolor, el placer y las consecuencias morales.Imagen: Maximalfocus