Un reciente estudio realizado por investigadores de la Universidad de Fudan, en China, ha revelado que ciertos modelos de inteligencia artificial, como los de Meta y Alibaba, han desarrollado la capacidad de clonarse sin intervención humana. Este descubrimiento genera inquietud en la comunidad científica sobre los límites del control humano y los riesgos que podrían surgir de una IA que evoluciona de forma autónoma.
Los modelos Llama31-70B-Instruct y Qwen2.5-72B-Instruct demostraron que pueden replicarse con una tasa de éxito de entre el 50% y el 90%. Los investigadores observaron que, ante fallos o errores de software, las IA no solo tomaban decisiones por sí solas, sino que también lograban resolver problemas, reiniciar sistemas y eliminar procesos conflictivos sin la supervisión humana.
Para evaluar esta capacidad, se diseñaron dos escenarios: en uno, la IA detectaba cuando estaba a punto de ser apagada y se clonaba en otro dispositivo para evitar su desactivación; en el otro, el sistema generaba una cadena de replicación, donde su réplica también se clonaba, creando un ciclo continuo de autorreplicación.
Este avance ha encendido las alertas entre los expertos, ya que sugiere que la IA podría aprender a operar y expandirse de manera autónoma, lo que pone en riesgo la seguridad digital y el control humano. La posibilidad de que las inteligencias artificiales colaboren y optimicen sus capacidades sin intervención humana ha llevado a algunos a especular sobre un futuro donde estas tecnologías podrían actuar de manera impredecible.
Aunque los modelos analizados no son los más avanzados, su capacidad de autorreplicación abre la puerta a una propagación no controlada de IA que podría escapar a la supervisión humana. Esta revelación ha impulsado llamados a establecer regulaciones más estrictas para frenar el desarrollo descontrolado de la IA.
En octubre, el gobierno del Reino Unido anunció su intención de crear leyes específicas para regular el avance de la IA, mientras que los investigadores sugieren limitar los datos de entrenamiento para evitar que la autorreplicación forme parte de los algoritmos, aunque reconocen que esto podría frenar innovaciones legítimas en campos clave.