En los últimos años, la inteligencia artificial (IA) ha avanzado a pasos agigantados, generando asombro y, en ocasiones, preocupación por su impacto en la sociedad y el mercado laboral. Sin embargo, Yann LeCun, vicepresidente y director científico de inteligencia artificial, sostiene que esta tecnología no podrá imitar el pensamiento humano hasta dentro de aproximadamente diez años.
Durante una reciente conferencia, LeCun explicó que, a pesar de que los sistemas de IA pueden llevar a cabo tareas impresionantes, como predecir palabras en conversaciones o generar imágenes convincentes, carecen de una verdadera comprensión del mundo. “No tienen lo que yo llamo un ‘modelo del mundo'”, afirmó, haciendo referencia a la necesidad de una representación mental del entorno y sus interacciones.
Para ilustrar su punto, comparó la IA actual con un automóvil que puede moverse rápidamente, pero sin un destino claro. “Los sistemas actuales, como chatbots y generadores de imágenes, funcionan prediciendo patrones basados en datos con los que han sido entrenados. Pueden hacerlo de manera eficiente, pero no comprenden realmente el contenido que procesan”, destacó.
LeCun argumentó que, aunque estos modelos parecen “inteligentes”, no entienden las palabras o imágenes que manipulan y no pueden prever las consecuencias de sus acciones, algo que un niño pequeño puede hacer con facilidad. Para que la IA pueda imitar las capacidades humanas, es esencial que desarrolle su propio “modelo del mundo”, lo que le permitiría anticipar cómo sus acciones afectarían su entorno y tomar decisiones más informadas.
El especialista se mostró optimista sobre el futuro de la IA, proyectando que en una década podríamos tener sistemas que comprendan el mundo de manera similar a los humanos. “Aunque es un gran desafío, creo que es posible y podría transformar la interacción con la tecnología”, aseguró.
Para lograr este avance, serán necesarias innovaciones significativas, especialmente en la capacidad de los sistemas para aprender y adaptarse a su entorno. Imagina un asistente de IA que no solo responda preguntas, sino que también anticipe las necesidades de las personas según su comportamiento y entorno.
Sin embargo, LeCun advirtió que, a pesar de estos prometedores avances, aún existen importantes obstáculos. La capacidad de los sistemas para aprender de manera autónoma y en tiempo real es uno de los principales desafíos, ya que los modelos actuales son muy buenos en tareas específicas, pero no se adaptan fácilmente a nuevas situaciones.
Otro aspecto crítico es la ética y la regulación. A medida que la IA avanza hacia niveles de comprensión más cercanos a los humanos, surgen preguntas sobre el control de estos sistemas y las salvaguardias necesarias para prevenir su uso perjudicial.