Investigadores de Google revelan cuándo la IA podrá razonar como los humanos: ¿será pronto?
El directivo ejecutivo de Google DeepMind explicó que el ritmo de evolución de los sistemas actuales ha sido acelerado.
Publicidad
Publicidad
Publicidad
Publicidad
La posibilidad de que la inteligencia artificial alcance un nivel de razonamiento comparable al humano ya no se plantea como una hipótesis lejana. El director ejecutivo de Google DeepMind, Demis Hassabis, aseguró que ese punto podría alcanzarse en un plazo estimado de entre cinco y ocho años.
La declaración fue realizada durante su intervención en la Cumbre de Impacto de IA 2026, celebrada en Nueva Delhi, un evento que reunió a líderes políticos y representantes de la industria tecnológica para debatir el futuro de esta tecnología.
Según Hassabis, el desarrollo de la llamada inteligencia artificial general —un sistema capaz de comprender, aprender y aplicar conocimientos en distintos contextos como lo hace una persona— podría concretarse dentro de un rango de cinco a ocho años.
El directivo explicó que el ritmo de evolución de los sistemas actuales ha sido acelerado y que los avances recientes permiten proyectar una etapa en la que las máquinas no solo procesen información, sino que también puedan razonar de manera similar a la mente humana.
Actualmente, indicó, los modelos más avanzados funcionan como grandes repositorios de conocimiento capaces de responder con rapidez, pero todavía no alcanzan un nivel de creatividad científica comparable al humano.
Para medir ese salto cualitativo, Hassabis propuso un nuevo estándar de evaluación denominado “Test de Einstein”. La idea consiste en entrenar un sistema de inteligencia artificial con toda la información disponible de la humanidad, pero limitando los datos hasta el año 1911.
A partir de esa base, el reto sería comprobar si el algoritmo puede, por sí mismo, formular la teoría de la relatividad general, desarrollada por Albert Einstein en 1915.
Publicidad
El planteamiento busca ir más allá de la simple reproducción de conocimientos existentes. El objetivo es determinar si una máquina puede generar hipótesis originales de gran impacto científico sin haber sido entrenada directamente con esa información específica.
De acuerdo con el responsable de Google DeepMind, las herramientas de lenguaje masivo actuales operan como expertos enciclopédicos altamente eficientes. Sin embargo, todavía dependen de patrones ya contenidos en los datos con los que fueron entrenados.
En ese sentido, no estarían diseñadas para producir descubrimientos completamente novedosos, sino para reorganizar y sintetizar información previamente existente.
Publicidad
La transición hacia sistemas con mayor autonomía intelectual requeriría integrar capacidades de planificación avanzada —como las vistas en desarrollos estratégicos tipo AlphaGo— con el poder de procesamiento de los modelos fundacionales contemporáneos.
Hassabis señaló que plataformas como Gemini formarían parte esencial de esa evolución, que funcionarían como una representación estructurada del mundo, sobre la cual podrían ejecutarse procesos de aprendizaje más sofisticados.
El objetivo final sería que la inteligencia artificial deje de limitarse a responder consultas y pueda convertirse en una herramienta capaz de impulsar descubrimientos científicos.