Publicidad

Publicidad

Publicidad

Publicidad

Reciba notificaciones de Blu Radio para tener las principales noticias de Colombia y el mundo.
No activar
Activar

Publicidad

"Nos matará a todos": la dura advertencia de Eliezer Yudkowsky, experto en inteligencia artificial

Eliezer Yudkowsky, responsable del Machine Intelligence Research Institute, pidió que el desarrollo de inteligencia artificial se debe detener totalmente.

Inteligencia artificial
Blu Radio
Foto: AFP

La inteligencia artificial (IA) es una de las mayores innovaciones tecnológicas de los últimos tiempos, pero ¿está la humanidad preparada para las consecuencias de su desarrollo? Recientemente, el Future of Life Institute (FLI) publicó una carta firmadapor personajes como Elon Musk, en la que se pide pausar el entrenamiento y desarrollo de nuevas inteligencias artificiales durante seis meses. Sin embargo, Eliezer Yudkowsky, responsable del Machine Intelligence Research Institute y considerado uno de los fundadores de este campo de investigación, cree que se debe detener del todo el desarrollo de la inteligencia artificial.

Yudkowsky lleva investigando los peligros del desarrollo de una inteligencia artificial general desde 2001 y en una editorial que realizó y fue publicada en Time, explicó cómo el retraso de seis meses es mejor que no hacer nada, pero que la carta de la FLI "pide muy poco" para darle solución a la amenaza que supone. El experto explicó que la humanidad se encuentra en un campo inexplorado del que no se conocen los límites y que no se puede controlar. Además, aseguró que construir una IA sobrehumanamente inteligente, bajo cualquier desarrollo parecido a las circunstancias actuales, es que, literalmente, todo el mundo en el planeta Tierra morirá. De hecho, afirmó que: "Obviamente es lo que pasará".

Según Yudkowsky, la humanidad no está preparada para sobrevivir a una superinteligencia artificial sin precisión y preparación. Además, habló de cómo "no tenemos ni idea de cómo determinar si los sistemas de IA son conscientes de sí mismos porque no sabemos cómo piensan y desarrollan sus respuestas".

Dicho todo lo anterior, Yudkowsky afirmó que la única solución es pausar completamente el entrenamiento de futuras inteligencias artificiales.

Publicidad

"Debe ser indefinida y a nivel mundial. No puede haber excepciones, incluidos gobiernos y ejércitos".

Destacó que apagaría todos los grandes clúster de tarjetas gráficas en los que se realiza el entrenamiento de la inteligencia artificial, pondría un límite al consumo energético que se pudiera utilizar para estos sistemas, e incluso monitorizaría las ventas de tarjetas gráficas.

Publicidad

Yudkowsky recordó que el ser humano tardó más de 60 años en llegar a este punto, y que se podría tardar al menos 30 años más en lograr una preparación para un desarrollo seguro de la inteligencia artificial.

"No estamos preparados y no estamos en el camino de estar más preparados a corto plazo", puntualizó.

¿Quién es Eliezer Yudkowsky?

Eliezer Yudkowsky es un escritor y teórico de la inteligencia artificial conocido por su trabajo en la creación de la teoría de la "singularidad" tecnológica. También es uno de los fundadores del Instituto de Investigación de la Singularidad, una organización dedicada al estudio de la inteligencia artificial y su impacto en la humanidad. Yudkowsky es un defensor de la investigación en inteligencia artificial segura y ética, y ha escrito numerosos ensayos y artículos sobre el tema.

Publicidad

La carta de Elonk Musk sobre inteligencia artificial

Elon Musk, fundador de SpaceX y Tesla, y cientos de expertos mundiales en inteligencia artificial (IA) han firmado una petición pidiendo una pausa de seis meses en la investigación sobre IA más potentes que el modelo ChatGPT 4 de OpenAI. La petición, publicada en el sitio futureoflife.org, advierte sobre los "grandes riesgos para la humanidad" y pide una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la "dramática perturbación económica y política (especialmente para la democracia) que causará la IA".

Publicidad

Riesgos para la humanidad

La petición ha sido firmada por personalidades destacadas que han expresado sus preocupaciones sobre los peligros de una IA incontrolable que supere a los humanos, incluyendo al historiador Yuval Noah Hariri y el cofundador de Apple, Steve Wozniak. También ha sido firmada por miembros del laboratorio de IA DeepMind de Google, el director de Stability AI, Emad Mostaque, expertos y académicos estadounidenses en IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.

Carrera descontrolada

Los firmantes de la petición señalan que en los últimos meses ha habido una carrera descontrolada entre los laboratorios de IA para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable. También se pregunta si debemos permitir que las máquinas inunden nuestros canales de información con propaganda y mentiras, automatizar todos los trabajos, incluyendo los gratificantes, o arriesgarnos a perder el control de nuestra civilización.

Publicidad

Delegación de decisiones

La carta concluye que estas decisiones no deben ser delegadas en líderes tecnológicos no electos y que es necesario establecer nuevas autoridades reguladoras y sistemas de vigilancia para asegurar que la IA se desarrolle de manera segura y responsable. El director de OpenAI, Sam Altman, ha reconocido tener "un poco de miedo" de que su creación se utilice para "desinformación a gran escala o ciberataques". "La empresa necesita tiempo para adaptarse", declaró recientemente a ABC News.

Publicidad

  • Publicidad