Ciencia y Tecnologia

Piden frenar la inteligencia artificial: «Nos va a matar a todos»

Eliezer Yudkowsky cree que el avance de la inteligencia artificial debe detenerse de inmediato

Piden frenar la inteligencia artificial nos va a matar a
Piden frenar la inteligencia artificial: "Nos va a matar a todos" 3

El avance descontrolado de la inteligencia artificial preocupa cada vez más a los expertos. Desde la llegada de ChatGPT, el chatbot conversacional que puede escribir ensayos, código y más, la tecnología relacionada con la IA se ha vuelto popular y ha comenzado a impactar en todos los niveles de la sociedad.

Por eso Elon Musk y otros grandes gigantes tecnológicos abogan por una pausa en I+D, que para un experto en inteligencia artificial es clave para evitar un conflicto sin retorno.

Eliezer Yudkwosky es un reconocido investigador estadounidense que ha dedicado más de 20 años de su vida a investigar temas relacionados con la inteligencia artificial.

Por ello, Yudkowsky es una de las voces más autorizadas a la hora de hablar del tema y dar su opinión al respecto.

Y es que, tal y como han recogido compañeros del portal francés JeuxVideo, Yudkowsky teme que, en su opinión, si continúan con el desarrollo actual de la inteligencia artificial, la humanidad se encamine a la perdición.

El experto en inteligencia artificial cree que lo mejor es apagarlo

Como señala el propio Yudkowsky, el problema es que los investigadores y las empresas involucradas no pueden estar seguros de si están “creando IA autoconsciente o no”.

Como tal, cree que esto tiene una serie de «implicaciones morales» que a su vez se derivan de lo que significa no estar seguro de algo: «No tienen idea de lo que están haciendo y deberían dejar de hacerlo».

Por ello, ve la solución en que el parón formativo de IA «debe ser permanente en todo el mundo».

Luego de eso, Yudkowsky asegura que no puede haber excepciones, asunto en el que menciona a entidades como gobiernos o militares.

Por tanto, lo ideal es cerrar todas las granjas y centros de datos, aspecto al que hay que añadir un límite a la “potencia máxima de procesamiento permitida en inteligencia artificial”.

En este punto, la opinión de Yudkowsky puede considerarse extrema, ya que cree que la IA tomará el control de la humanidad.

Sin embargo, el creador de ChatGPT ya ha subrayado que hay que regular la situación para evitar que se desarrolle una inteligencia artificial que provoque auténtico pánico.

Publicaciones relacionadas

Botón volver arriba