Las IA actuales, ¿solo un juego comparado con las amenazantes super-IA que vienen?
Eliezer Yudkowsky y Nate Soares son el presidente fundador y el director del Instituto de Investigación de la Inteligencia de las Máquinas

Detalle de un cartel anunciando inteligencia artificial durante una jornada de un MWC, en una imagen de archivo. Foto: Enric Fontcuberta

¿Son los actuales sistemas de inteligencia artificial un verdadero juego de niños en comparación con las amenazantes super-IA que podrían llegar? Dos referentes mundiales (Eliezer Yudkowsky y Nate Soares) mantienen que sí, que la humanidad avanza sonámbula hacia el desastre y alertan de los peligros de que una máquina sea más inteligente que cualquier humano o que la humanidad en su conjunto.
Juntos han firmado 'Si alguien la crea, todos moriremos', un libro que se ha situado entre los más vendidos de no ficción en Estados Unidos, que ha desatado un intenso debate sobre si los riesgos que describen son reales o son argumentaciones teóricas y ha desencadenado reacciones muy polarizadas por presentar escenarios de "todo o nada" (la supervivencia o la extinción), y alabanzas entre quienes propugnan la necesaria regulación y gobernanza tecnológica.
El libro se ha publicado ahora en España (Editorial Destino), y Nate Soares ha manifestado a EFE que detener la carrera "absolutamente imprudente" hacia la "superinteligencia" es absolutamente posible y no tiene por qué afectar a la vida cotidiana; no habla de cerrar ChatGPT, de renunciar a los coches autónomos, ni de abandonar la IA aplicada al descubrimiento de nuevos fármacos, sino de desistir de la carrera por una inteligencia "que nadie, ni siquiera los que las construyen, comprende".
Eliezer Yudkowsky y Nate Soares son el presidente fundador y el director del Instituto de Investigación de la Inteligencia de las Máquinas (MIRI, en ingles) que nació hace 25 años para investigar el desarrollo de la IA y que ahora centra su labor en desentrañar el peligro potencial de estas tecnologías y en la necesidad de asegurar que estas herramientas se sustenten en programas que sean "amigables".
Sistemas "tontos" frente a la 'SIA' que viene
Los dos firmaron en 2023, junto a miles de científicos de todos el mundo -entre ellos varios premios Nobel- una carta en la que abogaban por pausar durante un tiempo los experimentos con la IA más potente y avanzada y por ralentizar su desarrollo; una carta que a su juicio se ha quedado "muy corta" porque "subestimaba terriblemente" el problema, ante la posibilidad real de que existan 'super-IA' (SIA) capaces de desarrollar objetivos propios y que las sitúen en conflicto con los humanos.
Esa SIA no ha llegado y el libro puede interpretarse como un relato de ciencia ficción o como un alegato a favor de una legislación responsable y estricta y de un control absoluto de la investigación en estas tecnologías, para evitar que se acabe convirtiendo en la mayor amenaza para la humanidad.
Nate Soares ha respondido por escrito a una entrevista con la Agencia EFE, y mantiene que los actuales sistemas de inteligencia artificial "siguen siendo tontos" y no son gran cosa comparados con las 'super-IA' que las empresas intentan crear, pero ha apuntado las diferencias radicales que se pueden producir en el caso de la inteligencia con un ejemplo: el hombre y el chimpancé tienen un cerebro similar, pero los humanos cruzaron un umbral y son capaces de diseñar cohetes y de pisar la Luna.
El punto de no retorno
"No sabemos cuándo cruzará ese umbral la IA, pero sí sabemos que es posible", ha señalado Soares, para quien desarrollar una superinteligencia que "nadie" comprende es "una receta para el desastre" y el primer paso debería ser que los líderes mundiales entendieran y asumieran que esa tecnología "puede ser letal".
Según el coautor de esta obra, las advertencias, las amenazas y los peligros de esa superinteligencia la han descrito ya algunos de los directores de laboratorios, investigadores o empresarios (cita entre ellos nombres como Sam Altman (OpenAI), Elon Musk o Geoffrey Hinton -considerado como uno de los padres de la IA), y mantiene que es "irrelevante" si estos sistemas pueden llegar a tener sentimientos; "lo importante es si pueden escapar, replicarse o construir sus propias infraestructuras".
"Nadie sabe dónde está el punto de no retorno", ha señalado, y ha aseverado que la SIA es "como un tren que avanza hacia nosotros", y los académicos, los investigadores, y los directores de muchos laboratorios están gritando: "cuidado con el tren", pero los líderes mundiales no han escuchado el mensaje y no sabe si cuando lo hagan podrán detener "una carrera suicida".




