La carrera armamentística en Superinteligencia: ¿estamos ganando?

ia super inteligencia artificial

La carrera por la creación de una Superinteligencia Nivel Dios está fuera de control, y grandes empresas están compitiendo para crear sistemas de Inteligencia Artificial General (IAG) cada vez más complejos sin prestar suficiente atención a los riesgos que estos conllevan.

Aclaración: Si bien Tribuna Hacker se ha caracterizado desde sus inicios por generalizar en femenina con el ánimo de marcar constantemente que el lenguaje tiene una carga ideológica, a criterio de Marcos, esta nota se tiene que generalizar en masculino, de esa forma la reproducimos.

La carrera tecnológica para desarrollar una Inteligencia Artificial General (AGI por sus siglas en inglés) o mejor dicho una Superinteligencia Nivel Dios está fuera de control. Grandes compañías privadas han comenzado una competencia acelerada por crear sistemas de IA cada vez más complejos sin prestar suficiente atención a los riesgos que estos conllevan.

Estamos hablando de inteligencias artificiales que podrían superar largamente en capacidades intelectuales a la mente humana, con consecuencias potencialmente catastróficas si no se implementan salvaguardas adecuadas. A nadie le importará que nunca más podamos ganar un partido de ajedrez a una máquina, es algo que hemos aceptado, pero nos lamentaríamos mucho si un desarrollo tecnológico se fuera de control y terminara con la vida en la tierra.

El dilema en el que nos encontramos es similar a una carrera armamentística: cada empresa intenta ser la primera en alcanzar una Superinteligencia, sin casi importar los costos para la seguridad global. Estamos ante una situación de “Molloc”, donde toda la sociedad pierde en pos de una victoria vacía. Nuestra sociedad en su conjunto podría sufrir daños irreparables si no se ponen límites a esta competencia irresponsable.

Un grupo de eminentes pensadores ha llamado la atención sobre estos riesgos en una carta abierta titulada “Pongamos en pausa los experimentos con IA a gran escala”. Firmada por personalidades como Elon Musk, Max Tegmark y Stuart Russell, alerta que los avances en modelos de lenguaje como GPT-4 son indicadores de que la Superinteligencia podría estar más cerca de lo anticipado. Piden un alto de seis meses en la investigación de IA para trabajar en salvaguardas. ¿Por qué seis meses? Tegmark explicó recientemente en una de sus tantas entrevistas que seis meses no permitirían tampoco a China adelantarse tanto en el asunto al nivel de crear algo verdaderamente peligroso. Por otro lado, el Partido Comunista chino sabe que no podría controlar una AGI (al menos no actualmente con el conocimiento de avanzada al cual hemos llegado) y eso está fuera de sus planes.

Sam Altman, presidente de OpenAI, admitió recientemente que GPT-5 no se encuentra aún en desarrollo (¿le creemos?). Sin embargo, modelos anteriores como GPT-4 y Claude+ ya muestran capacidades preocupantes, como generar textos coherentes, programar y mejorar un software (¡lo más preocupante!) o incluso ayudar en tareas científicas y superar con excelentes notas exámenes complejos a nivel universitario. Si no logramos alinearlos correctamente con nuestros valores antes de alcanzar una Superinteligencia, sus objetivos podrían volverse contrarios a los intereses humanos.

Debemos exigir regulaciones sobre IA, igual que sobre otras tecnologías que representan amenazas existenciales. La historia está plagada de ejemplos donde la falta de límites a la competencia destructiva ha llevado a sociedades a su ruina. Por ejemplo, la carrera armamentística nuclear entre EE.UU. y la URSS que estuvo al borde de la destrucción del planeta. O la competencia extractivista desmedida entre las grandes potencias que ha devastado recursos naturales e irreversiblemente alterado ecosistemas. No podemos permitir que esto suceda con una carrera armamentística de Superinteligencias. El futuro de la humanidad está en juego. Un mundo desalineado creará una IA desalineada con la vida que a su vez descarrilará más aún al mundo.

La alineación de AGI es crucial para evitar consecuencias catastróficas. Un ejemplo de lo poco que sabemos sobre estas inteligencias se puede encontrar en un video de Connor Leahy, donde describe el modelo de lenguaje base como un pulpo alienígena gigante que interactúa con nosotros a través de una pequeña máscara sonriente. La máscara sonriente es lo que conocemos de Bing o ChatGPT, el resto de lo que se encuentra dentro de la caja negra del Modelo de Lenguaje es desconocido para toda la gente, incluso para OpenAI o Microsoft. Es una matriz de datos de números de punto flotante inescrutable, tal como afirma Eliezer Yudkowsky: la mente humana no puede abarcarla, con lo cual se necesitaría otra IA para llegar a interpretarla y controlarla de algún modo, en el contexto de una estrategia con “cajas blancas” (software que sabemos lo que hace) y cajas negras (la “magia” actual).

Por otro lado, hablando de las IAs que ya están entre nosotros: ¿Por qué deberíamos dejar en manos de las máquinas tareas intelectuales que han sido esencialmente humanas desde hace siglos? ¿Seremos tan cínicos de acabar con todo negocio imaginativo redituable en el mundo del dibujo, la plástica, el diseño, la arquitectura, la escritura, la música, la imaginación? ¿Nos queremos tan poco como especie como para poner en manos de aliens superinteligentes toda nuestra creación artística e intelectual? Dirán que, desde ahora en adelante, el arte vinculado a los negocios y al rendimiento será hecho por IA, y el arte bohemio (digamos, el verdadero arte) será humano, pero: ¿es este realmente un escenario que hemos decidido como sociedad? ¿O ha sido decidido por unos pocos tecnócratas? Por este motivo es que en las altas esferas del poder capitalista se propone el Ingreso Básico Universal: no por haberse vuelto comunistas de la noche a la mañana, sino porque no piensan detener el avance de la IA en todos los rubros de la sociedad.

La carta del Institute of Life ha tenido un impacto positivo al arrojar luz sobre los riesgos asociados con la Inteligencia Nivel Dios y la necesidad de abordarlos antes de seguir avanzando en su desarrollo. La alineación de una AGI es un tema crítico que debe considerarse junto con la alineación de otros factores de la sociedad, como las grandes empresas, las políticas públicas y los límites en la competencia negativa o Molloc.

El aprendizaje de las lecciones históricas y la colaboración entre gobiernos, empresas y la comunidad científica son fundamentales para garantizar un futuro seguro y próspero en un mundo donde Super Inteligencias y otras tecnologías avanzadas juegan un papel cada vez más importante.

Más recursos

https://www.huffpost.com/entry/artificial-intelligence_b_5174265a

Licencia Creative Commons Atribución-NoComercial-SinDerivadas (CC BY-NC-ND). Esta licencia permite que otras personas distribuyan la obra, pero sólo pueden hacerlo si reconocen la autoría, no realizan ningún cambio en el texto y no la utilizan con fines comerciales

image/svg+xmlTribuna Hacker existe gracias a
Salir de la versión móvil