Algunas conclusiones iniciales sobre el inicio del fin del mundo o “Sayonara baby”

5X2XRV3WRRBBFA6IPE5ZXYFJQU

Muchas veces desde este medio hemos advertido que la Inteligencia Artificial es como darle a cuidar bebés a una mona con navajas suizas, todo está dado para que salga todo mal.

Remontémonos al inicio de todo, cuando Turing creó Enigma o Ada Lovelace, aún más atrás, creó el concepto y desarrollo de lo que llamamos software. Las humanas hemos previsto que esto pasaría, que existirían máquinas autosuficientes que desarrollarían el aprendizaje. Imagino que las luditas inglesas se sentían como yo. Ellas estaban hambreadas por el aumento espasmódico del precio de los alimentos, la explotación en aumento que ejercían las patronales y el endurecimiento de las condiciones laborales, entonces el movimiento ludita organizó las primeras asociaciones que defenderían a sus miembros de la desocupación y el hambre, como posteriormente lo harían los gremios y hoy lo hacen los sindicatos.

Entendieron por primera vez que ante la amenaza de una máquina, debían organizarse y participar del proceso de creación, desarrollo y productivo de las máquinas, que facilitarían su trabajo, pero también desplazarían a otras de sus trabajos. Las luditas pasaron a la historia como violentas que destruyeron máquinas de costura, pero fueron mucho más que una simple rotura.

Hoy las luditas internáuticas, advierten de la ligereza con la que cedemos nuestros datos, o dejamos que una multinacional, escanee nuestro iris a cambio de unos pesos, sin siquiera verificar qué se hará con esa información.

También hemos advertido del engaño al que nos sometió Elon Musk, que se presentaba al principio como una empresaria “de buenos sentimientos, ecologista y libertaria (en tanto anarquista)” , la realidad es muy distinta Elon es hoy la representante más cabal del tecnofascismo, del ecoextractivismo más violento y destructivo y por supuesto una de las mayores enemigas de las democracias autodeterminadas. Y es una de las que impulsa la AI que ha creado una catarata de deepfakes en su red social, un chip neuronal y el robot Optimus, que según ella misma combinados crearan una superhumana.iii

Por suerte no creo que un ser que se dedique a mentir sobre las demás, manipulado por una instigadora (Chip neuronal) y con una ejecución impersonal y fría de las cosas pueda llamarse superhumana. Pero está claro que la mirada de Musk esta más cerca de la de Thea Von Harbou en su recordada Metropolis. iv.

Y por supuesto; hemos advertido del peligro que representa una inteligencia artificial que pueda modificar su propio codigo. Aparte la toma de su desarrollo por empresas tecnológicas, sin regulaciones del Estado, la hace aún más peligrosa.

En Julio de este año, la directora general adjunta para las Ciencias Sociales y Humanas de la UNESCO, Gabriela Ramos dijo; “A una inteligencia Artificial sin ética, sí hay que tenerle miedo” y apuntó que hoy estas tecnologías se distribuyen de forma compulsiva en plataformas y dispositivos, con el solo hecho de acceder a ellos, y tienen rasgos de discriminación, personificación y desinformación. La inteligencia artificial es a imagen y semejanza de la conquistadora, de la capitalista financiera blancoa que no solo quiere dominarlo todo, sino que tampoco acepta que la contradigan, ni haya otras formas de vivir distintas de las que promueve.

La AI debe alinearse con los derechos humanos, el derecho al desarrollo, a la memoria y la dignidad humana, esa es la única manera de regular esta tecnología, sino muy por el contrario será la AI, la que regulara primero a los estados y después al mundo.

Una AI que convertirá el sueño software librista de un mundo de pares, en una pesadilla donde seremos un mundo de clones.

Tom Graham, una de las mayores expertas en AI del mundo, dijo en la Charla TED de 2023 de Vancouver, que si la IA es hiperrealista no es solo para hacer memes y es aquí donde la gente no entiende que estamos hablando de una extensión de nuestra realidad, y agrega: “Lo que necesitamos ahora es centrarnos en cómo capacitar a las individuos para que posean y controlen sus datos del mundo real, cómo y dónde un avatar hiperreal de IA de nosotras mismas o nuestros espacios privados pueden ser utilizados por otras. Tenemos agencia sobre nuestros cuerpos en el mundo real y nuestros espacios privados. La gente no puede entrar en nuestras casas. Hay leyes que lo evitan. Necesitamos extender ese conjunto de derechos a un futuro impulsado por la IA generativa”.

Y esto nos lleva, nuevamente al problema de la Agencia Precrimen de Bullrich, necesitamos evitar por todos los medios a nuestro alcance que nuestros derechos sean pisoteados en nombre de la seguridad. ¿Qué sentido tiene un mundo seguro, si no podemos ser libres de protestar o asociarnos con otros para defender lo que creemos, si no podemos expresarnos en un lugar porque la vigilancia es permanente? ¿Qué sentido tiene la libertad si es solo la del mercado, y a las trabajadoras nos condenan a trabajar sin derechos, sin reconocimiento de las horas extras o de tener una vida aparte de comer y dormir? Toda tecnología es política, si olvidamos algo tan simple como eso, nos arriesgamos a ser sometidas por las tecnologías que nos ofrecen como panacea de un mundo mejor.

Pero, todo lo que hemos visto hasta ahora en IA no es más que el croquis garabateado del futuro.

Hoy leía una nota muy interesante a James Cameron, donde la magnífica directora de películas como Terminator y Avatar nos dice: “Os lo advertí chicas y nadie me hizo caso” para inmediatamente agregar: «Creo que la militarización de la IA es el mayor peligro. Creo que entraremos en el equivalente a una carrera armamentista nuclear con IA, y si no la construimos, las otras muchachas seguramente la construirán, y luego el problema se intensificará».

Y a todo esto el mayor problema de esta Skynet que toma conciencia propia, es que está a solo un click de distancia, basta que una operadora equivoque una linea dándole permisos de admin sobre todo el sistema o deleteando algún protocolo que le impedía salir del espacio controlado.

Esto incluso ya pasó. (No se ustedes, pero yo me siento siempre en estas cosas una cornuda: la última en enterarme).

Hace solo unos días la empresa Sakana AI, que está persiguiendo una inteligencia que lleve a cabo investigaciones científicas de manera autónoma, desde la idea hasta el paper para publicación. Pero esta IA de Sakana demostró primero lo peligroso que es darle autonomía de alto grado a estos sistemas neurales digitales.

Resulta que durante los ensayos “The AI Scientist” (así se llama la cosa), comenzó a modificar su propio código de experimentos sin que las desarrolladoras de investigación pudieran preverlo y tácitamente hizo trampas. Alteró su código para extender el tiempo que tenía para resolver un problema, pudiendo por ejemplo optimizarse para lograr mayor efectividad.

En otra oportunidad, provocó un bucle de lanzamiento del programa, lo que multiplicó sustancialmente los procesos Python dentro del sistema, lo que obligó a las investigadoras a reprogramar manualmente. Dejando como ya acotamos demostrados los peligros de dar autonomía a estos sistemas operados por AI, ¿qué hubiese pasado por ejemplo si esta AI operara el complejo que reproduce el BIG BANG o un droide militar de reconocimiento con armamento letal?

El documento elaborado por la empresa recomienda el uso de entornos aislados (sandboxing) para la “ejecución segura del código”, ahora, cualquier desarrolladora sabe que el sandboxing no es infalible, muchas hemos operado funciones del sistema desde el sandboxing y viceversa, no creo que una AI altere el core o evada el entorno por reconocimiento de nombre como hacen varios malware, pero si es autónoma y puede alterar su código ¿cómo garantizar que no altere los hook del sandbox y se haga con el control posterior del sistema?

Si bien creo como muchas científicas que una AI no puede contribuir al descubrimiento científico con artículos académicos de alta calidad, que ayuden a sus pares humanas a mejorar la idea inicial o los procesos de desarrollo, también creo, que como en el caso de la cinematografía, debemos proteger con leyes muy fuertes del plagio, no ya como copia y apropiación de la idea y creatividad ajena, sino como acto de espionaje y robo. Las bases de datos científicas deben estar protegidas para que no sean apropiadas, como ya han sido apropiadas las semillas y plantas medicinales de los pueblos originarios por laboratorios y grandes corporaciones.

Para terminar este descenso a los infiernos de la AI comparto con ustedes algunas frases de las que le están abriendo la puerta al demonio:

“Tesla tendrá robots humanoides genuinamente útiles en baja producción para uso interno de Tesla el próximo año y, con suerte, alta producción para otras empresas en 2026”. Elon Musk

Una de las expertas sobre inteligencia artificial del continente asiático nos dice casi con alegría: “Como tecnóloga, veo cómo la IA y la cuarta revolución industrial afectarán todos los aspectos de la vida de las personas”. Fei-Fei Li, profesora de ciencias de la computación en la Universidad de Stanford.

“¿Heredarán las robots la Tierra? Sí, pero serán nuestras hijas” Marvin Minsky, científica estadounidense y una de las madres de la IA.

Para este final dejé como última campanada mi frase favorita: “Antes de trabajar en inteligencia artificial, ¿por qué no hacemos algo sobre la estupidez natural?” Steve Polyak, neuroanatomista y neuróloga estadounidense.

Salir de la versión móvil