El MIT creó una máquina moral y te invita a probarla

El concepto de ‘Inteligencia Artificial’ me resulta muy gracioso: la inteligencia no existe si no hay libertad. Así de simple. Y una máquina puede tener de todo menos libertad. De igual manera, los experimentos que se hacen en nombre de esta no inteligencia sí resultan bastante interesantes, hoy te presentamos uno en forma de desafío que está muy bueno probar.

La inteligencia artificial ha desatado debates bastante interesantes, la mayoría no están cerrados, pero existe algo a lo que llamamos así y que para ser nombrado como tal debe reunir algunas condiciones: tener la capacidad de razonar, planear, resolver problemas, pensar de manera abstracta, comprender ideas y lenguajes y aprender (así al menos dice la Wikipedia).

Las inteligencias artificiales en realidad son previsiones de las programadoras. Ninguna cosa sin voluntad ni libertad podrá hacer nada de lo anterior, sí podrá repetir o llevar adelante lo que hayan previsto sus desarrolladoras, aunque también hay otras imprevisiones (como el entrecruzamiento de variables y los errores que hayan puesto allí quienes desarrollaron), pero siempre estamos ante algo que hace una cosa en base a accionar externo, en consecuencia resulta algo extraño hablar de que la máquina (o el software) ‘piense’ o ‘razone’, cuando en realidad se están entrecruzando variables y resolviendo en base a inoculaciones artificiales.

La gente del MIT (siglas en inglés de Instituto de Tecnología de Massachusetts) es gente que no me cae muy bien. Son las responsables de la muerte de Aaron Swartz y han librado duras batallas para que el mundo sea un poco peor -así lo hicieron contra Stallman, y varias otras- y eso me quita totalmente el respeto. Allí se producen tecnócratas. Pero el hecho de que esta gente tenga estas prácticas no hace que sus experimentos no sean interesantes.

Hoy te invitamos a probar la máquina moral del MIT. Se trata de una plataforma que buscar reunir perspectivas humanas para tomar decisiones morales en máquinas de inteligencia artificial (como pueden ser los autos que se autoconducen o… las máquinas de asesinar que están desarrollando en algunos países).

El experimento es bastante simple: te muestran dos situaciones que debería resolver un auto que se autoconduce. Se trata de dilemas morales, donde un auto sin conductor debe elegir el menor de dos males, como decidir si matar dos pasajeras o cinco peatonas. Tu rol es el de ser jueza en todo esto e indicarle a la máquina qué debería hacer. Tenés que juzgar qué es más aceptable. A lo largo de 13 situaciones -con variables que complican la seguridad en las decisiones- vas a ir juzgando y alimentando esta ‘inteligencia’. Al final de las pruebas vas a ver tus resultados y tener la oportunidad de comparar tus resultados con los de otras personas.

Algo interesante es que en esos resultados no sólo te comparás con otras personas sino que al mismo tiempo te blanquean las variables (a quiénes matás más, por quiénes sentís empatía, género, edades, condición social y afines) que es algo que no se suele tener en cuenta para tomar la decisión de matar. Digo, porque si tenés que resolver si matar ricas o pobres la máquina es un tanto fascista sólo por el hecho de barajar la muerte por variables económicas.

Dale una probadita y contános tu opinión.

¡Happy Hacking!

-Share this page-
submit to reddit Hire a Professional Programmer

Periodista, ex directora de algunos medios, ex docente, ex trabajadora, ex uberante. Productora musical, militante social, murguera, programadora, diseñadora. Hacker. Directora de RevistaPPP.com. @PabloLozano13

compartí, discutí, comentá

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

* Copy This Password *

* Type Or Paste Password Here *

17.151 Spam Comments Blocked so far by Spam Free Wordpress

Puedes usar las siguientes etiquetas y atributos HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>

Loading Facebook Comments ...