13cf9992ab550c0e2798307a24e80bd2

Decisión empresaria de Facebook interfiere en la democracia global

Uno de los trabajos que han desaparecido producto de la desmesura empresaria a la hora de buscar ganancias es el de correctora. Hasta hace no mucho, en diarios y webs había gente dedicada a lograr una buena escritura, una cohesión y coherencia en los textos. Una búsqueda de calidad que se resolvía con personas trabajando. Cuando aparecieron los correctores automáticos en las suites ofimáticas estos trabajos fueron desapareciendo. Vaya a saber una por qué las empresas creen que la comida de una familia es un costo y no un derecho. Pero bueno, ese es problema de ellas que han terminado produciendo un mundo de peor calidad en base a despedir personas (por lo que han generado más pobreza y concentración). Digo, aquí no tenemos nada con las putas ni con sus hijas, pero tranquilamente se podría apelar al sentido peyorativo de ese señalamiento para calificar tan dantesca imbecilidad fundada en búsquedas nimias y socialmente degradantes como es obtener ‘más’ dinero a costa del desempleo y el empobrecimiento mundial (sí, cuando hay un error ortográfico en un diario, hay una correctora sin trabajo, y eso es desempleo y empobrecimiento).

También es el caso de Facebook. El correlato de la cuasi desaparición de las correctoras podemos dejarlo para otro momento, pero ya prácticamente no existen y las empresarias de más arriba buscan constantemente un mundo peor. Como Facebook está muy comprometida en pauperizar la vida de las personas del globo (y ganar dinero con eso), decidió a principios de esta semana que no necesitaba editoras humanas. ¿El resultado? Sus robots transformaron en noticias falsas en destacadas a nivel internacional. Sí, se clavaron un trending en Facebook.

Algo que atenta directamente contra el derecho a la información, pero como lo hacen constantemente las empresas periodísticas y poca gente se ha puesto a pensar que Internet es un medio de comunicación (independientemente de los emprendimientos que la componen), nadie piensa en denunciar. Esto lo denunciamos desde el movimiento del software libre a principios de año. Como respuesta Facebook negó las críticas y las consecuencias que marcábamos, para en poco tiempo terminar dándonos la razón. La compañía despidió a TODAS sus editoras humanas, que son las encargadas de seleccionar las noticias que vas viendo. ¿Notaste le matiz? digo, vos que pensás que no hay censura y que todo eso funciona así ‘objetivamente’: alguien decide qué noticias ves y por qué. Y esa es la decisión principal: elegir qué ven las personas, así que si echan a las correctoras, las decisiones las toma un software y… las decisiones del software las toma la desarrolladora (o quien le encargue el software).

103671354 GettyImages

La resultante de estos despidos masivos fue que el algoritmo de la red antisocial de Zuckerberg tomó noticias falsas y las difundió en la sección de trendings de la red. Así, Megyn Kelly -una de los íconos de la cadena FOX, propiedad de Donald Trump y contendiente en los próximos comicios del país que más asesinatos ha cometido- apareció como una traidora ‘pro-Clinton’ de la cadena. La noticia en cuestión (la más leída a nivel mundial en Facebook según el Washington Post) agregaba además que Kelly había sido despedida luego de conocerse su supuesto favoritismo por Clinton. Todo esto era falso.

Parte de estos problemas se produjeron cuando una de las despedidas por Facebook filtró el manual de entrenamiento (por el nombre, seguro debe tratarse de un manual de estilo para monas) que es utilizado para seleccionar las noticias de la sección. El material plantea consejos, más que nada guías editoriales, sobre cómo seleccionar noticias desde el RSS de empresas periodísticas con las que decide trabajar Zuckerberg y que le resultan confiables, además de tener repercusión en el público de la red. Según denunció esta ex editora, su trabajo se había transformado en algo perverso: ya no capacitaban personas ni trabajaban en sus funciones, su trabajo de pronto fue entrenar al algoritmo de la empresa. Luego del vendaval de noticias falsas que produjo un movimiento tan repudiable -te repito: ¡ponen un programa a decidir qué tenés que ver y por qué! Así, sin humanidad en medio- la red del cuadradito azul anunció que seguirá ‘usando’ editoras humanas.

A nadie le extraña que esta gente que se dedica a vender personas digitalmente tenga una postura similar. Pero eso es un problema: esta es una empresa con poder mundial sobre las personas, igual caso el de Google cuya capacidad de censura y direccionamiento global resultan espeluznantes. Facebook anunció que el movimiento de eliminar a todas las editoras humanas fue uno ‘apresurado’, lo que refuerza su decisión de poner máquinas a alimentar nuestros cerebros y humanas a controlarlas, algo que sería como capacitar a un grupo selecto para dar instrucciones y órdenes a las máquinas con que se vota de forma electrónica. Sin humanidad no hay vidas humanas, aunque parezca redundante. Según explicaron desde la red, buscan que ya no haya humanas escribiendo descripciones de los tópicos y resúmenes de las noticias y en lugar de pagarle a humanas para que hagan eso, la compañía busca un algoritmo que resuma las noticias desde la fuente. Fue por eso que a principios de esta semana Kelly apareció despedida y traicionando a Trump.

Nazi+Facebook

Si estás pensando que tal vez las máquinas hagan mejor este trabajo, aprovecho y te cuento por qué la noticia de Kelly se transformó en noticia mundial. El algoritmo se basó en los comentarios y noticias de grupos conservadores presentes y de gran interacción en la red. El título era uno de ‘último momento’ y fue publicado en el sitio Conservative 101, luego replicado en la red. En Conservative 101 se publicaron 3 noticias similares con títulos catástrofe. Entre las noticias con que se interactuaban en ese momento, había una nota de Vanity Fair (en la que se discutían cuestiones intestinas del movimiento conservador que encabeza Trump). Las noticias de más arriba, a nivel editorial, tenían una marcada tendencia anti-Kelly narrada a través de una ficción. Unas lectoras contestaron allí, siguiendo la ficción, que Kelly sería despedida de su trabajo y el algoritmo hizo todo lo demás: transformarlo en cierto y masificarlo en la red.

Si te ponés a pensar, una vez que este algoritmo funcione, basta con estudiar en qué se basa para seguir creando noticias falsas y comenzar a masificarlas en la red. Digo, ¿quién no buscaría dominar qué información ven las lectoras al costo de un par de notas diarias en los sitios correctos?

Por lo pronto, desde aquí, te invitamos a dejar de utilizar la red de Zuckerberg como una de noticias. Incluso medios poco serios como los del multimedio Alonso resultan más confiables en este caso.

¡Happy Hacking!

image/svg+xmlTribuna Hacker existe gracias a

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *