24SOCIALMEDIA master768

Cómo la ficción se transforma en realidad en redes

Horas después de la masacre de Las Vegas, la transmisión en Facebook de Travis McKinney fue difundida con un compendio de teorías de conspiración. La policía estaba mintiendo. Hubo varias tiradoras en el hotel, no solo una. El sheriff estaba cubriendo a las dueñas de casinos para preservar sus negocios.

Los rumores políticos surgieron poco después. La asesina era anti-Trump, un activista “antifa”, dijeron algunas; otras hicieron la afirmación contraria, que era una terrorista de extrema derecha. Las dos narraciones sin pruebas se encontraron con el torrente habitual de charla, noticias y selfies.

“Este material provenía de toda mi red de 300 a 400” amigas y seguidoras, dijo McKinney, de 52 años, de Suffolk, Virginia, y algunos mensajes provenían de su círculo íntimo.

Pero sabía que sólo había una tiradora; una instructora de armas de fuego y contratista de defensa, había estado escuchando el escáner de la policía en Las Vegas con una aplicación. “Salté en línea e intenté contrarrestar algunas de estas tonterías”, dijo.

En las próximas semanas, ejecutivas de Facebook y Twitter aparecerán ante comités del Congreso para responder preguntas sobre el uso de sus plataformas por crackers rusas para difundir información errónea y sesgar las elecciones. Durante la campaña presidencial de 2016, Facebook vendió más de 100.000 dólares en anuncios a una empresa vinculada al Kremlin, y Google vendió más de 4.500 dólares en cuentas que se cree que están conectadas con el gobierno ruso.

Agentes con enlaces en el gobierno ruso crearon una infinidad de cuentas y sitios web falsos, compraron una gran cantidad de anuncios en Google y Facebook, difundiendo reclamos dudosos que parecían destinados a sembrar división a lo largo del espectro político: “un hack cultural”, en las palabras de una experta.

Sin embargo, la psicología detrás de las plataformas de medios sociales (la dinámica que los convierte en vectores tan poderosos de desinformación) es sobremanera importante, dicen las expertas, especialmente para aquellas que piensan que son inmunes a ser engañadas. A pesar de todas las sospechas sobre los motivos y la ética de las compañías de redes sociales, es la interacción de la tecnología con nuestros sesgos psicológicos comunes, a menudo subconscientes, lo que hace que muchas de nosotras nos volvamos vulnerables a la información errónea, y esto ha pasado inadvertido.

El escepticismo de las “noticias” en línea sirve como un filtro decente la mayor parte del tiempo, pero nuestros sesgos innatos permiten que sea pasado por alto, especialmente cuando se les presenta el tipo correcto de “meme” seleccionado algorítmicamente.

En un momento en que la desinformación política está lista y a la mano, “Facebook, Google y Twitter funcionan como un mecanismo de distribución, una plataforma para hacer circular información falsa y ayudar a encontrar audiencias receptivas”, dijo Brendan Nyhan, profesora en Dartmouth College (y colaboradora ocasional de la columna Upshot de The Times).

Para empezar, dijo Colleen Seifert, profesora de psicología en la Universidad de Michigan, “La gente tiene una visión benevolente de Facebook, por ejemplo, como curadora, pero de hecho tiene un motivo propio. Lo que en realidad está haciendo es mantener la vista en el sitio. Es curadora de noticias e información que te mantendrá mirando “.

Ese tipo de comisariado actúa como una fértil anfitriona de falsedades mediante la participación simultánea de dos recursos de ciencias sociales predigitales: el mito urbano como “meme”, o idea viral; y sesgos individuales, las presunciones automáticas y subconscientes que colorean la creencia.

El primer proceso se basa en gran medida en los datos, afirman las expertas, y está integrado en los algoritmos de las redes sociales. La amplia circulación de rumores bizarros, fácilmente desacreditados, como el llamado Pizzagate, por ejemplo, la advertencia de que Hillary Clinton estaba dirigiendo un anillo de sexo infantil desde una pizzería del área de Washington, no depende enteramente de la fiebre partidista (aunque ese era su origen).

Por un lado, la sabiduría común de que estos rumores circulan porque la mayoría de las personas llevan a cabo su vida digital en cámaras de eco o “capullos de información” es exagerada, dijo la Dra. Nyhan.

En un documento próximo a publicarse, Nyhan y sus colegas revisan la investigación relevante, incluidos los análisis de sitios de noticias en línea partidistas y datos de Nielsen, y encuentran lo contrario. La mayoría de las personas son más omnívoras de lo que se cree; no están confinadas en burbujas cálidas que sólo contienen indignación agradable.

Pero no es necesario que las noticias falsas se propaguen rápidamente, también sugiere la investigación. Los algoritmos de los medios sociales funcionan en un nivel como la selección evolutiva: la mayoría de las mentiras y falsos rumores no llegan a ninguna parte, pero los raros con atractivas “mutaciones” del mito urbano encuentran tracción psicológica y luego se vuelven virales.

“En mi experiencia, una vez que todo esto se pone en marcha, la gente simplemente pasa estas noticias sin siquiera detenerse a leerlas”, dijo McKinney. “Simplemente están participando en la conversación sin detenerse a mirar” en la fuente.

Las redes sociales digitales son “peligrosamente efectivas para identificar memes que están bien adaptados para sobrevivir, y estos también tienden a ser los rumores y las teorías de conspiración que son más difíciles de corregir”, dijo el Dr. Nyhan.

Una de las razones es el ritmo crudo del intercambio de información digital, dijo: “Las redes hacen que la información se ejecute tan rápido que sobrepase la capacidad de las moderadoras para verificarla. La desinformación se propaga ampliamente antes de que pueda degradarse en los algoritmos “.

La forma en que Facebook y otras plataformas funcionan como “comercializadoras” de desinformación, similar a la forma en que comercializan zapatos y maquillaje, es polémica. En 2015, un trío de científicas del comportamiento que trabajan en Facebook enardeció el debate en un documento publicado en la prestigiosa revista Science.

Las autoras analizaron la sección de noticias de unas 10 millones de usuarias estadounidenses que publicaron sus opiniones políticas, y concluyeron que “las elecciones de las individuos jugaron un papel más importante que el propio ranking algorítmico de Facebook para limitar la exposición” a noticias y comentarios contrarios.

Las críticas externas criticaron el estudio por su propio interés, mientras que otras investigadoras dijeron que el análisis era sólido y sin prejuicios aparentes.

La otra dinámica que funciona a favor de la proliferación de información errónea no está integrada en el software sino en el hardware biológico: los sesgos cognitivos del cerebro humano.

Desde un punto de vista psicológico, los sesgos individuales sutiles son al menos tan importantes como la clasificación y la elección cuando se trata de difundir noticias falsas o engaños, como un informe falso de hombres musulmanes en Michigan que reciben asistencia social para múltiples esposas.

Simplemente entender lo que dice un informe de noticias o un comentario requiere una suspensión temporal de incredulidad. Mentalmente, la lectora debe aceptar temporalmente los “hechos” declarados como posiblemente verdaderos. Una conexión cognitiva se establece automáticamente: delincuente sexual de Clinton, Trump-nazi, bienestar de los hombres musulmanes.

Y refutar esas afirmaciones falsas requiere que una persona primero las articule mentalmente, reforzando una conexión subconsciente que perdura por mucho más tiempo del que la gente presume.

Con el tiempo, para muchas personas, es esa conexión inicial falsa la que se mantiene más fuerte, no las retractaciones o correcciones: “¿Obama era musulmán? Me parece recordar eso … ”

En un análisis reciente de los sesgos que ayudan a difundir información errónea, la Dra. Seifert y sus coautoras nombraron esto y varias otras conexiones cognitivas automáticas que pueden reforzar la información falsa.

Otra es la repetición: el mero hecho de ver un titular de noticias varias veces en un servicio de noticias hace que parezca más creíble antes de leerse cuidadosamente, incluso si se trata de un artículo falso sobre el que tus amigas bromean.

Y, como las vendedoras lo saben desde siempre, las personas tienden a valorar la información y los juicios que ofrecen las buenas amigas sobre todas las demás fuentes. Es una tendencia psicológica con consecuencias significativas ahora que casi dos tercios de las estadounidenses obtienen al menos algunas de sus noticias de las redes sociales.

“Sus alianzas sociales afectan la forma en que pondera la información”, dijo Seifert. “Sobreponderamos la información de las personas que conocemos”.

La naturaleza informal, social y bromista de hojear y participar en los intercambios digitales permite que estos sesgos operen sin control, agregó.

Detenerse para profundizar y determinar la verdadera fuente de una historia maloliente puede ser complicado, incluso para la escéptica motivada, y mentalmente es un trabajo duro. Las inclinaciones ideológicas y las opciones de visualización son factores conscientes, descendentes, que entran en juego después de que los sesgos cognitivos automáticos ya se salieron con la suya, estimulados por los algoritmos y la naturaleza social de las interacciones digitales.

“Si no tuviera pruebas directas de que todas estas teorías eran incorrectas podría haberlas tomado un poco más en serio”, dijo McKinney.

Vía The New York Times

image/svg+xmlTribuna Hacker existe gracias a

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *