Desde sus inicios, Silicon Valley se ha visto animado por una comprensión casi absolutista de la libertad de expresión. Además de las excepciones por fraude, pornografía o amenazas específicas, la opinión predominante entre muchas plataformas tecnológicas ha sido permitir que cualquiera publique casi cualquier cosa. Estas sensibilidades incluso están consagradas en la legislación estadounidense, que otorga a las empresas amplia inmunidad frente a enjuiciamiento por lo que publican sus usuarias.
Pero ahora, por una buena razón, el ethos absolutista ha terminado.
En los últimos dos años, presionadas por las legisladoras y los medios sobre el daño causado por la información errónea, la propaganda y el acoso patrocinados por el estado, las plataformas tecnológicas han comenzado a modificar radicalmente sus actitudes sobre lo que las personas pueden decir y cómo pueden decirlo.
La semana pasada, Facebook anunció un nuevo plan para eliminar la información errónea que, según determina, podría ocasionar un daño inminente. Y WhatsApp, la filial de mensajería de Facebook, dijo que limitaría la cantidad de mensajes en el servicio que se pueden enviar como una manera de frenar los rumores virales, algunos de los cuales han llevado a la violencia de la mafia en lugares como India.
Las nuevas políticas son parte de un cambio mayor. Los servicios en línea, no sólo Facebook, sino también Google, Twitter, Reddit e incluso los más alejados de las noticias y la política, como Spotify, están reconsiderando su relación con el mundo fuera de línea. Se están haciendo una pregunta básica: ¿dónde comienza y termina nuestra responsabilidad?
Este es un gran negocio, y ya es hora de que las compañías tecnológicas adopten una posición más firme contra las mentiras y el acoso. Aún así, mientras luchan con la cuestión de la responsabilidad y dónde trazar la línea sobre ciertos tipos de contenido, todas debemos prepararnos para un viaje muy difícil.
Este es el motivo: un enfoque mayoritarmente no intervencionista ha sido fundamental para el crecimiento de las plataformas tecnológicas, permitiéndoles llegar a una escala global sin soportar los costos sociales de su aumento. Pero debido a que ahora son tan influyentes -sólo Facebook tiene más de dos mil millones de usuarias- y están tan profundamente arraigadas en nuestras vidas, un enfoque más práctico para controlar el contenido se propagará por todo el mundo, alterando la política, los medios de comunicación y mucho más.
También podría tener el efecto opuesto al que muchas críticas quieren: una mejor vigilancia de su propio contenido podría aumentar el poder que las plataformas tecnológicas tienen para dar forma a nuestras vidas.
Pasé gran parte de la última semana hablando con personas que trabajan en estos temas, tanto dentro como fuera de estas empresas. Salí de estas conversaciones alentada por su consideración, pero hay pocas respuestas a las preguntas que satisfarán a mucha gente.
Es genial que las gigantes de la tecnología sean finalmente conscientes de sus efectos en el mundo real. Pero hay mucho margen de error en la forma en que abordan la revisión del contenido. Seguramente se equivocarán mucho, ya sea supervisando demasiado o muy poco, y quizás no puedan explicar de manera satisfactoria por qué tomaron ciertas decisiones, despertando sospechas por todos lados.
La semana pasada, critiqué la complejidad de las políticas de contenido emergente de Facebook, que hablan ampliamente de las virtudes de la libertad de expresión, pero que permiten a la empresa eliminar o reducir la distribución de ciertas publicaciones por diversas razones. Pero no son sólo las políticas de Facebook las que son difíciles de comprender. Las reglas de Twitter provocan el mismo mareo.
Después de hablar con estas compañías y otras personas, tengo una idea de por qué sus esfuerzos por solucionar sus problemas son difíciles de entender. Las plataformas tecnológicas dicen que no quieren ser imprudentes: todas están buscando opiniones de muchas partes interesadas sobre cómo desarrollar políticas de contenido. También están muy preocupadas por la libertad de expresión, y aún se inclinan por darle a la gente la libertad de publicar lo que les venga en gana.
En lugar de prohibir el habla, a menudo intentan mitigar sus efectos negativos al buscar enfoques técnicos, como contener la propagación de ciertos mensajes alterando los algoritmos de recomendación o imponiendo límites a su propagación viral.
«Hay políticas matizadas por una razón», dijo Monika Bickert, jefe de política de Facebook. «Algunas de estas cosas son muy complicadas, y cuando elaboramos estas políticas, es un grupo de personas sentadas en Menlo Park, California, que dice dónde creemos que debería estar algo en línea».
Bickert dijo que ha organizado reuniones periódicas con una variedad de expertas para explicar cómo Facebook debería trazar las líneas sobre una variedad de tipos específicos de discurso. En general, la empresa elimina contenido que es ilegal, peligroso, fraudulento o de otro modo no deseado e inauténtico. Pero para las áreas que son menos blanco y negro, como la desinformación, tienen un enfoque diferente.
«Reducimos la distribución de información que es inexacta, e informamos a las personas con más contexto y perspectiva», dijo Tessa Lyons, gerente de producto que dirige el esfuerzo de Facebook para frenar la información errónea en el News Feed.
Para hacer esto, Facebook se ha asociado con docenas de organizaciones de verificación de datos en todo el mundo. Limita la difusión de las noticias que se han considerado falsas al mostrar esas publicaciones más abajo en los canales de noticias de las usuarias, y también muestra artículos más veraces como alternativa a los que no son precisos.
Andrew McLaughlin, una ex jefa de política de Google que ahora dirige una incubadora que busca construir tecnología para movimientos políticos progresistas, dijo que estaba impresionado por los esfuerzos de Facebook.
«Creo que soy representante de cierto grupo de personas que alguna vez se enorgullecieron de la solidez de nuestro compromiso con la libertad de expresión en las plataformas de Internet», dijo. «Pero mis puntos de vista ciertamente han cambiado en el caldero de las experiencias, y ahora me alegro de que plataformas como Facebook realmente estén enfocando los recursos y la energía en propaganda malintencionada y manipuladora». (Anteriormente consultó para Facebook, pero actualmente no trabaja para la empresa). .)
Pero soy menos optimista, porque todavía hay muchas cosas que desconocemos sobre estas políticas y sus efectos.
Una pregunta persistente es la neutralidad política. Facebook ha sido blanco de las conservadoras que argumentan, sin mucha evidencia, excepto por el hecho de que Silicon Valley es un capullo liberal, que sus esfuerzos podrían ser parciales. En respuesta, Facebook invitó a Jon Kyl, una ex senadora republicana, a auditar a la empresa por sus prejuicios contra las conservadoras. Las liberales, mientras tanto, han argumentado que Facebook, al negarse a prohibir las fábricas de conspiración de la derecha como Infowars de Alex Jones, está cediendo a la derecha.
Le pregunté a Bickert si Facebook tiene en cuenta posibles repercusiones políticas al momento de decidir sus políticas. Me dijo que su equipo «busca aportes de expertas y organizaciones fuera de Facebook para que podamos comprender mejor las diferentes perspectivas y el impacto de nuestras políticas en las comunidades globales».
Eso es gratificante, pero no llega al corazón del problema: Facebook es una corporación con fines de lucro que, por razones regulatorias y de imagen de marca, quiere parecer políticamente imparcial. Pero si determina que algunas actrices políticas -por ejemplo, el movimiento alt-right o las dictadoras están emitiendo más noticias falsas que sus oponentes, ¿podemos contar con que actúen?
Las mismas sospechas se aplican a otras plataformas: aunque la presidente Trump podría decir que infringe las políticas de contenido de Twitter, se le ha permitido mantenerse en pie. Imaginate la protesta si la bloquean.
Esto llega al tema más amplio de la transparencia. Bickert es mesiánica sobre la apertura, señala que Facebook fue la primera gran plataforma en publicar todo el reglamento de la comunidad.
Eso es saludable. Pero si las políticas escritas de Facebook son claras, la forma en que las aplica no lo es. Poco se sabe, por ejemplo, sobre el ejército de trabajadoras por contrato en la empresa para revisar contenido que ha sido marcado, en otras palabras, las personas que realmente toman las decisiones. (Facebook dice que están ampliamente capacitadas y sus acciones auditadas.) Y debido a que gran parte de Facebook es personalizado y muchas de sus reglas se están aplicando a través de ajustes leves en su algoritmo de clasificación, el efecto total de sus políticas de contenido puede ser muy difícil de determinar para personas ajenas a la empresa.
Ese problema también afecta a otras plataformas. Twitter, por ejemplo, tiene un filtro de contenido que rige qué tweets se muestran en partes de su feed y resultados de búsqueda. Pero las prioridades del filtro son necesariamente secretas, porque si Twitter te dice qué señales busca en el ranking de tweets, la gente simplemente lo jugará.
«La gente intenta jugar con todos los sistemas que hay», me dijo David Gasca, una gerente de productos de Twitter.
Ninguno de estos problemas es imposible de resolver. Las compañías tecnológicas están gastando enormes sumas para mejorarse a sí mismas, y con el tiempo pueden presentar nuevas e innovadoras ideas para controlar el contenido. Por ejemplo, la reciente decisión de Facebook de divulgar sus datos a un grupo de investigadoras académicas puede permitirnos algún día determinar, empíricamente, qué efectos tienen realmente sus políticas de contenido en el mundo.
Aún así, al final todas nos quedaremos con una paradoja. Incluso si están trabajando con personas externas para crear estas políticas, cuanto más hagan estas empresas para moderar lo que sucede en sus sitios, más importante serán sus propias políticas para el discurso global.
Mucha gente está preocupada de que Mark Zuckerberg ya sea demasiado poderosa. El peligro es que todavía no hemos visto nada.
Vía NYT