Por qué Facebook no puede (ni debe) controlarse a sí misma

facebook disconnect

El miércoles, respondiendo a un informe de ProPublica que denunció que Facebook permitió a las anunciantes marcar a las usuarias con términos ofensivos como “enemiga de las judías”, Sheryl Sandberg, directora de operaciones de la compañía, se disculpó y prometió que la compañía ajustaría sus herramientas de compra de anuncios para evitar problemas en el futuro.

Mientras leía su declaración, mis ojos se demoraron sobre una línea en particular:

“Nunca intentamos o anticipamos que esta funcionalidad se usara de esta manera – y eso está en nosotras”, escribió Sandberg.

Fue una admisión sincera que me recordó un momento al “Frankenstein” de Mary Shelley, después de que Victor Frankenstein se da cuenta de que su criatura se ha convertido en una malvada.

“Había sido la autora de males inalterables”, dice, “y vivía en el temor diario de que el monstruo que yo había creado perpetrara alguna nueva perversidad”.

Si yo fuera una ejecutiva de Facebook, podría sentir un sentido Frankensteiniano de malestar estos días. La compañía ha sido golpeada con una serie de escándalos que han golpeado su imagen, enfureció a sus críticas y abrió la posibilidad de que producto de su búsqueda de dominio mundial, Facebook supiera que ha creado algo que no puede controlar completamente.

Facebook está luchando a través de una maraña enredada de privacidad, libertad de expresión y problemas de moderación con los gobiernos de todo el mundo. El Congreso está investigando informes de que las agentes rusas usaron anuncios de Facebook dirigidos para influir en las elecciones presidenciales de 2016. En Myanmar, las activistas acusan a Facebook de censurar a las musulmanas rohingyas, que están siendo atacadas por el ejército del país. En África, la red social se enfrenta a acusaciones de que ayudó a las traficantes de personas a extorsionar a las familias de las víctimas dejando los videos abusivos.

Pocos de estos problemas provienen de la malicia intencional por parte de la empresa. No es como si una ingeniera de Facebook en Menlo Park, por ejemplo, idealizara la propaganda rusa. El jueves, la compañía dijo que lanzaría anuncios políticos comprados por las rusas para las elecciones de 2016, así como alguna información relacionada con los anuncios, a las investigadoras del Congreso.

Pero los problemas hacen claro que Facebook simplemente no fue construido para manejar problemas de esta magnitud. Es una empresa tecnológica, no una agencia de inteligencia o un cuerpo diplomático internacional. Sus ingenieras están en el negocio de crear aplicaciones y vender publicidad, no de determinar qué constituye discurso de odio en Myanmar. Y con dos mil millones de usuarias, incluyendo 1.300 millones que lo usan todos los días, moviendo cantidades cada vez mayores de su actividad social y política en Facebook, es posible que la compañía sea demasiado grande para entender todas las formas dañinas de que la gente pueda usar sus productos.

“La realidad es que si una está al mando de una máquina que tiene dos mil millones de seres humanas gritando, es básicamente imposible predecir cada caso de uso nefasto”, dijo Antonio García Martínez, una ex ejecutiva de publicidad de Facebook y autora del libro “Chaos Monkeys”. Es un problema global.

Una portavoz de Facebook se negó a hacer comentarios y me remitió la declaración de la Sra. Sandberg.

Cuando Mark Zuckerberg construyó Facebook en su dormitorio de Harvard en 2004, nadie podría haber imaginado que se convirtiría en una herramienta de censura para los regímenes represivos, una árbitro de los estándares de habla mundial o un vehículo para propagandistas extranjeras.

Pero como Facebook se ha convertido en la plaza de la ciudad global, ha tenido que adaptarse a su propia influencia. Muchas de sus usuarias ven la red social como una utilidad esencial, y las decisiones de la compañía -qué publicar, qué anuncios permitir, qué videos mostrar- pueden tener consecuencias reales de vida o muerte en todo el mundo. La compañía ha subcontratado algunas decisiones a algoritmos complejos, que lleva sus propios riesgos, pero muchas de las opciones más duras de Facebook todavía son tomadas por seres humanas.

“Todavía se ven a sí mismas como una intermediaria tecnológico”, dijo García Martínez. “Facebook no se supone que es un elemento de una guerra de propaganda. No están completamente equipadas para lidiar con eso”.

Incluso si Zuckerberg y la Sra. Sandberg no tienen aspiraciones políticas personales, como se ha rumoreado, ya son líderes de una organización que influye en la política de todo el mundo. Y hay señales de que Facebook está empezando a entender sus responsabilidades. Ha contratado a una gran cantidad de expertas en contraterrorismo y está ampliando equipos de moderadoras de todo el mundo para buscar y eliminar contenido dañino. (Zuckerberg, quien dijo en una entrevista en junio que había estado “pensando en cuál es nuestra responsabilidad en el mundo y en lo que tenemos que hacer”, más recientemente anunció que la compañía agregaba 3,000 moderadoras más).

Pero puede que no haya suficientes barandas en el mundo para prevenir malos resultados en Facebook, cuya escala es casi inconcebible. Alex Stamos, la jefa de seguridad de Facebook, dijo el mes pasado que la compañía cierra más de un millón de cuentas de usuaria cada día por violar los estándares de la comunidad de Facebook. Incluso si sólo el 1 por ciento de las usuarias activas diarios de Facebook se comportaran mal, todavía significaría 13 millones de contraventoras de reglas.

Además de los retos de tamaño, la cultura corporativa de Facebook es de optimismo alegre. Eso pudo haber convenido a la compañía cuando era una upstart, pero podría obstaculizar su capacidad de predecir con exactitud el riesgo, ahora que es un ajuste para los conflictos globales a gran escala.

Varias empleadas actuales y antiguas me describieron a Facebook como un lugar donde ingenieras y ejecutivas generalmente asumen lo mejor de las usuarias, en lugar de prepararse para lo peor. Incluso la declaración de la misión de la empresa – “Dar a la gente el poder de construir comunidad y acercar al mundo” – implica que las personas a quienes se les dan herramientas poderosas usarán esas herramientas con propósitos socialmente constructivos. Claramente, ese no es siempre el caso.

La contratación de personas con vistas más oscuras del mundo podría ayudar a Facebook a anticipar los conflictos y el uso indebido. Pero el pesimismo por sí solo no solucionará todos los problemas de Facebook. Tendrá que seguir invirtiendo fuertemente en herramientas defensivas, incluyendo inteligencia artificial y equipos de moderadoras humanas, para encerrar a las malas actrices. También sería conveniente profundizar su conocimiento de los países donde opera, contratando a más expertas regionales que comprendan los matices del entorno político y cultural local.

Facebook podría incluso sacar una página del libro de Wall Street, y crear un departamento de riesgo que vigilaría a sus equipos de ingeniería, evaluando nuevos productos y características potenciales malos usos antes de lanzarlos al mundo.

Ahora que Facebook es consciente de su propia influencia, la empresa no puede esquivar la responsabilidad sobre el mundo que ha ayudado a construir. En el futuro, culpar al monstruo no será suficiente.

Vía NY Times

image/svg+xmlTribuna Hacker existe gracias a
Salir de la versión móvil