La Wikly de Emilio Doménech
La Wikly
📵 Borra Facebook, parte 2: odio, violencia y desinformación
0:00
-18:53

📵 Borra Facebook, parte 2: odio, violencia y desinformación

Y también: Kim Kardashian en 'Saturday Night Live'.

11 de octubre | Nueva York

Hola, maricoper. Mark, en serio, que lo borres.

El podcast de La Wikly también está disponible en iTunesSpotifyiVoox.

  • Añade el podcast a tu plataforma favorita haciendo click en el botón “Listen in podcast app” que aparece justo debajo del reproductor.

Apoya el proyecto periodístico independiente de La Wikly con una suscripción premium que incluye tres newsletters extra a la semana, acceso a nuestra comunidad privada de Discord y eventos exclusivos para los maricopers premium:

Leer esta newsletter te llevará 8 minutos y 26 segundos.

Es una sociedad enferma. Bienvenido a La Wikly.

Share


vía Andrei Lacatusu (Behance)

Lo importante: como analizamos el viernes, Facebook protagoniza una de sus peores rachas de imagen por falta de transparencia. La publicación de un extenso reportaje de The Wall Street Journal ha vuelto a ilustrar lo tóxica y problemática que puede llegar a ser la plataforma.

  • Eso incluye priorizar el contenido de odio, ser un activo dañino para las adolescentes o desdeñar la moderación de contenido ilegal, violento o extremista lejos de las fronteras estadounidenses.

Contexto: la polémica nace de la filtración de miles de páginas de documentos confidenciales de Facebook hecha por una exdirectora de la compañía.

El reportaje del WSJ se divide en nueve partes que analizan los documentos filtrados. Para poder hacer una radiografía de las conclusiones que saca el diario, hemos resumido las revelaciones a lo largo de dos publicaciones.

  • La primera la lanzamos el viernes. La otra la puedes leer a continuación.

😡 Odio como modelo

¿Qué pasa? Como parte de su misión por hacer de Facebook una mejor plataforma, los líderes de la compañía tomaron hace años la decisión de hacer un cambio en el algoritmo.

  • El resultado fue un incremento en la irritabilidad y el enfrentamiento entre sus usuarios.

Contexto: En enero de 2018, Facebook anunció un cambio de algoritmo cuyo objetivo era fortalecer los vínculos entre los usuarios y mejorar su bienestar. Facebook alentaría a las personas a interactuar más con amigos y familiares, y dedicar menos tiempo a consumir pasivamente contenido producido de forma profesional.

  • Zuckerberg dijo que el cambio fue impulsado por investigaciones que mostraban que el consumo pasivo de medios de comunicación en Facebook, en particular el video, no era tan bueno para el bienestar como la interacción con otras personas.

  • Los archivos revelados por el WSJ muestran otra razón para el cambio: la creciente preocupación de la compañía por una disminución en la participación de los usuarios (acciones como comentar o compartir publicaciones).

    • En un video de capacitación interno, un empleado de Facebook dijo que además del “deber ético” de la compañía de no convertir a los usuarios en zombis que consumen demasiado video, la plataforma también tenía intereses comerciales para intervenir.

¿Y qué ocurrió? Con el tiempo, los empleados advirtieron que el cambio estaba teniendo el efecto contrario; estaba haciendo que la plataforma de Facebook fuera un lugar más irascible.

  • Los investigadores de Facebook descubrieron que editores y partidos políticos estaban reorientando sus publicaciones hacia la indignación y el sensacionalismo.

    • Esa táctica, según las valoraciones del nuevo algoritmo, producía altos niveles de comentarios y reacciones que se tradujeron en éxito de esos usuarios y de la propia Facebook.

“Muchos partidos, incluidos aquellos que se han inclinado hacia lo negativo, se preocupan por los efectos a largo plazo sobre la democracia”, se lee en un informe interno de Facebook que no menciona partidos específicos.

  • Por ejemplo, según una investigación realizada por Constella Intelligence, en los 15 meses posteriores a los enfrentamientos por el separatismo catalán de 2017, el porcentaje de insultos y amenazas en las páginas públicas de Facebook relacionadas con el debate en España aumentó en un 43 por ciento.

¿Y qué hizo Facebook? Los científicos de datos del equipo de integridad, cuyo trabajo es mejorar la calidad y la fiabilidad del contenido en la plataforma, trabajaron en una serie de cambios potenciales para frenar la tendencia del algoritmo a recompensar la indignación y las mentiras.

  • Muchos de esos cambios no contaron con la aprobación de Zuckerberg, según muestran los documentos, porque le preocupaba que pudieran dañar el otro objetivo de la empresa: aumentar el involucramiento de los usuarios con Facebook.

    • En resumen: que sigan llegando el odio y los likes.

🤫 Ignorando lo peor

¿Qué pasa? Documentos internos de Facebook muestran la falta de moderación de contenido problemático, extremista o incluso ilegal que se publica en Facebook desde países en desarrollo, algo que pone en peligro a sus usuarios.

  • En casos analizados por WSJ, Facebook ha respondido de forma inadecuada o inexistente a instancias de trata de personas, carteles de narcotráfico y campañas de discriminación contra minorías étnicas que tienen lugar en su plataforma.

Contexto: el 90 por ciento de los usuarios de Facebook pertenecen a países distintos de EE. UU. y Canadá, y el crecimiento está estancado tanto en esas dos naciones como en Europa o Australia, donde la plataforma en muchos casos está cerca de alcanzar la saturación.

  • Eso significa que Facebook tiene que centrar gran parte de sus esfuerzos en lograr captar nuevos usuarios en países en desarrollo donde el acceso a internet es cada vez más amplio y la red social puede ser la primera ventana de los nuevos usuarios para su experiencia online.

    • De hecho, ya lo es en muchos casos, convirtiéndose en método de comunicación y fuente de noticias, según WSJ.

“La prioridad se da a retener a los usuarios, ayudando a sus socios de negocios y a veces aplacar a gobiernos autoritarios, cuyo apoyo Facebook a veces necesita para operar dentro de sus fronteras”, escriben Justin Scheck, Newley Purnell y Jeff Horwitz en WSJ.

¿Y por qué? Es fácil ver cuál es la teoría de Facebook: en aquellos países donde las instituciones y los medios son más fuertes, la compañía tiene que ir con cuidado sobre sus deslices. En países en desarrollo, el margen de error es mucho mayor.

  • Solo así se explica que la dedicación de recursos de Facebook en algunos países deje tanto que desear, con ejemplos de falta de moderadores que hablen algunos dialectos y por tanto se haga imposible eliminar contenido que en ciertos casos puede poner en riesgo a personas reales.

    • Piensa: tráfico de personas, desinformación sobre minorías, planificación para llevar a cabo robos o asesinatos.

Los ejemplos de la clase de contenido que Facebook ha dejado publicado en su plataforma son tan variados como preocupantes:

  • Carteles mexicanos que reclutan gente a través de la plataforma, que se comunican sobre posibles asesinatos y contratan sicarios para ello o que presumen sobre sus armas y muestran escenas macabras de algunas de sus operaciones.

  • Tráfico de personas en Oriente Medio. En Facebook e Instagram, un grupo promocionaba a trabajadores que podían enviar al mejor postor bajo “condiciones coercitivas”.

  • Incitación a la violencia contra minorías en Etiopía, donde grupos armados pudieron publicar y viralizar contenido falso sobre los tigrayenses, una minoría ahora involucrada en un conflicto sangriento con los ejércitos etíope y eritreo.

💉 Bye, bye, hechos

¿Qué pasa? Pese a que Zuckerberg quiso convertir a Facebook en el paradigma de las redes sociales en la lucha contra el Covid-19, su iniciativa para promocionar las vacunas solo acabó ilustrando los males que caracterizan a la plataforma.

  • Esto es, la posibilidad de malos actores de propagar desinformación a lo largo y ancho de Facebook.

Contexto: el pasado marzo, Zuckerberg se puso como meta lograr que Facebook fuera un activo positivo en la batalla pandémica y llevar a más de 50 millones de personas a ponerse la vacuna.

  • El proyecto incluía aliarse con organizaciones sanitarias a nivel global y promocionar las vacunas a través de una campaña de información accesible y constante en toda la plataforma.

¿Y qué ocurrió? Que todas las publicaciones sobre vacunas, vinieran de Facebook o de cualquier otro grupo u organización, empezaron a inundarse de comentarios que ponían en duda la efectividad de las vacunas —o el propósito real de las mismas.

  • Un memorandum concluía que en torno al 41 por ciento de los comentarios de publicaciones en inglés sobre vacunas tenían el potencial de desalentar a quienes las leían a ponerse la vacuna contra el Covid-19.

    • Y puede que Facebook tenga un mayor cuidado con la moderación de las publicaciones individuales, pero las secciones de comentarios son un monstruo mucho más difícil de domesticar —no digamos ya vídeos que deben moderarse caso a caso o publicaciones, comentarios y vídeos en otros idiomas.

“Pese a los esfuerzos de Zuckerberg, un grupo de activistas antivacunas inundó la plataforma con lo que Facebook llama contenido ‘obstáculo a la vacunación’, muestra uno de los memorandos. Usaron las propias herramientas de Facebook para sembrar las dudas sobre la severidad de la amenaza pandémica y la seguridad de la principal arma de las autoridades contra ella”, lee el reportaje del WSJ.

☝️ La defensa

Desde Facebook defienden que los documentos analizados por WSJ están muchas veces sacados de contexto o se exagera su trascendencia. Y en lo que refiere a las acusaciones mencionadas en esta newsletter, un portavoz defiende que:

  • Las divisiones ideológicas ya estaban antes de la llegada de la red social.

  • La estrategia de la compañía en países en desarrollo es tremendamente ambiciosa.

  • La indecisión sobre las vacunas ha caído en un 50 por ciento desde enero entre estadounidenses que usan Facebook.

¿Desea saber más? En The Wall Street Journal tienes los artículos completos sobre los temas que hemos tocado en esta nueva entrega, así como podcasts que indagan en las principales revelaciones del multireportaje.


🤳 Kim, en SNL

Kim Kardashian presentó este pasado sábado Saturday Night Live, el popular programa de sketches de NBC que su expareja Kanye West ha visitado en repetidas ocasiones. Su monólogo inicial es divertidísimo, pero te recomiendo ver *todo* el programa.

  • Mi cita favorita:

“Nunca le diría a nadie lo que pueden o no hacer. Recordad, soy una Kim, no una Karen. Y, sinceramente, con todos los nombres que existen que empiezan con ‘K’, es realmente increíble que mi madre no eligiera ‘Karen’. Quiero decir, de alguna forma lo sabía. No sé cómo supo ver venir eso y no lo de Caitlyn”, Kim Kardashian West.


En otro orden de cosas, este viernes estuve en Twitch hablando sobre las últimas entregas de James Bond, Sin tiempo para morir, y del universo Spider-Man, Venom: Let There Be Carnage.

  • Puedes ver el stream completo aquí.

Share

Hasta la semana que viene,

0 Comentarios
La Wikly de Emilio Doménech
La Wikly
Las ideas de política, cultura y tecnología que mueven el mundo. Con podcast.