La Wikly de Emilio Doménech
La Wikly
💋 Este mail contiene p0r_n0
0:00
-12:00

💋 Este mail contiene p0r_n0

Y también: una película para provocarte
Transcripción

No transcript...

7 de febrero | Madrid

🕰️ Leer esta newsletter te llevará 8 minutos y 20 segundos.

❤️ Déjanos un corazoncito o un comentario cuando hayas terminado de leernos.

👋 Y aguanta hasta el final para las mejores palomitas de tu vida. Bienvenido a La Wikly.


Imagen creada con DALL-E

💣 Deepfakes pop

Lo importante. Las imágenes pornográficas ultrafalsas de Taylor Swift que se popularizaron el pasado enero han puesto de nuevo el foco en la necesidad de regular la creación y distribución de ese tipo de contenido.

  • La proliferación de herramientas baratas de inteligencia artificial (IA) generativa ha hecho más fácil y accesible la producción de esas imágenes.

  • Y mientras tanto, legisladores en varias partes del mundo añaden un quebradero de cabeza más a sus iniciativas reguladoras sobre la seguridad online y la IA.

La pregunta es, ¿está el mundo preparado para esta lacra invasiva o hay que poner guardarraíles inmediatos antes de que todo se descalabre?

Explícamelo. A finales de enero, Twitter/X se llenó de imágenes sexuales ultrafalsas creadas por IA de la cantante Taylor Swiftt, posiblemente la estrella musical más importante del momento.

  • Su fama, la omnipresencia mediática en la que está inmersa y la falta de cortafuegos efectivos en esa red social crearon la tormenta perfecta para que los montajes se difundieran de manera masiva.

  • Una de las imágenes acumuló 47 millones de visualizaciones antes de ser retirada por la plataforma de Elon Musk.

Contexto. Las imágenes ultrafalsas sexuales (o deepfakes) ni son nuevas ni solo afectan a famosas, pero el caso de Swift sirve para poner el foco en un problema cada vez más generalizado e incontrolable.

  • Lo que hace seis años requería cierta potencia computacional y miles de fotografías, ahora se consigue con sencillas herramientas online.

  • El problema ha explotado: en 2023, los vídeos publicados suplantando la identidad de personas aumentaron un 550 por ciento respecto a 2019, según un estudio de Home Security Heroes.

  • El 98 por ciento de los vídeos deepfake que se publicaron eran pornografía. Y de ese total, el 99 por ciento tenía a mujeres como perjudicadas.

Pero a diferencia de los miles de casos de particulares, el magnetismo mediático de Taylor Swift ha generado reacciones inmediatas, al tiempo que ha acelerado el debate sobre cómo proteger a las víctimas de los deepfakes sexuales.

  • Esperando soluciones, la sociedad mira a tres actores: los desarrolladores de IA (creación), las redes sociales (distribución) y los políticos (legislación).

🤖 Los desarrolladores

El incremento de pornografía deepfake se relaciona directamente con la facilidad con la que se crean a través de aplicaciones de IA generalistas.

¿Cómo han reaccionado? El CEO de Microsoft, Satya Nadella, apareció públicamente en NBC para responder por el asunto Taylor Swift.

  • Microsoft Designer es uno de los programas que se usan en las comunidades que generaron las imágenes de la cantante y otras mujeres famosas.

  • La compañía ya ha implementado algunos cambios en su herramienta, lo que ejemplifica una vez más el efecto fiscalizador de la cobertura mediática de este caso.

Contexto y propuestas. Muchos programas de IA ya tienen implementados cortafuegos para limitar los desnudos falsos de personas.

  • Pero todavía no son tan efectivos como deberían y la carrera por el liderazgo muchas veces se impone a la seguridad, especialmente desde países con regulaciones menos estrictas.

  • Hay varios estudios que aportan propuestas: eliminación de contenido dañino de los datos de entrenamiento de la IA, incluir sesgos artificiales en los modelos, transparencia en los algoritmos y equipos rojos que busquen las grietas en las herramientas.

La legislación o el autocontrol/regulación de los desarrolladores no acabará totalmente con el problema, pero el panorama actual da demasiadas facilidades de creación.

📱 Las redes sociales

La diferencia del caso de Taylor Swift con otros similares es la difusión masiva que han tenido las fotografías falsas a través de X.

  • Este tipo de imágenes se comparten habitualmente por canales privados de plataformas como Telegram o en las profundidades de la dark web, frenando en cierta medida su propagación.

  • El daño y alcance de esta historia es fruto de la incapacidad de X para frenar este tipo de contenido, accesible para su audiencia diaria de más de 200 millones de usuarios activos.

¿Cómo han reaccionado? La cuenta de seguridad de X publicó un mensaje diciendo que trabajaban para eliminar las imágenes y que tomarían acciones apropiadas contra las cuentas que las difundieron.

  • Musk anunció que contrataría «100 moderadores» para lidiar con la situación, clásica reacción impulsiva del CEO que se deshizo de miles de estos trabajadores cuando compró la compañía. 

Contexto y propuestas. En el último año, han corrido ríos de tinta sobre la degradación de los sistemas de seguridad contra la desinformación de X desde la compra de Musk.

  • Pero no parece que las advertencias sobre los peligros de la desinformación política lo muevan a implementar grandes medidas paliativas.

🏛️ Los políticos

¿Cómo han reaccionado? Los políticos estadounidenses han mostrado públicamente su preocupación por este peligro de la IA.

  • Políticos en uno y otro bando del espectro han admitido la necesidad de tomar medidas.

  • Y desde la Casa Blanca se mostraron «alarmados» e instaron al Capitolio a emprender «acción legislativa».

Contexto y propuestas. El camino por delante parece claro: el Congreso debe recoger el guante y sacar adelante una ley federal.

  • California, Nueva York y Virginia ya tienen leyes estatales dirigidas contra estas imágenes sexuales no consentidas, pero el objetivo ahora es una protección nacional.

  • Un grupo de senadores de ambos partidos presentó la semana pasada una propuesta que permitiría a las víctimas demandar por la creación y distribución de contenido sexual de pornografía deepfake no consentida.

Abriendo el foco ante este problema global, en diferentes partes del mundo se han aprobado leyes con propósitos similares, aunque con la dificultad siempre presente de identificar perpetradores en la red.

  • En el contexto europeo, Reino Unido aprobó en 2023 la Online Safety Act, ilegalizando de manera particular la pornografía deepfake.

  • Por contra, la ley europea de IA (AI Act) no contempla protección particular para estas víctimas, algo que han criticado desde varias organizaciones.

La ausencia de una ley específica no impide que se sigan perseguiendo estas imágenes de IA no consentidas. Pero, ante un problema cada vez mayor, facilitaría la labor de los juristas.

💡 La idea

¿Por qué te hablamos de esto? La pornografía deepfake está normalizándose, pero el fenómeno está lejos de verse acompañado por iniciativas reguladoras competentes. Tampoco hay una reacción pública a la altura del problema.

  • Los deepfakes ya son mecanismos de chantaje pornográfico y de otros tipos de timos digitales, como se vio con unas estafas en YouTube hace solo un par de semanas.

  • Además, existe toda una red de creadores de deepfakes cobrando por suscripciones y por encargos con quién sabe qué propósito.

  • Y es cuestión de tiempo que se levante la barrera que limita la adopción global de herramientas de IA para crear deepfakes, con webs que operarán fuera de la regulación esperada en Occidente.

Sin embargo, el trato que se le da a la noticia de Taylor Swift, como ya pasó en 2019 con Scarlett Johansson, es el de una anécdota más en el sinfín de noticias sobre mujeres víctimas.

¿Y la regulación? El dilema que plantean los deepfakes y las herramientas avanzadas de IA es que avanzan demasiado rápido. Y ahí entran en juego otras dos dinámicas:

  • Primero, que muchos legisladores no están versados en las formas de poner guardarraíles a su potencial. La edad de los políticos, especialmente en Estados Unidos, no ayuda.

  • Y segundo, que otros tantos legisladores están deseando valerse del miedo y las prisas ante la revolución de la IA para meter un caballo de Troya en la regulación de internet.

En Estados Unidos, las mayores iniciativas legislativas tienden a ser demasiado amplias o excesivamente restrictivas, peligrando con coartar la libertad de expresión y la privacidad de los usuarios de formas inimaginables para el internet que conocemos.

  • Existen proyectos legislativos que claman intentar proteger a los niños en internet al tiempo que abren la puerta a que la derecha ultraconservadora censure contenido a su gusto1.

  • Sin olvidar que cualquier intento de limitar la creación en herramientas de IA peligra con atentar contra el proceso y la libertad creativas de quienes las usan.

Como detalle adicional: los movimientos antipornografía llevan años deseando aprovechar este momento para atacar la libre expresión sexual y pornográfica en internet, amenazando las comunicaciones consentidas y el desempeño de los trabajadores sexuales.

En conclusión, la proliferación de deepfakes pornográficos ilegales, así como su fácil acceso, subraya la necesidad de una legislación específica y efectiva contra la creación y distribución de este contenido.

  • Pero por ahora no hay esperanza en que alguien dé con la clave en el corto o medio plazo, especialmente en Estados Unidos.

  • En ese país, una ley competente podría forzar a que las grandes compañías tecnológicas tomen pasos en la dirección adecuada y limiten los efectos más nocivos de este fenómeno.

Pero conociendo el dinero y el cabildeo que las Big Tech invierten en el proceso legislativo, cuesta creer que una ley pueda unirlos a todos para atajar un problema de semejante calibre.


📊 Te necesitamos

La Wikly está en pleno proceso de cambios y necesitamos tu ayuda (si eres mujer).

  • Estamos buscando a suscriptoras de la newsletter que nos ayuden a definir mejor el futuro del medio conforme nos embarcamos en una aventura que promete traer muchas sorpresas.

  • Si quieres saber más, y optar a algún regalito que tenemos preparado, responde este formulario.


🎬 Una recomendación

Con la colaboración de Filmin
Por Emilio Doménech

Elle es una película de 2016 dirigida por Paul Verhoeven. Sigue la historia de Michelle, una mujer que busca vengarse (o no) tras ser violada en su casa por un intruso.

  • El reparto lo encabeza Isabelle Huppert, que recibió algunas de las mejores críticas de su carrera y fue nominada al Óscar a Mejor Actriz. Ganó el Globo de Oro y el César por este papel.

La película suponía la vuelta de Verhoeven a la dirección después de 10 años, cuando estrenó el drama bélico El libro negro. ¡Y menuda vuelta!

  • El cineasta holandés mantiene su estilo provocador, con la violencia y el sexo como principales pilares de un thriller con tines de comedia que es a la vez morboso, retorcido e incluso patológico.

Una joya para los amantes del humor negro y la perversión llevada al máximo nivel.

Elle está disponible en Filmin.


Compártenos, porfi.

Feliz miércoles,

Posdata: si es que sabes cómo llegar a ellas.

1

Especialmente, sobre la comunidad LGBTQ+ y el aborto.

0 Comentarios
La Wikly de Emilio Doménech
La Wikly
Las ideas de política, cultura y tecnología que mueven el mundo. Con podcast.