Si hasta ahora el mundo mantuvo una lucha sin cuartel contra la desinformación, el surgimiento de un arma inédita ensombrece aún más las perspectivas futuras.
Este nuevo arma es la generación de imágenes sintéticas (synthetic image generation), y amenaza con superar con creces a los cheapfakes y deepfakes como instrumentos predilectos en el arsenal de la desinformación.
Su poder se explica por el hecho de que la imagen sintética parece, cada día más, como un registro de alguna escena real, una fotografía casera o noticiosa, a pesar de ser una fabricación de cabo a rabo hecha con Inteligencia Artificial (IA).
¡Voila! Cualquier persona, con sólo llenar un campo de texto con una descripción de lo que quiere ver, dispondrá de una imagen digital, aparentemente fidedigna, de lo que sea, lista para enviar a las redes sociales. Ahora, un texto falso de desinformación tendrá como respaldo una imagen, sincronizadamente falsa, pero creíble por su calidad y por la complementación con el texto.
Una faceta central de la amenaza es que hasta doña Rosa y don Manolo podrán utilizar esta nueva tecnología, con inocencia o maldad.
Pero tampoco importa tanto el objetivo. Lo que, si, importa, es que será cada vez más difícil saber qué registro es falso, y cuál es real. Cuando eso pasa, el consenso de los expertos es, que todo, absolutamente todo, queda bajo sospecha.
Esto es lo que los especialistas en los medios Robert Chesney y Danielle Citron ya vieron en 2018 con las deepfakes, y bautizaron como dividendo del mentiroso (liar’s dividend).
“En tanto que el publico es más consciente de la idea de que se puede falsificar creíblemente video y audio, algunos intentarán escapar a la responsabilidad por sus actos, denunciando los mismos como deepfakes”, escribieron para varias universidades de Estados Unidos.
“Sencillamente, un público escéptico estará sensibilizado para dudar de la autenticidad de evidencia sonora y de video real. Este escepticismo podrá ser convocado contra contenido autentico, como también contenido adulterado”.
A pesar de los nubarrones oscuros, la primera reacción a la nueva tecnología es considerarla cool, como lo hizo Shirin Anlen, una especialista en tecnología de los medios en Witness, una organización de derechos humanos mundial, con sede en Brooklyn, Estados Unidos.
Pero lo cool dura poco. La siguiente reacción es rechazarla por ser “un peligro”, como se sostuvo en una discusión organizada hace poco por Democracy Reporting International (DRI), una organización con base en Berlín que busca dar respaldo a la gobernanza democrática y las elecciones libres y transparentes.
Esa discusión acompañó el lanzamiento de un informe de DRI sobre contenidos sintéticos: Lo que nos puede decir un Pixel (What a Pixel can Tell).
“Los expertos creen que texto-a-imagen tardará tiempo, y esfuerzo, en volverse el método preferido para la desinformación política, pero solamente es una cuestión de tiempo para que tenga impacto”, escribieron los autores del informe, Beatriz Almeida Saab y Lena María Boswald.
De hecho, ya hay una variedad de sitios que ofrecen el servicio al público y producen imágenes a pedido, pero aún tienen algunas limitaciones. Pero el futuro está a un paso.
Hasta ahora los esfuerzos contra la desinformación con imágenes se centraron en dos formatos:
- Cheapfakes: hasta ahora es el método más accesible. Incluye desde usar imágenes fuera de su contexto original, geográfico o temporal, como ocurrió en las protestas en 2017 contra la reforma jubilatoria en Argentina. Otras opciones incluyen recortar imágenes para resignificarlas o cambiar la velocidad de un video o grabación para distorsionarlo, como cuando ralentizaron la voz de Patricia Bullrich en un video que circuló por las redes sociales en 2019 para dar la impresión de que estaba borracha.
- Deepfakes: uso de IA para manipular una imagen, video o grabación, de forma tal que cambia el sentido del registro original. Un ejemplo citado por DRI es un video del presidente de Ucrania, Volodymyr Zelensky, en marzo de 2022, adulterado de tal forma que Zelensky aparece en un video ordenando a las tropas de su país a rendirse frente a las fuerzas invasoras de Rusia.
Pero los expertos de DRI señalaron que los contenidos sintéticos son una nueva vuelta de tuerca ya que son creados de cero, sin la utilización de una imagen, video o grabación previa.
“En pocos segundos, una imagen generada por IA podría ser creada para dar apoyo a una narrativa noticiosa falsa”, señalaron Saab y Boswold. Hasta se podría producir una variedad de imágenes de cualquier escena, mostrando algo ficticio desde distintas perspectivas, con tal grado de calidad que el ojo humano no podrá discernir la diferencia entre una imagen falsa, y una real.
Ya hay una variedad de sitios que ofrecen el servicio, todos con distintos niveles de acceso y distintas limitaciones. La lista incluye a Dall-E y Glide, de OpenAI; y Parti y Imagen, de Google.
Expertos en seguridad nacional, legales, derechos humanos, noticias, ecosistema digital y política ya están analizando qué hacer frente a un arsenal de amenazas que incluye los contenidos sintéticos. Y hay toda una variedad de posibles respuestas.
The Partnership on Aritificial Intelligence (PAI), mediante contribuciones abiertas, está desarrollando un Código de Conducta para Contenido Sintético (synthetic content), propuesto como guía para aquellas personas y organizaciones que generan y comparten el contenido sintético.
El listado de cosas que no deberían hacer suena como una advertencia de todas las maldades que eventualmente se podría hacer con la nueva tecnología. Dice que las organizaciones y personas deberían evitar causar daño o decepción al, por ejemplo:
- Mostrar imágenes de cualquier persona, empresa, organismo de gobierno o ente sin su expreso consentimiento.
- Crear personas falsas con el propósito de hacerle creer a la gente que están interactuando con una persona real.
- Mostrar como reales eventos falsos.
- Replicar la voz o parecer de un individuo para lograr que otro tome una acción en la creencia de que estaba interactuando con el individuo.
- Insertar contenido sintético dentro de contenido autentico.
Por la dificultad evidente que habrá en distinguir entre lo real y lo sintético, representantes de la industria de los medios ya hace unos años decidieron que será necesario dar vuelta por completo el tema de la verificación.
Hasta ahora era básicamente responsabilidad de los fact checkers identificar contenido falso y alertar a los medios y al público. Pero como no dan abasto, concentran su atención sobre los más obvios por su condición viral.
Conscientes de los desafíos existentes, y las nuevas amenazas, a fines del 2019, Adobe, con Twitter y The New York Times propusieron impulsar un estándar mundial de fuente abierta de procedencia de los contenidos digitales.
Usando la fotografía como ejemplo, lo que propusieron es que cada fotografía tenga adjunta información acerca de cuándo, dónde y por quién fue tomada, y también contenga un registro de todos los cambios realizados hasta su publicación. Esa información luego estaría accesible al público para que tome su propia determinación sobre la credibilidad de la imagen.
“Esto pasaría el esfuerzo de verificación desde el receptor al autor de la información visual”, dijeron Saab y Boswald sobre el modelo de procedencia. Y piden que haya una legislación que obligue a las empresas de IA a utilizarlo.
El esfuerzo para armar un estándar de procedencia (open industry standard for content authenticity and provenance), que se llama la Iniciativa de Autenticidad de Contenido (CAI), ya recibió el apoyo de casi 800 medios noticiosos, empresas de tecnología, proveedores de la industria periodística y organizaciones de derechos humanos.
Andy Parsons, director de CAI, dijo en la conferencia de DRI que el modelo de procedencia está más cerca que lejos de ser una realidad, y que es probable que dentro de dos años ya tenga plena vigencia.
Los múltiples problemas potenciales para la sociedad también son preocupación de los legisladores, tanto en Estados Unidos como en Europa.
En abril de este año, ingresó en el Senado de los Estados Unidos el proyecto de ley Acta para crear una Fuerza de Tareas para abordar los deepfakes (The Deepfake Task Force Act). De ser aprobado, encargaría a distintos organismos de seguridad y de tecnología del gobierno investigar y proponer una estrategia nacional para enfrentar las amenazas derivadas de la circulación de los distintos tipos de contenidos falsos. Entre las cosas que sugiere ver es el desarrollo de un modelo de procedencia de contenidos digitales.
Casi todas las plataformas ya tienen políticas hechas durante el auge de los cheapfakes y deepfakes que están escritas de tal forma que aplicarían al contenido sintético. En general, prohíben contenido manipulado que simula ser real, sin decirlo, y especialmente cuando causa daño.
Pero el problema es que las plataformas tampoco tienen hasta ahora capacidad para detectar este tipo de contenido. Dependen mucho de organizaciones de fact checkers que generalmente apuntan contra contenido viral. Si se determina que viola la política, lo remueven, reducen su visibilidad o agregan algún tipo de notificación a los usuarios, según las características particulares de cada caso.
No hay una solución fácil. La educación será fundamental, tanto para que los usuarios estén atentos al tema en sus interacciones diarias con los contenidos digitales como para que la sociedad en su conjunto vaya buscando soluciones sin dañar a la libertad de expresión.
El autor de este texto representa en América Latina a la Iniciativa de Autenticidad de Contenido pero en este texto da una visión general del tema a partir de su rol como periodista especializado en temas de medios de comunicación
Hacé tu comentario