El ecosistema noticioso global atraviesa complejas dificultades. La circulación masiva de desinformación y de información fragmentada y descontextualizada hace intersección con un marcado aumento del descrédito en las instituciones de la sociedad civil. Este cruce se despliega sobre un telón de fondo caracterizado por la adopción de la Inteligencia Artificial Generativa (IAG) y de profundos cambios en los hábitos de consumo de noticias.
Para abordar la crisis y tomar acción frente a los desafíos y oportunidades que supone, 18 y 19 de septiembre de 2024 tuvo lugar la IV Cumbre Global sobre Desinformación. Organizada por la alianza constituida entre la Sociedad Interamericana de Prensa (SIP), Proyecto Desconfío y la Fundación para el Periodismo, presentó una modalidad virtual, gratuita y bilingüe (inglés-español). Durante dos jornadas de cinco horas de duración cada una, expertos en desinformación, periodistas y factcheckers disertaron sobre la problemática y propusieron soluciones para a mitigar las consecuencias que la desinformación ocasiona.
El encuentro dio inicio con palabras de Carlos Lauría, director ejecutivo de la Sociedad Interamericana de Prensa (SIP); de Renán Estenssoro, director ejecutivo de Fundación para el Periodismo (Bolivia), y de Adrián Pino, director de Proyecto Desconfío. Este espacio fue moderado por Soledad Arréguez Manozzo, co-fundadora junto con Pino de esta última organización.
A modo introductorio, Lauría retomó las palabras de cierre de la edición anterior, expresadas oportunamente por Ricardo Trotti, entonces director ejecutivo de la SIP: “La desinformación mina la confianza en las instituciones de la democracia, distorsiona la verdad y agudiza la polarización de nuestras sociedades. Socava los cimientos sobre los cuales se erigen nuestras democracias al manipular a la opinión pública y dificultar que los ciudadanos tomen decisiones basadas en información. Esto fortalece a regímenes autocráticos y autoritarios que aprovechan este estado de confusión para consolidar su poder y silenciar voces disidentes”, recordó.
Pino, por su parte, sostuvo: “Necesitamos unir fuerzas para fortalecer la lucha contra la desinformación y poner freno a las formas en que muchas campañas de desinformación están afectando a nuestras democracias”. Luego, subrayó: “Debemos conectarnos con actores tecnológicos, plataformas, la academia y también con los medios de comunicación para fortalecer los criterios de verdad y hablar de hechos en lugar de opiniones”.
En la misma línea, y poniendo énfasis en los problemas ocasionados por la generación de contenidos falsos, Estenssoro dijo: “La inteligencia artificial se ha convertido en una herramienta muy valiosa para las fábricas de desinformación: les permite masificar la generación de piezas falsas y propiciar un sinfín de maniobras para engañar y manipular a la ciudadanía”. Por otra parte, considerando que las redes sociales son el vehículo fundamental para su circulación, apuntó: “Hay una creciente demanda de su regulación para que asuman responsabilidades. La Unión Europea ha exigido mayor transparencia y medidas contra la desinformación: Francia ha sancionado a Telegram, Brasil prohibió a X (antes Twitter) y en Bolivia TikTok ya se alza como la mayor difusora de desinformación dejando atrás a Facebook. ¿Se pueden prohibir las plataformas?. ¿Con qué problemas nos confrontan dichas regulaciones en materia de libertad de expresión?. Son temas que pongo sobre la mesa”, cerró.
Estrategias de medios frente a narrativas desinformantes
Las palabras de bienvenida dieron paso a la primera speaker, cuya disertación abrió el eje temático denominado Estrategias de medios frente a narrativas desinformantes. Julia Angwin, periodista, investigadora y fundadora de Proof News, inició su presentación con una comparación entre el panorama general de la información y un basurero.
“En términos de oferta y demanda podemos decir, por un lado, que la inteligencia artificial permite una fácil generación del suministro de desinformación, flujo que sale al cruce de una demanda conformada por un público caracterizado por la necesidad de creer en historias que confirmen sus sesgos y posicionamientos. En ese encuentro, los gatekeepers, cuyo rol es el de verificar la calidad de la información, están fuera de funciones. La red social X, por ejemplo, dejó de vetar información y ahora disemina teorías conspirativas. Facebook dejó de hacer factchecking. Google, por su parte, se ha ido de diversos países por debates que se han generado. Todos los guardianes de la información están en una suerte de guerra fría -o caliente- con el periodismo, por lo que no intentan activamente mantener una alta calidad de información como antes lo solían hacer”, señaló Angwin, dejando entrever que existen asimetrías dentro de las mismas big tech. Por ejemplo, Google apoya activamente diversos proyectos orientados al combate de la desinformación por medio de Google News Initiative (incluso la mismísima Cumbre Global sobre Desinformación) pero, a su vez, el buscador más utilizado del mundo (que es de su propiedad) indexa información falsa, contradicción que evidencia la complejidad del problema en términos tecnológicos, políticos y comerciales.
En esa línea, la investigadora enfatizó que “las grandes plataformas de tecnología no tienden a estar enfocadas en sus consumidores. No están tan asustadas de no hacer lo que los usuarios quieren. A lo que sí usualmente responden es a la presión gubernamental: si el gobierno les dice que no quieren en línea determinado tipo de contenido y que lo den de baja, lo hacen. En India, por ejemplo, el gobierno les pidió a las plataformas que den de baja determinada información sobre el Primer Ministro, y respondieron en ese sentido”. La investigadora prosiguió: “Desafortunadamente, en ciertos entornos políticos hay actores políticos que quieren que se divulgue información falsa sobre sus contrincantes, y donde las compañías tienen que complacer los deseos de personas poderosas que no tienen los mejores intereses”, poniendo de relieve los distintos elementos que se entrelazan en el complejo fenómeno de la desinformación.
Angwin apuntó además que ChatGPT ha demostrado la aplicación de un sesgo heredado de su dataset: “Si se arman currículums idénticos con dos nombres distintos y uno de ellos tiene una mayor orientación étnica, ChatGPT elige los que suenan como nombres de personas de raza blanca”, indicó.
“Como periodistas podemos investigar y responsabilizar a las tecnologías por la información que crean. Ya que ellos la llaman ´inteligencia´, creo que es justo evaluar su precisión. Además, podemos hacer que el público confíe en la calidad de la información que proveemos. La confianza en el periodismo está en los niveles más bajos a nivel histórico. Tres cuartas partes de los estadounidenses dicen que no confían en el periodismo o que lo hacen muy poco. Dicha falta de confianza se verifica en todo el mundo”, aseguró Angwin y apuntó contra el flujo de desinformación como una de las razones fundamentales que se encuentran en la base del escepticismo del público.
“La confianza de la audiencia viró desde los medios tradicionales hacia los sociales”, explicó la investigadora, ilustrando el asunto con un ejemplo del youtuber llamado Marques Brownlee, cuyas reviews tecnológicas tienen mucho mayor peso que el que otrora poseían los análisis de Walter Mossberg, periodista con casi 30 años de profesión en The Wall Street Journal como crítico especializado en dispositivos tecnológicos y referente de los retailers al momento de poner en góndola sus productos. La investigadora mencionó además que su investigación sobre la migración de la confianza desde los periodistas hacia los influencers fue plasmada en un proyecto de su autoría intitulado “The 21st Century Media” publicado por Harvard. “Los periodistas suponen que cuentan con la confianza de la audiencia pero no han trabajado tanto en ella como los creadores de contenido en línea, por lo que podríamos aprender de ellos en ese sentido”, observó Angwin.
“La democracia depende de tener información de calidad. Los ciudadanos necesitan tomar decisiones estando bien informados, pero existe mucha desinformación respecto de cuáles son sus reales intereses. Hay gobiernos que son hostiles con la prensa, y eso a veces cambia la naturaleza de las democracias. Creo entonces que es importantísimo trabajar junto con periodistas y con quienes no lo son pero debemos incluirlos en esta coalición contra la desinformación”, razonó Angwin, quien cerró su participación con una propuesta para las audiencias: “Me gustaría que nosotros pudiésemos tener nuestros propios algoritmos, por ejemplo, entrar a Facebook y elegir ver únicamente información verificada por determinado factchecker. Pero no nos dan ningún tipo de control. Ellos tienen el control de lo que uno mira, y creo que somos los usuarios quienes debemos tener el control de lo que miramos”.
Nuevas herramientas contra la desinformación
La cumbre prosiguió con el panel denominado Nuevas Herramientas contra la desinformación y fue moderado por Patricia Cusicanqui, Periodista y Editora en Jefe de Bolivia Verifica. La primera expositora fue Ana Ormaechea, Directora de producto digital de PRISA Radio.
“La calidad de clonación de voz que existe en la actualidad es imperceptible para el oído humano y se puede hacer de forma muy fácil y barata. Está a disposición de todo el mundo. Considerando que en 2024 la mitad de la población mundial está celebrando comicios cruciales para el panorama internacional, vemos que en Estados Unidos hay un gran movimiento de deep fakes, al igual que en Venezuela”, expuso Ormaechea, evidenciando el desdibujamiento de la frontera existente entre lo real y lo sintético en cuanto a las voces humanas. Dicha indistinción permite, en la otra cara de la moneda, que una voz real pueda tacharse de sintética, atizando aún más el fuego de la desconfianza entre el público al que le resulta cada vez más difícil saber si puede creer en la veracidad de una voz humana o no.
Precisamente, entonces, para poder detectar voces falsas en la etapa de producción de noticias, PRISA Media desarrolló un software denominado VerificAudio, herramienta para asistir a periodistas que posibilita la verificación de audio y la detección de deep fakes creados con voces sintéticas. Para la compañía esto es crucial dado que PRISA Media es el mayor grupo de medios en habla hispana y, dentro del área de la radio, el mayor productor de audio en español del mundo. La credibilidad del medio depende ahora en buena medida de las verificaciones que VerificAudio permite, lo que refuerza la confianza del oyente frente a la desinformación.
“Para su desarrollo hablamos con Google y enseguida nos dijeron que sí, y contamos además con el apoyo de Minsait, propiedad de Indra, dado que en ese momento no contábamos con perfiles expertos en tecnología para modelizar LLMs (modelos de aprendizaje automático que pueden comprender lenguaje humano)”, continuó Ormaechea y agregó que el testeo y la fase inicial se probó en Colombia. “No podemos saber al 100% si una voz es sintética o no. Sí podemos afirmarlo al 70 o al 80%. Es muy complicado saberlo, pero trabajamos para ello”, agregó.
El segundo speaker del panel fue Jacobo Castellanos, Coordinador del programa Tecnología, Amenazas y Oportunidades de Witness, compañía global de derechos humanos que trabaja con contenidos audiovisuales. “En Witness creemos que cuanta mayor información tengamos del contenido audiovisual en términos de metadata verificable, marcas de agua invisibles y huellas, mayor la posibilidad de robustecer la confianza”, explicó Castellanos, y agregó que trabajan actualmente en un programa de detección y chequeo orientado a ayudar a periodistas en la identificación de contenidos sintéticos. El especialista coincidió con Ormaechea, de PRISA, en que el audio es el soporte más complejo para verificar.
“Es el juego del gato y el ratón: los modelos de generación de contenido sintético mejoran cada vez más, y los modelos de detección también se perfeccionan para poder seguir de cerca ese ritmo”, graficó Castellanos y subrayó que la velocidad de innovación es tan alta que determinados parámetros como la cantidad de dedos que presenta la imagen de una persona ya no es un elemento donde buscar su eventual carácter sintético. “Ahora, las manos generadas artificialmente son perfectas”, aseguró.
“Witness desarrolló un programa llamado Grupo de Respuesta Rápida ante deep fakes. No creamos una herramienta sino un modelo que enlaza periodistas locales con expertos en análisis forense de medios y empresas de detección computacional para que puedan trabajar en conjunto y en tiempo real. En situaciones urgentes, los periodistas envían a WITNESS contenidos sospechosos a verificar y en un período de 24hs los expertos dan una respuesta. Nunca es concluyente por completo. El programa opera en México, Venezuela, Georgia, India y Ghana”, cerró Castellanos.
El panel concluyó con Mateo Heras, Consultor Ejecutivo en Content Authenticity Initiative (CAI). “A diferencia de lo que hacen los factcheckers, que trabajan a posteriori de la difusión de un contenido para discernir si es verdadero o falso, la iniciativa agrega información de procedencia. Busca poner en manos de quien mira un contenido información básica acerca del origen de una pieza digital (imagen, video, grabación de audio o documento). Promovemos así un cambio de paradigma al mostrar qué es real en oposición a tener que detectar qué es falso”, describió Heras, quedando claro que en el combate contra la desinformación las soluciones son siempre multidimensionales, coordinadas y complementarias.
«Lo que hacemos es agregar información de procedencia en forma de credenciales de contenido. Trabajamos con proveedores de tecnología para integrar dichas credenciales en dispositivos como cámaras y smartphones, lo que permite que al momento de capturar una imagen o incluso de generarla con IA las credenciales queden incluidas. Esas marcas también pueden incluirse en herramientas de edición, y cualquier intento de adulteración de la imagen o de sus metadatos quedará en evidencia”, explicó Heras. Algunos generadores de imágenes por IA que incluyen credenciales son Adobe Firefly, OpenIA, Dall-E, Microsoft, Amazon y Inner IA. “Lamentablemente, Midjourney, proveedor muy poderoso, aún no se sumó”, apuntó Heras. “En lo que respecta a redes sociales, TikTok ha expresado que va a empezar a presentar credenciales a diferencia de X (antes Twitter), actualmente más reacio a utilizarlas”, sentenció.
Para finalizar el proceso como corresponde debe asegurarse que los sistemas de publicación mantengan los metadatos a lo largo del proceso, por ejemplo en tiempo real cuando se presenta contenido en redes sociales como Linkedin, plataforma que cuenta en la actualidad con esta tecnología. “Nosotros apuntamos a que esto se haga ubicuo”, remarcó Heras, y finalizó con un dato muy relevante: “este año, a la iniciativa se unieron Meta, Google y Amazon”.
IA: ¿aliada o enemiga?
El segundo panel de la cumbre se denominó IA: ¿aliada o enemiga? y fue moderado por Fernanda Martínez, Directora Ejecutiva del Centro de Estudios en Tecnología y Sociedad (CETyS). El primer speaker fue Nick Toso, fundador y CEO de Rolli.
“Estamos a las puertas de la próxima etapa de la desinformación: la de los live fakes, que son deep fakes en tiempo real. La inteligencia artificial ahora permite controlar los movimientos de la cara de una persona. Los live fakes son el próximo nivel de engaño para sabotear a la competencia, diseminar desinformación, poner en riesgo la credibilidad de los medios o afectar los mercados. Debemos combatir contra estas amenazas y asegurar que tanto públicos como periodistas confíen en la información que reciben”, explicó Rolli. La indistinción real-sintético avanza sin pausa.
En dicho escenario opera Rolli, compañía que “brinda a los periodistas una base robusta de datos de expertos que les permita entrevistar con confianza y asegurarse de que tratan con fuentes confiables. La velocidad es esencial en el combate contra la desinformación. La plataforma de Rolli incorpora herramientas de detección para seguir campañas de desinformación y advertir si son fruto de campañas coordinadas. Además, monitorear narrativas desinformantes en tiempo real difundidas en redes sociales, todo potenciado con IA”, explicó Toso, y destacó que la compañía se centra en garantizar no únicamente la autenticidad de contenidos sino, fundamentalmente, la identidad de las personas.
El siguiente orador fue Lukas Görög, Director Estratégico en IA y fundador de Predictea Digital. “La inteligencia artificial ahora permite crear, a partir de una fotografía real, un video sintético. Runway es una aplicación que lo permite, por ejemplo”, contó Görög, quien piensa que dicha tecnología avanzada no es la solución sino tan solo una parte que debe complementarse con una mejor formación de los periodistas en sus diversas capacidades. Más educación y workshops son el camino que Predictea propone para combatir la desinformación.
Hacia el final del panel la moderadora presentó a Carlos Eduardo Huertas, director de Connectas, quien trabaja actualmente con los acontecimientos relacionados con las últimas elecciones presidenciales en Venezuela. “Así surgieron dos iniciativas que buscaron ´hackear´ el cerco informativo impuesto por el oficialismo y cuya marca fue el bloqueo a medios, la mentira y el poco acceso a la información. ´Venezuela Vota´ y ´La Hora de Venezuela´ fueron proyectos orientados a brindar transparencia informativa antes, durante y después del acontecimiento electoral”, explicó Huertas, quien introdujo a “La Chama y el Pana”, avatares que le ponen cara humana a Operación Retuit. Esta iniciativa colaborativa entre periodistas buscó acercarle a los votantes venezolanos información de calidad verificada para que pudiesen ejercer su derecho a la votación con la mayor integridad posible. Con los avatares de Operación Retuit se busca la difusión de información por medio de presentadores que no puedan ser perseguidos políticamente.
Como corolario del panel, Adrián Pino, director de Proyecto Desconfío, presentó The Trust Editor, software que utiliza inteligencia artificial, ideado para su utilización en redacciones periodísticas con miras a detectar problemas de calidad y desinformaciones en la producción de artículos antes de su publicación. “The Trust Editor permite ayudar a los editores de las redacciones y generar una serie de indicadores que permitan medir la consistencia que tiene un artículo. Su sentido es anticiparse a que la desinformación penetre en la redacción y se difundida sin las verificaciones necesarias”, explicó Pino y anticipó que “se va a integrar con los CMS (Content Management Systems), permitiendo su utilización en tiempo real por medio de una interfaz visual que, entre otras funciones, presenta dashboards, alertas y red flags”.
The Trust Editor muestra cómo se va conformando la información de un artículo en términos de fuentes y entidades (personas, organizaciones, etc) presentes en el texto . “La herramienta permite además, entre otros elementos, identificar adjetivos. “Queremos bajar la cantidad de adjetivos que tiene el periodismo latinoamericano, caracterizado por la mezcla de información y opinión, permitiéndole al editor tomar decisiones”, dijo. La identificación de sesgos y una baja calidad en el tratamiento periodístico quedan así bajo la lupa con el fin de robustecer y equilibrar la consistencia de la información antes de su publicación. The Trust Editor cuenta con el apoyo del International Center for Journalists (ICFJ), la Embajada de Estados Unidos en Argentina y Trusting News, y busca conectar con una cada vez mayor cantidad de medios en español que quieran testear el software, quienes pueden hacerlo de forma gratuita.
Qué hacer frente a la desinformación desde los medios
La jornada prosiguió con el panel llamado Qué hacer frente a la desinformación desde los medios. Moderado por Martha Ramos, Presidenta y Directora General de Organización Editorial Mexicana, dio inicio con la exposición de Bertrand Mossiat, de Journalism Trust Initiative (Reporteros Sin Fronteras). “Me encargo de la promoción de una norma de calidad para empresas periodísticas”, sintetizó.
“Reporteros Sin Fronteras tuvo la idea de juntar en una mesa a 130 expertos de alrededor del mundo y desde un punto de vista pluridisciplinario. Integrada por académicos y profesionales del campo de la publicidad, las plataformas, empresas tecnológicas, gobierno y de todo el ecosistema mediático, su objetivo fue pensar y crear cuáles serían los criterios de calidad para la creación de información transparente y alineada con los principios soberanos del periodismo, es decir, no tocando los contenidos sino al proceso de realización periodística”, detalló Mossiat y agregó que el trabajo para ponerse de acuerdo insumió un año. Luego se plasmó en 18 capítulos que conforman la norma llamada Journalism Trust Initiative. Fue publicada por el Comité Europeo de Normalización, ente responsable de las normas ISO.
Reporteros Sin Fronteras permite que los medios que logran certificarse gocen de un mayor prestigio, credibilidad y beneficios económicos. “Impulsamos la propuesta de que las plataformas estén obligadas a aumentar la visibilidad de contenidos de medios que se destacan con la norma”, explicó Mossiat y subrayó que la norma puede inyectarse en regulaciones en aras de elevar la calidad del debate público, e incluso puede ser útil para brindar información al momento en que los gobiernos deban decidir sobre la distribución de la pauta publicitaria oficial.
Mossiat dio paso a la segunda speaker del panel, Ana Paula Valacco, Community Manager de JournalismAI, organización que cuenta con el apoyo del think tank Polis y Google News Initiative y cuya meta es capacitar a organizaciones periodísticas en el uso responsable de la inteligencia artificial.
Valacco presentó una investigación que aportó evidencia que demuestra que el impacto de la desinformación en la intención de voto no es tan fuerte como el que habitualmente se estima. “La persuasión masiva es difícil, y aunque las herramientas basadas en IA pueden facilitarla, los cambios en creencias y comportamientos son mínimos. Asimismo, a pesar de las grandes inversiones en campañas políticas, la evidencia muestra que la persuasión política tiene efectos muy limitados”, reveló Valacco sin por ello subestimar el riesgo que supone la desinformación en términos de formación de la opinión pública. “Las audiencias desconfían de los mensajes excesivamente personalizados, por lo que su efectividad no es alta”, agregó.
El estudio que presentó Valacco concluye con cuatro recomendaciones fundamentales: integrar la ética en el desarrollo de la IA, dotar de transparencia y responsabilidad al trabajo periodístico en cuanto a la utilización de dicha tecnología avanzada, que los editores tengan siempre la última palabra sobre el contenido que se publica y la necesidad de un aprendizaje continuo para profesionales de la noticia.
Oportunidades y fondos para investigar la desinformación
Para bajar el telón de la primera jornada, el panel llamado Oportunidades y fondos para investigar la desinformación, moderado por Mariela Isabel Torrealba Suárez, Profesora asociada al departamento de periodismo de la Universidad Central de Venezuela, apuntó al abordaje de los problemas existentes en torno de los modelos de negocio de los medios y del financiamiento para el desarrollo de investigaciones sobre desinformación.
Joana Pires Teixeira abrió las reflexiones. Desde su rol como Project Manager en European Media and Information Fund (EMIF), anunció que la organización que representa ofrece rondas de financiamiento para investigación y factckecking. Para acceder a los requisitos de aplicación puede escribirse a la dirección de correo electrónico info@emifund.eu
La moderadora luego dio la voz a Tamar Hahn, directora del Centro de Información de las Naciones Unidas en Buenos Aires, quien subrayó que la proliferación de desinformación es una preocupación presente en la agenda de Naciones Unidas. “Nos encontramos trabajando desde hace años en campañas simultáneas. El Programa de Naciones Unidas para el Desarrollo (PNUD) apoya programas de factchecking, IA y social listening como por ejemplo iVerify y Emonitor+”, dijo.
“Emonitor+, por su parte, busca no solo propiciar el análisis discursivo sino también generar recursos para reforzar la vigilancia ciudadana y fortalecer la calidad democrática. Tiene dos grandes aspectos: el factchecking y el de social media listening”, explicó Hahn. PNUD financió, además, la Red de Editoras de Género que nuclea a 12 periodistas de distintas provincias con el fin de combatir la violencia y el acoso digital, brindar una caja de herramientas para un periodismo con perspectiva de derechos y aportar recursos destinados a periodistas para fortalecer el derecho a la libertad de expresión al tiempo de contribuir a la erradicación de la violencia de género digital y la violencia contra periodistas.
A la de Tamar Hahn le siguió la exposición de Carlos Eduardo Huertas, director de Connectas. “Nos hemos consolidado en la región como una plataforma que impulsa la colaboración periodística y promueve el desarrollo de investigaciones, trabajos en profundidad y el análisis en línea con tres principios: la defensa de los valores democráticos, el respeto de los derechos humanos y la relación con el medio ambiente”, argumentó para respaldar por qué Connectas ha logrado formar alianza con un centenar de medios de 19 países de la región.
Huertas presentó además una serie de investigaciones periodísticas en entornos políticos represivos como el de Nicaragua y Venezuela. Mencionó además que otorgan becas de producción periodísticas de dos mil, cinco mil o diez mil dólares: “La próxima convocatoria será a comienzos de enero de 2025”. Para mayor información se puede escribir a director@connectas.org
Hacia el cierre de la primera jornada fue el turno de Angie Holan, Directora Internacional de Fact-Checking Network (IFCN) y de Gabriela Dutra, Program Officer, Latin America and the Caribbean National Endowment for Democracy (NED). “Trabajamos en incrementar la capacidad de las organizaciones de verificación de datos. Global FactCheck Found es un programa de 2022 que otorgó 12 millones de dólares de Google y YouTube para apoyarlos”, sostuvo Holan. En la misma línea, Dutra se refirió a la misión que la organización tiene en aras de promover y defender la democracia en todo el mundo. “Operamos en más de 100 países, y en América Latina en más de 15 países”, dijo, y presentó una serie de argumentos que explican la erosión de la confianza de los ciudadanos en los procesos y principios democráticos.
Al día siguiente, la segunda jornada abrió con palabras de Werner Zitzmann, director ejecutivo de la Asociación Colombiana de Medios de Información (AMI) y de Eduardo Sepúlveda, presidente de la Asociación Nacional de la Prensa. Zitzmann expresó lo difícil que es dar batalla a la desinformación tanto por la altísima velocidad de diseminación como así también por los problemas derivados del ataque al periodismo provenientes de jefes de Estado, por ejemplo, de parte de Gustavo Petro, Presidente de Colombia.
El primer panel de la segunda jornada fue titulado Desinformación electoral: riesgos a la democracia en Latinoamérica y Estados Unidos. Contó con la moderación de Iria Puyosa, Investigadora senior de la Iniciativa Democracia + Tecnología Atlantic Council quien le dio la voz a Cathleen Berger y Charlotte Freihse, de Upgrade Democracy – Bertelsmann Stiftung.
Desinformación electoral: riesgos a la democracia en Latinoamérica y Estados Unidos
Las investigadoras presentaron un exhaustivo informe sobre el impacto de la desinformación en los gobiernos democráticos de Latinoamérica, y subrayaron cuatro de sus hallazgos: en primer lugar, la sociedad civil tiene un rol preponderante contra la desinformación, pero sus organizaciones carecen de los recursos necesarios. No obstante, el nivel de responsabilidad va en aumento. En segundo término, la inteligencia artificial produce imágenes que desinforman y se diseminan con velocidad porque son entretenidas. El tercer hallazgo consiste en el impacto de las plataformas sociales. En América Latina los grupos indígenas no reciben suficientes servicios en términos lingüísticos en cuanto a la moderación de contenidos. Por último, los proveedores de Internet son escasos, lo que concentra su poder en pocas manos, por lo que existen desafíos tendientes a lograr una mayor regulación local en cada territorio.
Luego fue el turno de Maria del Carmen Fernández Chapou, del TEC Monterrey México, quien presentó un estudio sobre cómo las redes sociales utilizaron las plataformas como un campo de batalla para manipular a la opinión pública en el marco de las elecciones nacionales de 2024. Por medio de técnicas de social listening, web scrapping y factchecking el equipo a su cargo pudo analizar y comprender el alcance y la influencia de cada candidato a presidente, qué narrativas diseminaron y qué sentimientos portaban los contenidos estudiados. “Identificamos como principal narrativa desinformante una relacionada con que Claudia Sheinbaum convertiría la Basílica de Guadalupe en un museo”, apuntó Fernández Chapou, y agregó que identificaron una serie de perfiles apócrifos en Facebook utilizados para difundir falsedades e información descontextualizada, fragmentada y manipulada con el fin de desacreditar a la candidata Xóchitl Gálvez. Incongruencias manifiestas manipuladas intentaban presentarla como una persona incoherente. Lo mismo fue advertido a partir de la identificación de falsas promesas de campaña con un altísimo alcance de audiencia.
Eric de la Fuente, investigador de Florida International University, prosiguió con el panel. Hizo un especial hincapié en la influencia extranjera en la región, especialmente de parte de Rusia en Estados Unidos y Latinoamérica. A su juicio, existen tres grandes objetivos del Kremlin eventualmente alcanzables por medio de campañas masivas de desinformación: que Occidente reduzca su ayuda a Ucrania, crear divisiones en el público norteamericano para atizar la polarización y confusión y, por último, erosionar la confianza sobre la democracia.
“Los métodos más utilizados son el uso de medios estatales como por ejemplo Russia Today, organización muy bien producida que posee más corresponsales que cualquier otro medio, por ejemplo en Buenos Aires, Argentina, donde los rusos llevan mucho tiempo operando en el país. Sputnik y canales de Telegram también son usados por el Kremlin para difundir desinformación y narrativas”, aseguró de la Fuente. Además, sostuvo que Rusia ha financiado una red de medios que lucen como si fuesen locales, pero no lo son. También es muy usual, según el investigador, la existencia de websites apócrifos donde se usan marcas como Der Spiegel para publicar en su nombre información favorable a los intereses rusos. Por último, la cooptación de líderes de opinión a nivel local y la adquisición de medios de comunicación que mantienen su apariencia pero que son financiados y controlados por el Kremlin son otras artimañas utilizadas para promover contenidos falsos, según de la Fuente.
Fact checking en contexto electoral
El segundo panel del día estuvo moderado por Salvador Rodriguez-Ruiz, Program Officer en International Fact-Checking Network y contó con la participación de Laura Zommer, co fundadora y CEO de FactChequeado; Víctor Rico, consultor en políticas públicas y desarrollo institucional en Maldita; Olivia Sohr; Directora de Impacto y Nuevas Iniciativas de Chequeado y Marcelo Blanco, Periodista de Bolivia Verifica.
Rico presentó un informe realizado por Maldita sobre las respuestas de las plataformas a las elecciones del parlamento europeo en 2024. El análisis estuvo centrado en estudiar cómo las cinco plataformas principales (Facebook, Instagram, YouTube, TikTok y X) retomaron los contenidos chequeados previamente por organizaciones. “Los resultados son peores que lo que habíamos esperado”, aseguró Rico, y agregó: “Si bien Facebook e Instagram tomaron acción en el 88% y el 70% respectivamente de los contenidos, el porcentaje en el resto de las plataformas es mucho más bajo”.
Zommer, por su parte, destacó que FactChequeado cuenta con 109 aliados en Estados Unidos que funcionan como una comunidad interconectada en aras de la verificación del discurso público. “Nos adelantamos en base a lo que ya sabemos sobre las narrativas y técnicas repetidas de los desinformantes en elecciones y tratamos de inocular y empoderar a las comunidades”, sintetizó.
Luego fue el turno de Sohr. La directora de Impacto y Nuevas Iniciativas de Chequeado subrayó la misión de la compañía de factchecking y puso el acento en el rol de la educación y el desarrollo del pensamiento crítico entre periodistas y públicos. Asimismo, explicó la tarea de Chequeado basada en pasar en limpio y esclarecer el descomunal caudal informativo sobre las últimas elecciones nacionales en Argentina. “Chequeado desmiente todas las veces que haga falta todos los contenidos que lo ameriten, y lo hace en los mismos canales por donde circula la desinformación. Esto último es una estrategia clave”.
Como cierre del panel, Marcelo Blanco, periodista de Bolivia Verifica, presentó una serie de investigaciones como por ejemplo “Bajo el velo del engaño: las redes ocultas que comercian falsas esperanzas para la diabetes en la web” y “TikTokazo: Desinformación y narrativas polarizantes se propagan con intensidad en la plataforma china”. “Bolivia Verifica utiliza inteligencia artificial para analizar contenido ya sea por medio de nuestro chatbot llamado Olivia como al momento de revelar el carácter manipulatorio de deep fakes como por ejemplo el caso de la clonación de la voz del presidente Luis Arce y del expresidente Evo Morales”, sostuvo.
Desinformación: una mirada desde las Universidades en América Latina
El siguiente panel, denominado Desinformación: una mirada desde las Universidades en América Latina contó con la moderación de Carlos Lauría, director ejecutivo de la Sociedad Interamericana de Prensa (SIP) y los speakers fueron: Wilmar Daniel Gómez Monsalve, docente investigador en la Universidad Católica Luis Amigó – Funlam (Colombia); Liliana Gutiérrez, doctora en Ciencias de la Información por la Universidad del País Vasco (España) y Moisés Limia, investigador de la Universidad Jorge Tadeo Lozano, Bogotá.
Gutiérrez comenzó con su exposición con la presentación de la investigación intitulada “Estrategias de posverdad y desinformación en las elecciones presidenciales colombianas 2022. Por medio de un minucioso análisis contenidista y discursivo, el estudio arrojó como principales hallazgos que la negatividad del discurso de la desinformación intenta acrecentar la polarización y romper el consenso social. Asimismo, se halló que en la generación de desinformación también intervienen los estrategas de campañas políticas y los propios candidatos.
Luego fue el turno de Limia, quien remarcó cuáles son los principales retos que las universidades de Latinoamérica deben enfrentar. “¿Cuál es el rol que las universidades deben acometer en su lucha? Claramente son los mismos que en otras latitudes: formar a las nuevas generaciones en pensamiento crítico y en alfabetización mediática. En segundo lugar, fomentar la investigación académica en desinformación en búsqueda de especificidades locales en términos de identificación de actores desinformantes. Además, crear colaboraciones interdisciplinarias”, enumeró.
“La existencia de brechas digitales es otro reto que debe ser confrontado porque fomenta que la diseminación de información falsa sea más fácil. Por otro lado, la polarización política atizada por contenidos que la favorecen es otro reto a combatir”, dijo Limia. “La desconfianza en las instituciones es particularmente fuerte en América Latina, y eso hace que la gente busque fuentes alternativas de información que son explotadas por agentes desinformantes”, concluyó el investigador.
Keynote destacado
Promediando la segunda jornada tuvo lugar una participación destacada. Con moderación de Agustino Fontevecchia, Director Ejecutivo de Editorial Perfil, fue el turno de David Agranovich, Director de Disrupción Global de Amenazas en Meta (propietaria de Facebook, Instagram y WhatsApp, entre las más destacadas compañías que Meta controla).
“Mi equipo está centrado en investigar, derribar y disuadir a diferentes tipos de amenazas adversarias. Incluye investigadores expertos en seguridad y periodistas. Hoy nos centraremos en cómo contrarrestar la desinformación, lo que en Meta llamamos Comportamiento Inauténtico Coordinado”, definió Agranovich.
“Generalmente, el Comportamiento Inauténtico Coordinado se vale de redes con cuentas e identidades falsas orientadas a confundir a las personas. Cuando nosotros bajamos estas redes lo hacemos por su comportamiento y no tanto por su contenido. Éste es una señal, pero lo que vemos es que, por lo general, amplifican contenido de otros actores, e incluso también postean imágenes de gatitos para hacer crecer su audiencia”, reveló el experto, y destacó que “de dónde surgen estas cuentas y las discrepancias que manifiestan en términos de procedencia son señales mucho más fuertes de estafa y engaño. Asimismo, no queremos ser percibidos como censores políticos, pero sí queremos prohibir la actividad engañosa más allá del tema difundido. Vamos mucho más allá de la moderación de contenidos, entonces, por lo que generamos toda una disrupción de toda esa red que promueve desinformación”, resumió.
“Todo lo dicho incluye bajar no solo las cuentas falsas que detectamos sino además prohibir a las personas que están detrás de ellas, eliminando activos asociados (páginas y grupos, siempre dentro de la plataforma) de forma tal que no puedan sostener la operación por otros medios. Si quisieran volver -usualmente es lo que sucede- se ven en la obligación de reconstruir todos los activos que necesitan”, explicó Agranovich. La compañía genera informes detallados de toda la actividad detectada y la comparte con otras tecnológicas, lo que contribuye a que las acciones trasciendan las fronteras de la plataforma Facebook.
“Muy poca gente confía en Meta en términos de su labor contra la desinformación porque, de hecho, durante mucho tiempo no hicimos un buen trabajo. Ahora nos responsabilizamos de ello. Colaboramos así con otras plataformas. Los gobiernos no han tomado mucha acción en este sentido, pero creemos que en algún momento esto va a suceder”, se sinceró Agranovich. Sus palabras permiten pensar en posibles acciones que eventualmente pueda ejercer en Argentina la flamante Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS) dependiente del ministerio de Seguridad a cargo de Patricia Bullrich.
Por otro lado, Agranovich fue consultado por ConverCom respecto de si Meta evalúa impulsar alguna política de combate contra la desinformación en tiempo real en WhatsApp, pero el experto no se pronunció al respecto. La famosa app de mensajería es uno de los canales más utilizados y preferidos por centenares de millones de personas todos los días para difundir contenidos de todo tipo no solo en Argentina sino en Latinoamérica en general.
Alfabetización Mediática Informacional en tiempos de deep fakes
Hacia el final de la cumbre tuvieron lugar dos paneles más. El primero de ellos fue llamado Alfabetización Mediática Informacional en tiempos de deep fakes. Moderado por Patricia Noboa Armendáriz, Coordinadora de proyectos en DW Akademie, contó con la participación de Sally Reynolds, miembro del board ejecutivo y Chief Operating Officer; Jhoselin Granados, gerenta de Proyectos en Muy Waso; Yulia Alekseeva, de DW Akademie Ucrania; Soledad Arréguez Manozzo, co fundadora de Proyecto Desconfío y Karla Ramos, del Laboratorio AlfabetaMedia. Las expositoras compartieron con la audiencia una serie de juegos y propuestas lúdicas orientadas a educar en la materia a niños y jóvenes. “Bomba Viral”, de Muy Waso y “Detectives contra la (des)información”, de Proyecto Desconfío destacaron visualmente como los más atractivos para un público que desee aprender jugando. ¿Por qué la necesidad de juegos?. Soledad Arréguez Manozzo explicó que “el dispositivo de juego es un potenciador de aprendizaje. Los educadores podemos tomar este tipo de productos culturales para abordar temas complejos y promover nuevos enfoques de enseñanza”.
Innovación en medios frente a la desinformación
El último panel, Innovación en medios frente a la desinformación, tuvo la moderación de Guillermo García, redactor jefe de Info Veritas y contó con la participación de los siguientes speakers: Claudia Báez, cofundadora de Cuestión Pública; David Hidalgo, Director de Ojo público y Luz Mely Reyes, co fundadora de Efecto Cocuyo.
Báez presentó Proyecto Odín, modelo de periodismo de investigación potenciado por IA. Se trata de una plataforma que aporta información y contexto en tiempo real en escenarios de desinformación. “Odin opera bajo la filosofía de periodismo de investigación llamado “Zero waste” (“cero desperdicios”), explicó Báez, lógica que consiste en que absolutamente toda la información y datos son almacenados y analizados en espera del momento oportuno para ser retomada por periodistas en línea con los temas que marquen la agenda mediática o de los actores desinformantes, partiendo de la seguridad de que toda la información con la que trabajan está previamente verificada.
Los dos últimos speakers, Hidalgo, Director de Ojo público, y Reyes, co fundadora de Efecto Cocuyo, presentaron, respectivamente, un proyecto centrado en chequeo de información sobre la COVID-19 para pueblos indígenas y “Una tía contra la desinformación en Venezuela”, chatbot que brinda información verificada.
La cumbre tuvo presencia en redes bajo los hashtags #Cumbredesinfo y #ContralaDesinformación.
Hacé tu comentario