Es casi un hecho que habrá un estándar mundial de origen de contenidos digitales antes de que legisladores de los Estados Unidos logren aprobar un proyecto de ley para lograr tal propósito para los contenidos generados por la inteligencia artificial (IA).

De todos modos, una ley sería muy importante al imponer la obligatoriedad de etiquetar todos los contenidos producidos por la IA y restaurar el control de los autores sobre sus producciones frente a la voracidad de la inteligencia artificial generativa.

“No es razonable esperar que los consumidores y los ciudadanos sean capaces de distinguir entre imágenes y voces engañosas y realistas”, dijo Sam Gregory, director ejecutivo de Witness, una organización de derechos humanos, a dar su testimonio frente a la Comisión de Comercio del Senado de los Estados Unidos sobre IA y transparencia en septiembre de 2023.

La proliferación de la IA generativa, en la ausencia de transparencia y rendición de cuentas, provoca “daños estructurales, en este caso el socavamiento de la confianza más amplia en la información y los procesos públicos”, agregó Gregory en la sesión que fue antesala de la formulación del proyecto de ley.

Un grupo bipartidista de senadores de la Comisión de Comercio presentó hace dos semanas el proyecto de ley sobre la IA que establecería un certificado de origen como factor común en la lucha contra la desinformación, y a los esfuerzos para proteger a las obras de medios y artistas contra uso no-autorizado para entrenar a la IA.

La senadora María Cantwell, presidenta de la Comisión de Comercio, dijo que la legislación “proporcionará la tan necesaria transparencia” sobre el origen del contenido generado por la IA y “devolverá a los creadores, incluyendo a periodistas locales, artistas y músicos, control sobre su contenido”.

El eje del control de uso y la transparencia sería la denominada Información de Procedencia del Contenido (CPI, por sus siglas en inglés), que en forma de metadatos o marcas de agua daría al público detalles esenciales sobre el origen del contenido, según el proyecto de ley.

Pero la realidad es que ya existe un CPI mundial que está en avanzado estado de desarrollo, adopción e implementación. Es el estándar C2PA, de fuente abierta, promovido por la Iniciativa de Autenticidad de Contenido (CAI, por sus siglas en inglés).

La iniciativa es un esfuerzo colaborativo y multisectorial que tiene el apoyo de más de 3000 socios en el mundo [entre ellos, convercom.info]. Incluye a principales empresas de IA, medios noticiosos, empresas de tecnología, plataformas, redes sociales, empresas de relaciones públicas, marketing y comunicación, representantes de artistas, proveedores de medios de comunicación, organizaciones de la sociedad civil, etc.

El estándar C2PA sigue siendo desarrollado y actualizado dentro del contexto de un grupo de trabajo organizado en la Fundación Linux. La versión 1.0 fue presentado en enero de 2022. El proyecto ya va por la versión 2.1.

Permite adjuntar metadatos a los archivos digitales, estableciendo si fue generado por la IA, o en el caso de archivos tradicionales de video, audio o fotografía, cómo, cuándo, dónde y por quién fue generado, y si el contenido fue manipulado o adulterado. También le da la posibilidad a los autores de informaciones reales dejar instrucciones para que el contenido no sea utilizado para entrenar a la IA generativa.

C2PA también contempla incluir enlaces a las credenciales de contenido dentro de marcas de agua invisibles y que los autores de información puedan confirmar ser dueños de sus materiales mediante marcas de cada empresa o autor, enlazadas criptográficamente a autoridades de certificación.

Tecnológicamente, C2PA tiene las herramientas necesarias, pero no tiene fuerza de ley.

En la sesión del Comité de Comercio del septiembre pasado, sobre IA y transparencia, el estándar C2PA fue mencionado reiteradamente y es muy probable que, si prospera la ley sobre IA, el CPI propuesto tendrá gran similitud con lo que el esfuerzo mancomunado de la industria ya ha producido e incorporado en sus productos y servicios.

Credenciales de contenido C2PA, similares a los octógonos en la información sobre nutrición, ya fueron implementados en los servicios de IA de Adobe Firefly, los servicios relacionados con Dall-e de OpenAI y de Respeecher. Google, Tik-Tok y Meta (Facebook, Instagram y Threads), ya se comprometieron a incluirlo en sus servicios. LinkedIn ya hizo las primeras pruebas públicas. Leica y Sony incorporaron el estándar en cámaras, y varias empresas produjeron apps para habilitar el estándar en móviles.

Lo que no puede aportar él estándar de la iniciativa CAI es la obligación de usarlo, lo que dejaría el campo abierto a malos actores. Tampoco puede aportar la obligación de que la IA obtenga permiso de los autores de contenidos para entrenar a sus servicios cuando las mismas tiene información CPI, incluyendo a fotografías, textos, videos y grabaciones de audio de la realidad.

“Lo nuevo es que se transforme en ley, paso para el cual como sabemos, deberá enfrentar un sin fin de dificultades”, dijo Daniel Mazzone, periodista y profesor uruguayo, autor del libro Máquinas de Mentir: Noticias falsas y posverdad.

“Los desinformadores se ocupan de mimetizarse para que parezca que informan, cuando en realidad inventan una realidad alternativa incomprensible por vía racional y a la que solo se puede acceder por la vía emocional”, señalo Mazzone.

Muchas de las empresas de IA generativa han argumentado que entrenar sobre contenidos disponibles en Internet constituye fair usage, una doctrina que sostiene que las noticias en sí no tienen dueño, si el autor puede proteger la particular forma que cada uno tiene de transmitir cada información.

Un amplio conjunto de organizaciones de artistas y de medios de comunicación aplaudieron a la propuesta legislativa, tanto por la acción contra los usos espurios de la IA generativa para desinformar, como también por la acción para proteger a creadores contra el uso comercial indiscriminado de sus obras por parte de la IA generativa.

Entre las entidades que dieron su apoyo a la legislación son Screen Actors Guild; American Federation of Television and Radio Artists; News Media Alliance; National Newspaper Association; Rebuild Local News; America´s Newspapers; Recording Industry Association of America; National Music Publishers Association, entre otros.

Curtis LeGeyt, presidente de la Asociación Nacional de Cadenas de Radio y Televisión, dijo que la legislación propuesta ayudaría a proteger a la sociedad en general contra las deep fakes generados por la IA, que “suponen una amenaza significativa para la integridad del periodismo de confianza producido por las emisoras”, especialmente durante un año electoral en los Estados Unidos como este 2024.

“También aplaudimos la prohibición del uso de nuestro contenido de noticias para entrenar sistemas generativos de IA o para crear contenido competitivo sin el consentimiento expreso y la compensación al creador de noticias”, agregó LeGeyt.

La Ley de Protección del Origen del Contenido y la Integridad contra los Medios Editados y Deepfaked de 2024 (COPIED-ACT) fue introducido en el Senado por Cantwell, demócrata; Marsha Blackburn, republicana y miembro de la Comisión de Comercio, y Martin Heinrich, demócrata y miembro de grupo de trabajo sobre IA.

El proyecto de ley propone lo siguiente:

  • Que el Instituto Nacional de Estándares y Tecnología defina directrices y estándares sobre como establecer la CPI en base a criterios de consenso, y cuya adopción puntual sea voluntaria. La CPI debe dar transparencia sobre el origen del contenido, especialmente si es generado o manipulado por IA.
  • Prohibir que la IA utilice sin autorización los contenidos con CPI para entrenar a sus modelos y producir otros contenidos, dándole a los creadores el derecho a definir los términos de un eventual uso por la IA generativa.
  • Permitir que los dueños de contenido marcados con CPI entablen acciones legales contra servicios de IA que utilicen sus obras para generar nuevos contenidos sin consentimiento previo. También autoriza a la Comisión Federal de Comercio (FTC por sus siglas en inglés) y a fiscales generales de los distintos estados a asegurar el cumplimiento con las previsiones de la ley.
  • Que sea ilegal remover o manipular CPI, la información de origen.

El uso de los contenidos noticiosos de empresas periodísticas por parte la IA generativa para crear sus propios informes noticiosos ha sido criticado por parte de los medios de comunicación como una competencia desleal, que es un nuevo factor en la crisis de financiamiento de los medios noticiosos.

Un estudio del News Media Alliance de Estados Unidos de octubre de 2023 mostró que los sistemas de IA utilizan en forma prioritaria los contenidos noticiosos de empresas tradicionales como materia prima para sus producciones. Esa utilización de los contenidos tradicionales supera por un factor de cinco a 100 a la utilización de otros contenidos genéricos disponibles para el uso por la IA, dijo el estudio.

El estudio señaló que muchos desarrolladores de IA generativa “han optado por copiar sin permiso los contenidos de los editores y utilizarlos para el entrenamiento de modelos y en tiempo real para crear productos competidores”.

“Mientras que los editores realizan las inversiones y asumen los riesgos, los desarrolladores de IA generativa recogen los frutos en términos de usuarios, datos, creación de marca y dólares de publicidad”, algo que “presagia un perjuicio para el interés público” hasta ahora atendido por los medios tradicionales, agregó.

De hecho, en ese sentido, la empresa Newsguard, que hace monitoreo de desinformación y ofrece un ranking de confiabilidad de medios noticiosos, informó hace poco que ya son 976 sitios en 16 idiomas los que producen contenidos poco confiables mediante bots de la IA, sin nada o casi nada de involucramiento de periodistas o personas.

Los sitios, con nombres como iBusiness Day, Ireland Top News, Daily Time Update, producen centenares de informaciones sobre una amplia variedad de temas. Muchas de las informaciones son totalmente falsas, fabricadas o repeticiones de noticias viejas como si fueran actuales. Newsguard dice que el modelo de negocios de muchos de estos sitios es la publicidad programática.


El autor de esta nota representa como consultor en América Latina a la Iniciativa de Autenticidad de Contenidos (Content Authenticity Initiative), mencionada en el texto. Este artículo no representa la opinión de dicha iniciativa

Ayudanos a seguir pensando, buscando y elaborando información para conectar a la sociedad. Si valoras lo que hacemos....

Invitame un café en cafecito.app
Buy Me a Coffee at ko-fi.com

Hacé tu comentario

Por si acaso, tu email no se mostrará ;)