Romina Colman es licenciada en Ciencias de la Comunicación (UBA) y magíster en Medios y Comunicaciones (Data & Sociedad) de London Schools of Economics and Political Science. Desde 2012 integra el equipo de LN Data, la multipremiada división de periodismo de datos del diario La Nación donde se especializó en pedidos de acceso a la información pública.

En su paso por #TMTconversaciones (ciclo de entrevistas que se emite por el canal Metro para la Argentina y por UCL Play para el resto de América Latina), Romina se refirió al deterioro de la transparencia pública durante la pandemia, la relevancia de las grandes empresas en la recolección masiva de datos personales y en la transformación del periodismo.

-¿La pandemia favoreció o empeoró la transparencia de los gobiernos?

-En un primer momento generó una sensación de caos, respecto de qué iban a hacer los gobiernos con la información. Inicialmente siempre hay una primera reacción de evitar publicar hasta que todo esté prolijo y se den ciertas condiciones. Por esto, el periodismo y las organizaciones de la sociedad civil empezaron a pedir que se publicara porque necesitaban controlar cómo estaban midiendo los gobiernos y qué decisiones se estaban tomando sobre los datos que ellos mismos estaban generando. De hecho, en el caso de contrataciones hubo muchos cambios en relación a las reglamentaciones para poder permitir las compras más rápidas. Eso generó no solo caos dentro de los gobiernos, como por ejemplo en el Reino Unido, sino que al mismo tiempo los periodistas necesitaron capacitarse sobre esas nuevas reglamentaciones, lo cual lleva bastante tiempo que debieron reducir para poder acceder a esa información y procesarla para el público.

-En este contexto, ¿qué gobiernos tuvieron mejores respuestas al poner a disposición del público la información?

-En Reino Unido, si bien en su momento la respuesta en relación a la pandemia no fue la esperada y la que exigida por la Organización Mundial de la Salud, todas las conferencias se daban en horarios estipulados y la estructura del discurso era muy organizada en relación a los datos. Italia también abrió mucha información sobre ocupación de camas y muchas organizaciones de la sociedad civil pudieron hacer dashboards o lugares de monitoreo para todos estos datos. Todo lleva un tiempo que está relacionado con la infraestructura y la capacidad de respuesta que tenga el gobierno ante estas situaciones. En la Argentina recién el 8 de junio se abrieron los datos para poder bajarlos en un formato que sea procesable para nosotros. Estamos hablando de más de 4 o 5 meses desde que comenzó todo. Muchas veces la capacidad de respuesta de los gobiernos a la apertura depende de la voluntad política y de la infraestructura que tengan de poder hacerlo.

«En la Argentina recién el 8 de junio se abrieron los datos para poder bajarlos en un formato que sea procesable para nosotros. Estamos hablando de más de 4 o 5 meses desde que comenzó todo»

-¿La sociedad percibe que esta información tiene que estar a disposición suya?

-Hay una conciencia de que la información pública nos pertenece. Cualquier persona que no haya leído la ley sabe que la información que producen los gobiernos es pública. Lo que sucede muchas veces es que es un concepto muy abstracto. Por ejemplo, en Argentina cuando el ciudadano compara los problemas que tenemos con la inflación con las dificultades del acceso a la información pública, se vuelve menos tangible y no se dan cuentan que tienen el derecho de exigir.
Desde un lado más práctico, aquellos que preguntan no son los ciudadanos. Quienes preguntan son las organizaciones de la sociedad civil, los periodistas y algunos actores claves en cada una de las localidades que presionan al sistema para poder extraer esa información y que se siga abriendo para el público.

-Uno de los planteos durante la pandemia fue la recolección por parte de estados o empresas tecnológicas de información privada. ¿En el Reino Unido hubo discusiones acerca de ese tema como en la Argentina a partir de la aplicación Cuidar?

-Sí, justamente fue con la aplicación. En su momento, se hablaba de dos esquemas: uno en el que los datos iban a pasar a los servidores de Google, por ejemplo; y otro que iba a ser centralizado por el gobierno del Reino Unido.
Hay una cultura mucho más fuerte respecto a qué van a hacer con mis datos. Hasta el momento se suspendió el lanzamiento de la aplicación. Anteriormente se había hecho una primera prueba en un lugar muy pequeño, pero hubo discusiones.
Son momentos críticos. Todos tenemos que mirar lo que está pasando porque hay cosas que se pueden instalar socialmente y luego son muy difíciles de retrotraer al estado en el que estaban. Todos estamos con la preocupación de la pandemia porque son temas demasiados técnicos y, en general, son decisiones que toman los gobiernos.
En general, como los gobiernos trabajan con información pública y las personas de menores ingresos son las que dependen del sistema de salud pública, se siguen generando inequidades sobre los más pobres.

«Aquellos que preguntan o utilizan la ley de acceso a la información pública no son los ciudadanos. Quienes preguntan son las organizaciones de la sociedad civil, los periodistas y algunos actores claves en cada una de las localidades que presionan al sistema para poder extraer esa información y que se siga abriendo para el público»

-¿A qué debería prestarle atención un ciudadano respecto del cuidado de sus propios datos?

-Todos deberíamos leer los términos y condiciones de las aplicaciones porque muchas veces incluyen que la información se puede dar a terceros. Ahí corremos muchos riesgos sobre qué están haciendo con nuestros datos.
Hubo mucha discusión sobre unos test de ADN que se hacían para saber tu ascendencia. Te enviaban una prueba y con tu saliva te decían cuál es tu origen. Esa información en su momento generó mucha controversia porque la empresa podía compartir esos datos con terceros. Ya no es el gobierno el único actor que recolecta datos de ciudadanos, sino que mayormente son los privados. Todo lo que hacemos en Internet deja una huella digital. Obviamente es muy difícil escapar de todo esto porque cuando uno baja una aplicación si uno no acepta, no se la puede descargar. Nosotros somos los que tomamos la decisión, pero ¿Qué pasaría si uno dice que no y eso se ve multiplicado por miles?

-¿Sobre qué datos deberíamos preocuparnos como ciudadanos?

-Deberíamos tener en cuenta que todo lo que se puede hacer, no quiere decir que sea responsable hacerlo. Hay una idea de que la tecnología funciona mucho mejor que un ser humano. Eso es lo que pasa muchas veces con los algoritmos o los sistemas de reconocimiento facial. ¿Cómo nos defendemos cuando pasamos frente a una cámara y nos dicen que estamos en la lista de personas buscadas? ¿Cuál es el nivel de defensa que tiene un ciudadano para luchar contra ese algoritmo?
Hubo mucha resistencia con estos temas, por ejemplo, en el Reino Unido unos artistas se pintaron la cara con colores y con diferentes formas para que los sistemas de reconocimiento facial no llegaran a reconocerles la cara.
Tenemos el problema de que son nuevas maneras de generar inequidades. Hay un caso muy famoso en Estados Unidos sobre Compas, un sistema que predecía si una persona podía volver a cometer un delito y, en base a esto, un juez tomaba la decisión, o no, de liberarla. Ese sistema trabajaba erróneamente y funcionó durante mucho tiempo.
El problema es que todo queda reducido a técnicos especialistas o gente de gobierno. Se necesita mucha más discusión del lado académico y de las organizaciones no gubernamentales. Son nuevas técnicas para las cuales debemos estar preparados porque son nuevas maneras de medir a los seres humanos.

Ayudanos a seguir pensando, buscando y elaborando información para conectar a la sociedad. Si valoras lo que hacemos....

Invitame un café en cafecito.app
Buy Me a Coffee at ko-fi.com

Hacé tu comentario

Por si acaso, tu email no se mostrará ;)