La posición tradicional en las democracias para lidiar con cuestiones que planteaba la actividad de prensa —o medios masivos de comunicación en general— era considerar que no debe haber “delitos de prensa” o “de opinión”(que son una forma de censura o restricción) sino “delitos (o transgresiones) cometidos a través de la prensa” (como podrían serlo a través de cualquier otro instrumento).
Es cierto que en muchos países el regulador TIC solía aplicar —o todavía impone— sanciones administrativas a emisoras de radio y TV por violaciones de normas técnicas o de gestión, pero en algunos casos también por temas de contenido (desde excesos del tiempo de publicidad hasta emisiones “engañosas”, así como lenguaje o imágenes “inapropiadas”).
Por más que estuviera sujeto a revisión judicial, este régimen nunca dejó de provocar reparos en defensores de la libertad de expresión cuando actuaba sobre manifestaciones periodísticas, de opinión o artísticas. Desde ya que en casi ninguna democracia se aplicó a medios impresos o de texto digitales.
Sin perjuicio de todo esto, en medios como el cine, la radio o la TV, una serie de restricciones que no se consideraban censura han protegido a menores de acceder a materiales violentos, sexuales o truculentos.
Mientras tanto, el secreto del contenido de las telecomunicaciones, igualmente en naciones con prácticas democráticas, fue desde sus inicios un principio que solo podía suspenderse en forma limitada, debidamente fundada y con las necesarias garantías por parte de un juez que investigase un delito.
En este caso, se trata de la histórica correspondencia postal, las comunicaciones telefónicas y el contenido de mensajes electrónicos (e-mail, apps de mensajería) entre partes. El ejemplo típico es la intervención judicial de una línea telefónica cuyo titular está sospechado de cometer delitos.
Los medios de comunicación y las telecomunicaciones transitaron por mucho tiempo andariveles separados. La comunicación digital y en particular Internet —en un proceso inverso a los senderos que se bifurcan de los que hablaba Jorge Luis Borges— unió ambos caminos en uno solo. Esa convergencia comunicacional inauguraba así lo que hace unos años se llamó metafóricamente autopistas de la información y hoy denominamos, más formalmente, las TIC.
¿Medio o telecomunicación?
Internet ha debilitado la frontera entre lo que es un “medio” (masivo) y una “comunicación bilateral” (punto a punto y entre partes). ¿Cuáles mensajes son los que gozan de la garantía de libertad de expresión y cuáles de la garantía de privacidad de contenido? Y todavía hay aplicaciones que permiten el comercio de todo tipo o la realización de innumerables actividades donde no necesariamente juegan los conceptos de libertad de expresión o del secreto del tráfico.
Como consecuencia colateral de esta evolución, el principio —muchas veces invocado— de que todo lo que sea ilegal en el mundo real deba serlo en Internet no siempre puede formularse o aplicarse eficazmente.
Hay una serie de circunstancias que provocan esta dificultad. En primer lugar, buena parte del ordenamiento jurídico general fue pensado y escrito en épocas “analógicas”. Además, la comunicación digital tiene siempre efectos globales —al menos potenciales— y atraviesa muchos ordenamientos jurídicos locales y nacionales, de diferentes características.
Otras circunstancias que contribuyen a dicha dificultad: la posibilidad de anonimato de los participantes, el acceso casi irrestricto que niños y menores pueden tener a las redes sin supervisión, la insuficiente y confusa división entre esferas o comunicaciones privadas y públicas o las dificultades para determinar quién es un periodista o comunicador profesional y quién no. Y también cuándo alguien actúa como agente de una institución o un gobierno y cuándo a título personal.
Asimismo, existen muchas acciones objetables que se desarrollan en Internet y redes sociales, las cuales muchas veces no llegan siquiera a ser ilegales o bien pueden tener diferente encuadre jurídico en cada jurisdicción involucrada (sin contar que algunas de esas acciones pueden incluso hasta no tratarse de un problema para algunos).
Entre muchas otras, por ejemplo:
- uso de identidades ficticias,
- uso sistemático de insultos o agravios para marcar un punto, rechazar una postura o a una persona,
- influencia concertada y encubierta para provocar un efecto (o confusión) política,
- uso de bots para manipular opiniones, instalar temas o promover productos o servicios,
- circulación de material falso o engañoso para desprestigiar personas o instituciones (o incluso sin que se busque ese fin),
- obtención y uso poco claro o no consentido de datos de cibernautas y usuarios,
- hackeo de sistemas,
- movimientos de “cancelación” de personas o ideas por motivos banales, injustos o graves,
- interrogantes sobre la responsabilidad de una instancia intermediaria,
- (buscador, portal, red social y hasta el mismo ISP) en relación a un acto o mensaje indebido o delictivo,
- difusión de reproducciones que vulneran derechos de autor, o
- viralización de desafíos o “apuestas” que pueden poner en peligro la integridad física o mental de menores y personas vulnerables.
Algunas de estas acciones hasta pueden estar promovidas desde esferas de gobierno en un contexto de lucha política donde la parte respaldada por el poder no tenga escrúpulos en usar estrategias “sucias” para enfrentar posiciones, adversarios o informaciones desfavorables.
¿Cuál es la diferencia funcional entre trolls (pagados o no) promovidos por un grupo gobernante para hostigar digitalmente a un opositor o periodista crítico y un grupo de choque callejero, también apoyado o alentado desde el poder, que organiza “escraches”[1] (modalidad típicamente fascista pero utilizada también sin problemas por la izquierda radical) o “juicios populares” (viceversa) con el mismo fin de hostigamiento?
También puede formularse una pregunta reversa: ¿y cuando tales estrategias “sucias” se originan desde personas en el llano, organizadas o no, para afectar a un gobierno yendo más allá de cualquier ejercicio normal de la crítica o la petición y que promuevan, por ejemplo, actos insurreccionales?
En el marco de una democracia y más allá de cualquier asimetría entre las partes, ambos supuestos —desde el gobierno o fuera de él— configuran conductas indebidas que la lesionan y están en contradicción con prácticas republicanas (lo que no cambia tampoco ante la indiferencia pública mayoritaria que puede enfocarse, por ejemplo, en que se resuelvan problemas económicos o acuciantes). –
La pornografía para mayores y la “blasfemia” religiosa ya no constituyen delitos en Occidente pero en muchas zonas o culturas del mundo sí lo son e incluso pueden ser penadas muy severamente. Modalidades que afectan muy especialmente a niños y menores como ciberbullying, grooming o sextingpueden no detectarse o tampoco encuadrarse con claridad.
Incluso personas que no sean menores pueden verse afectadas por acciones como acosos o ataques troll a través de las redes (desde aquellos con un fondo o intención sexual hasta agravios insultantes o difamaciones mentirosas a modo de respuesta o represalia por actividades políticas o periodísticas o simplemente por mera inquina, intolerancia o afán de control o por conducta psicopática).
Esas acciones troll no siempre pueden considerarse simples actos de expresión, desagrado o respuestas proporcionadas sino que podrían verse como acciones intimidatorias, a veces hasta equivalentes a que la persona sea acorralada, “escrachada” o amenazada en forma presencial y en un lugar “real” (aunque no la agredan físicamente). Sin embargo, la conceptualización de tales acciones en ese sentido en el ámbito digital afronta el problema de su imprecisión, vaguedad o de establecer analogías que no necesariamente funcionan. Y sobre todo, que también lesionen contenidos legítimos.
Sátira, chistes, discriminación, exterminios…
Hoy, en cualquier red digital de acceso más o menos abierto, los mensajes pueden en principio ser emitidos sin restricciones por cualquier usuario y perdurar (o “viralizarse”) de una manera continuada, de modo que sea accesible para millones de personas. Igualmente en principio, esos mensajes no están sujetos previamente a la autoridad de un editor como los que existieron desde siempre en la prensa o en los medios audiovisuales, que decidían de antemano el contenido de cada ejemplar o cada emisión de esos medios[2].
¿Qué ocurre en casos más vinculados con expresiones de cultura o de opinión acerca de grupos o “colectivos”?
En Internet, y muy específicamente en redes sociales, una manifestación contra gallegos, judíos o gays puede ser un chiste satírico o una ironía costumbrista y hasta divertida, incluso proveniente de los propios interesados. Pero también pueden tratarse de manifestaciones discriminatorias o de “odio” y que en algunos casos extremos se pueden vincular con persecuciones o exterminios. Esto depende de sus términos pero también del contexto, de las circunstancias y hasta de las características del enunciador.
En este punto se plantea la dificultad de evaluar, en casos determinados, si estas manifestaciones son parte de la libertad de expresión (incluyendo el humor o la sátira) o si constituyen manifestaciones explícitas de delitos de discriminación contra minorías y hasta incitaciones a la violencia. ¿Cuáles, entonces, de estos mensajes están sujetos a ser “moderados” (eliminados o suspendidas las cuentas de sus autores) y cuáles no? Y si se supone que procede la eliminación o suspensión, ¿es invariable que sus autores sean responsabilizados civil y penalmente? Pero a la vez, ¿por qué puede haber una sanción de eliminación o suspensión en una plataforma por un contenido si se determinase que no hay responsabilidad penal o civil? ¿Los términos de servicio privados de una plataforma pueden superar las garantías de libre expresión constitucionales?¿O es el ejercicio de las facultades de edición del titular de un medio de comunicación?
Fake news y gritar fuego en un cine repleto
Las llamadas fake news —que siempre existieron como parte del sensacionalismo o la propaganda— tienen también una escala.
No es lo mismo inventar un romance a una estrella de TV que pregonar que la Tierra es plana. Lo cual, asimismo, se distingue de atribuir falsamente la condición de pedófilo a una persona. Y lo último se diferencia, a la vez, de una postura militante anti-vacunas que a su vez se distingue del anuncio mentiroso de un inminente tsunami.
Aquí se aplica el dilema que alguna vez planteó el magistrado estadounidense Oliver Wendell Holmes Jr. acerca de si la libertad de expresión protege a alguien que grita falsamente “¡fuego!” en un teatro repleto. Se supone que en esos casos, para que un discurso falso sea ilegal o sujeto a acción penal, debe generar un “peligro” y/o una “acción ilegal” “clara, grave e inminente” (doctrina de la Corte Suprema de los Estados Unidos a partir de los años 1910s: lo de la “acción ilegal” se agregó en 1969).
De los ejemplos anteriores solo el caso del tsunami podría ser una acción que genere un “peligro claro, grave e inminente”.
Otros supuestos, como la incitación verbal a la violencia, sólo en determinadas circunstancias pueden generar una acción ilegal cierta y actual. Entre los restantes casos mencionados en esos ejemplos anteriores algunos pueden afectar en forma nula o muy levemente a una persona (el invento del romance, apenas y como mucho, en términos de daños o perjuicios civiles) o bien constituirse en una seria calumnia (la falsa acusación de pedofilia, que genera responsabilidad penal).
Mientras tanto, el terraplanismo,con todo lo absurdo que resulta en los casos de quienes se lo toman en serio, no es delito ni hay partes jurídicamente agraviadas. No obstante, al mismo tiempo, contribuye a poner en duda entre el público a la ciencia, lo que puede verse como un retroceso oscurantista que perjudica a la sociedad en general.
Pero sin hablar de extravagancias y de un modo más general ¿hasta qué punto y de qué manera deberían discutirse escuelas, enunciados o teorías sobre interpretación de hechos o ideas, cuando la propia epistemología enseña que cualquier proposición científica siempre es provisoria y sujeta a la discusión?
Alguien puede extender este argumento igualmente a las vacunas. Se encontrará con quienes opinen que mientras el terraplanismo puede considerarse tan inofensivo como un horóscopo[3] —que hoy, a su vez, se lo ve más bien como un ‘entretenimiento’ antes que como una fake news—, en cambio, poner en duda las vacunas en forma masiva en medio de una pandemia puede considerarse un peligro “claro, grave e inminente” contra la salud pública donde se juegan vidas humanas. Pero, ¿y si las vacunas no fueron debidamente elaboradas o probadas? ¿Dónde queda entonces el derecho a la crítica o denuncia?
En suma, se puede considerar que las fake news son en general negativas y hasta perjudiciales, pero probablemente pocas de ellas podrían generar alguna responsabilidad delictiva clara, a menos que se imponga un régimen que restrinja, censure o penalice la expresión en sí misma, con lo cual se llegaría al delito de opinión.
Esto no es contradictorio con el evidente abuso del término fake news para objetar interpretaciones y opiniones en medio de contextos de confrontación o discusión política e ideológica, concepto a veces esgrimido por quienes simplemente no concuerdan con tales interpretaciones u opiniones.
También se usa tal expresión hasta por errores no intencionales que suelen cometerse en las noticias (hasta cierto punto normales en la vorágine del trabajo), pero con un sentido de inquina hacia al periodismo (o hacia algún periodista particular) con el fin de invalidarlo integralmente.
Delitos claros, autores en la oscuridad
Existen, por cierto, casos muy claros de delitos a través de las redes (tentativas o comisión de estafas, robo de identidad, exhibición o producción de pornografía infantil, incitación al exterminio o genocidio —mensajes al estilo de la radiodifusión en Ruanda de 1994—, actos preparatorios de ilícitos diversos, como coordinación para actividades de trata de personas o narcotráfico).
Pero persiste siempre la dificultad no sólo de individualizar a los autores y partícipes, sino también en llegar a ellos: pueden estar en diferentes jurisdicciones y quizás ser hasta inalcanzables en ciertos casos. ¿Cómo deben suprimirse o bloquearse entonces las páginas o mensajes correspondientes? ¿Quién debe hacerlo (o disponerlo) y bajo qué bases legales?
Para complicar todavía más el asunto, las empresas propietarias de redes sociales, algunas de las cuales son como una verdadera “plaza pública” global de debate, ¿hasta qué punto pueden o deben suprimir mensajes o suspender usuarios y por qué razones? Se puede ser “absolutista de la libertad de expresión”, como dice el ahora trumpista Elon Musk, y no censurar ninguna manifestación política, pero nadie extendería ese principio a delitos como los mencionados antes: no remover pornografía infantil, incitaciones a genocidios o instrucciones explícitas para coordinar la comisión de delitos.
Responsabilidad de los intermediarios
En América Latina no existen normas uniformes sobre la llamada “responsabilidad de los intermediarios”, es decir, los buscadores y plataformas de Internet que vehiculizan contenidos de terceros (redes sociales, sitios de comercio electrónico, OTT y otros).
En algunos países el régimen es el mismo que se aplica para cualquier otra actividad, dado que no hay disposiciones específicas. En esos casos, los intermediarios no están impulsados a monitorear o moderar los contenidos, ya que las normas no contemplan una presunción de culpa o responsabilidad específica para tales intermediarios. Si no hay orden judicial, no es obligatorio para la instancia intermediaria retirar o limitar contenidos que violen normas civiles o penales, ya que la responsabilidad recae sólo en el autor del mensaje.
No obstante —y aunque probablemente esta situación ya casi no exista en ningún lugar—, podría ser todo lo contrario. Es decir, que a falta de ese régimen especial el intermediario sea inevitablemente considerado co-responsable, en distintos grados, de cualquier mensaje ilícito que no limite o retire, en virtud de los principios generales del ordenamiento legal o de una eventual jurisprudencia.
Un problema adicional se plantea en el caso de autores de mensajes no identificados y/o que impliquen una falta o delito en plena ejecución (reproducción “pirata” de una emisión deportiva sin pago de derechos, producción y exhibición de pornografía infantil o amenazas de muerte precisas).
En Argentina, por ejemplo, la Corte Suprema de Justicia estableció en 2014 como doctrina que los buscadores (y otros intermediarios de Internet) no son en principio responsables del contenido que publiquen sus usuarios. Solo puede existir esa responsabilidad en casos “excepcionales” si el intermediario no cumpliese con una orden judicial que ordene la supresión de un contenido por violar alguna norma legal.
Sin embargo, prosigue la Corte argentina, cuando hay “ilegalidad manifiesta” (casos taxativamente enunciados por el máximo tribunal, como los mencionados de pornografía infantil, instrucciones para cometer un crimen y otros muy graves o gravísimos como apología del genocidio o puesta en peligro de la integridad física de personas) la supresión debe hacerla el intermediario, ya sea por iniciativa propia o a partir de una notificación privada que un tercero afectado curse a dicho intermediario.
Este régimen evita que se implante sobre Internet, no sólo en cuestiones expresivas sino también sobre sus otras funciones, el régimen administrativo que rige en la radio y la TV y del cual se habló al principio de este artículo. El regulador administrativo TIC, que en Argentina es el Enacom, simplemente recibe indicaciones de la justicia para que a su vez disponga que los ISP bloqueen el contenido o aplicación que la justicia considera ilegal, normalmente con un criterio restrictivo.
En septiembre de 2024, por ejemplo, se informaba que en Argentina había más de mil sitios de apuestas ilegales bloqueados por disposiciones judiciales que aplicaba Enacom.
Aquí se produce la diferencia entre mundo real contra mundo virtual a la cual se alude en el título de este artículo. Mientras un hipotético casino ilegal sólo requiere que la policía se dirija a su ubicación física, lo clausure y detenga a sus responsables, en Internet con toda seguridad es imposible detectar el lugar físico desde donde se maneja un sitio que emule un casino ilegal (y que puede estar fuera de la jurisdicción nacional)[4].
En Brasil el régimen era similar al argentino, sólo que allí se sancionó una ley al efecto (Ley Marco Civil de Internet, LMCI[5]), también en 2014. A raíz de la polarización política en el país (Bolsonaro vs Lula), sumada al episodio de la pandemia, la cuestión de cómo se utilizaban Internet y las redes pasó al primer plano del debate público. Comenzó a hablarse de reemplazar la LMCI, que se consideraba un instrumento “insuficiente”.
En 2020 se discutió un proyecto de ley (PL 2630) que entre otras cosas penalizaba las fake news y que se fue reformulando en años sucesivos. Pero la iniciativa quedó paralizada en medio de críticas que la calificaban como un mecanismo de censura. En 2021, una norma del poder ejecutivo con un sentido opuesto prohibió a las plataformas moderar contenido de manera tal que implicara “censura”, pero no consideraba las fake news. Sin embargo, esa norma estuvo vigente un breve tiempo y fue derogada por el Congreso.
Pese a la falta de resultados, la situación ponía de relieve la voluntad de varios sectores de Brasil de asumir una suerte de liderazgo regional en experimentos regulatorios de Internet y redes sociales. Aunque a veces se ha invocado la ley DSA de la Unión Europea como guía, a lo largo de cuatro años el debate y redacción del PL 2630 sumó visiones de todo tipo de la variopinta legislatura brasileña, de diferentes orígenes, propósitos y calidad técnica.
A esto debe sumarse la desconfianza que provoca en la región cualquier organismo de aplicación de leyes en temas sensibles como este, en cuanto a imparcialidad e independencia del gobierno. El tema empeora considerando la ya mencionada polarización política del escenario brasileño.
Es posible que todo esto haya desalentado que este movimiento regulatorio —aun considerando el antecedente europeo de la DSA— arraigara en el resto de América Latina, donde este debate figura muy poco en la agenda pública. No obstante, es en este contexto peculiar de Brasil que debe entenderse el conflicto entre Elon Musk y el titular de la justicia de esa nación, que llevó al bloqueo total de la red X en el país en 2024, luego levantado.
En los Estados Unidos, la Sección 230 [6] de la Communications Act (Ley de Comunicaciones) (1996) exime a una empresa de toda responsabilidad editorial si el contenido que se ofrece es “proporcionado por otro proveedor de contenido«, es decir, por un tercero (pero no si los contenidos son de generación propia).
Muchos consideran que esta disposición, que otorga una inmunidad amplísima para Internet y que no tiene un equivalente explícito en otras legislaciones, es lo que ha hecho a Internet tal como es hoy: un espacio libre en el cual las plataformas no pueden ser consideradas responsables de lo que sucede en las mismas. Es importante remarcar que la Sección 230 no protege a personas o empresas que violan leyes penales o civiles, simplemente coloca la responsabilidad de esas acciones o contenidos en su autor y no en la plataforma que los vehiculiza.
La llamada disposición del “buen samaritano” de la misma Sección, por otra parte, permite que las plataformas eliminen o “moderen de buena fe” material de terceros que consideren «obsceno, lujurioso, lascivo, sucio, excesivamente violento, acosador, o de otro modo objetable, sin importar si dicho material está o no protegido constitucionalmente«.
Dado que muchas empresas y plataformas de Internet tienen su sede en los Estados Unidos, normas nacionales como la Sección 230 terminan ejerciendo su influencia a nivel global.
Con el tiempo, la Sección 230 despertó críticas de distintos flancos. Los republicanos sostienen que otorga demasiada facilidad a las plataformas para “moderar” mensajes, lo que provoca la censura de puntos de vista conservadores o de derecha. Los demócratas, en cambio, creen que facilitan la circulación de fake news y “discursos de odio”, ya que las plataformas carecen de incentivos para “moderar” tales contenidos ni les hace rendir cuentas por no hacerlo; no obstante, también la izquierda se considera víctima de supresión de expresiones por parte de las plataformas.
Pero a casi 30 años de su aprobación, la Sección 230 permanece porque no hay el suficiente consenso para redactar un texto que la pueda reemplazar. Algunos creen que empezar a “tocar” o enmendar sus términos puede abrir una caja de Pandora. Una regulación de Internet como la europea probablemente no pueda aplicarse en los Estados Unidos por una cuestión de cultura política y jurídica. Mucho menos, ahora con el triunfo electoral de Donald Trump, su control de los tres niveles de gobierno y la posible llegada al poder de un sector de las BigTech (que son también contratistas del gobierno, particularmente en el área de defensa pero también en otras, incluyendo a Elon Musk y por montos nada desdeñables).
Sin embargo, tanto en los Estados Unidos como en otros lugares puede haber una responsabilidad limitada del intermediario para ciertos casos de contenidos de terceros. La Digital Millennium Copyright Act (Ley de Derechos Autorales del Milenio Digital o DMCA) (1998) por ejemplo, establece que el intermediario incurrirá en responsabilidad si no efectuara remoción de contenidos que violen la propiedad intelectual a partir de ser notificados del hecho por sus titulares.
El método de la DMCA funciona en forma expeditiva, si bien no hay una valoración independiente de la incidencia de violación. Para algunos defensores de la libertad de expresión, la supresión de materiales sin mayor trámite o con gran amplitud por reales o presuntas violaciones de copyright puede ser atentatoria contra dicha libertad.
En los países de la Unión Europea se adoptaron dos normas fundamentales: la Digital Markets Act (Ley de Mercados Digitales, DMA) y Digital Services Act (Ley de Servicios Digitales, DSA). Ambas son de 2022 y entraron en vigor pleno a principios de 2024. Regulan una gran cantidad de aspectos, no solamente temas relacionados con libertades y responsabilidades en relación a los contenidos. También tratan cuestiones económicas, de defensa de la competencia, publicidad, etc.
De acuerdo con los términos de la DSA los intermediarios no son responsables por las acciones o contenidos de sus usuarios o de terceros. Pero deben habilitar una herramienta para que los usuarios, al igual que los llamados “alertadores fiables” (entidades de la sociedad civil específicamente avaladas por el gobierno)y las propias autoridades puedan reportar contenidos ilícitos de acuerdo con las legislaciones nacionales o europeas. En caso de que los intermediarios no eliminen esos contenidos sí serán consideradas responsables.
Se establece que el intermediario puede obtener el “conocimiento efectivo” de la ilegalidad de los contenidos por “órdenes de los organismos competentes”, investigaciones de iniciativa propia, los “alertadores fiables” y notificaciones de los afectados, en tanto sean “precisas y fundamentadas”. Todo esto queda sujeto revisión judicial posterior.
Las plataformas, según la DSA, deben suspender “temporalmente” a usuarios con “comportamientos abusivos”. Se consideran así a quienes publiquen “frecuentemente” contenidos “manifiestamente ilícitos” o el envío frecuente de avisos o reclamaciones “manifiestamente infundados” en esas plataformas. Un contenido es “manifiestamente ilícito” cuando sea evidente para una persona lega, sin un análisis de fondo.
Como en los Estados Unidos, también acepta que las plataformas ejerzan la moderación con el principio de “buen samaritano”, que permite retirar “de buena fe” contenidos “dañinos” que no sean necesariamente ilegales y que violen términos de servicio. Por otro lado, los funcionarios europeos han aclarado que la DSA “no crea ningún delito” sino que se limita a aplicar las leyes vigentes de cada nación europea.
El régimen general de las normas europeas DMA/DSA
Las normas contenidas en las leyes europeas DMA/DSA son hasta ahora el intento más completo y abarcativo de regulación de “empresas digitales” que se haya emprendido en el mundo dentro de un marco democrático.
Por “empresas digitales” se entienden: buscadores, plataformas (redes sociales, sitios de intercambio de contenidos, tiendas en línea, marketplaces —sitios que contactan a compradores y vendedores— y sitios en línea de viajes y alojamiento), data centers (alojadores de datos, servicios en la “nube”) y los ISP.
En cuanto a la responsabilidad de tales “empresas digitales” como intermediarios, queda definida una marcada diferencia entre el modelo de la Sección 230 de los Estados Unidos (limitado esencialmente a temas de responsabilidad de contenidos) y dicho régimen europeo de las DMA/DSA (que abarca cuestiones múltiples).
Pero, para el resto de los temas, no debe creerse esquemáticamente que el modelo europeo presupone invariablemente “regulación”, mientras que el modelo de los Estados Unidos presentaría una ausencia de la misma.
En realidad, algunos temas de la legislación específica europea también están presentes —en distintas formas o intensidad— en normas norteamericanas dispersas o de distintas jurisdicciones (por ejemplo, la Ley Federal de Comercio –1914 y sus múltiples enmiendas-, la Ley de Privacidad -1974-, Ley de Protección de la Privacidad en Línea para Niños (COPPA, por sus siglas en inglés) –1998– o La Ley de Privacidad del Consumidor de California (CCPA por sus siglas en inglés –2018-).
En la Unión Europea, la DMA se aplica a “empresas digitales” designadas como “gatekeepers” y que ejercen un gran poder comercial sobre Internet de acuerdo a sus ventas, prácticas, influencia u otros factores previstos en la norma. Los gatekeepers incluyen a los titulares de Google/YouTube/Android, Facebook/Instagram/WhatsApp, TikTok, Amazon, así como a Apple y Microsoft.
Estos gatekeepers están sujetos a obligaciones tales como:
- Obtener el consentimiento del usuario antes de recopilar y procesar datos personales con fines de publicidad dirigida.
- No combinar datos personales de diferentes servicios de la plataforma principal o utilizar datos personales de forma cruzada en otros servicios.
- Permitir que los usuarios se den de baja de la plataforma gatekeeper tan fácilmente como se hayan suscripto.
- No discriminar a usuarios comerciales, impidiéndoles ofrecer los mismos productos o servicios (o a precios y condiciones diferentes) que los que pudiera ofrecer el gatekeeper por canales propios (o los de terceros).
- Deben permitir a los usuarios comerciales comunicarse y promocionar sus ofertas a los usuarios finales, independientemente de si utilizan o no los servicios de la plataforma. Se busca una “competencia justa” y que los usuarios comerciales tengan la libertad de llegar a su target.
- Deben permitir que los usuarios finales accedan y utilicen contenido, suscripciones, funciones u otros elementos a través de los servicios de la plataforma mediante la aplicación de software de terceros. Esto promueve la elección del usuario y evita que los gatekeepers limiten el acceso a determinados servicios.
- No deben impedir ni restringir que los usuarios planteen cuestiones de incumplimiento de las leyes pertinentes a las autoridades, incluidos los tribunales nacionales. Se alienta a los gatekeepers a instituir mecanismos de tramitación de reclamos.
A diferencia de la focalización de la DMA en temas de mercado, el otro instrumento europeo, la DSA, busca regular la responsabilidad de intermediarios, pero también otros aspectos de funcionamiento que se repasan a continuación.
La DSA establece obligaciones generales para todas las “empresas digitales” de la Unión Europea, pero no se aplica a las pyme que no superen los 50 empleados ni los 10 millones de euros anuales de facturación (salvo el improbable caso que alcancen los 45 millones de usuarios). Tampoco rige para “servicios de comunicaciones interpersonales”, (correos electrónicos y servicios de mensajería privada), salvo que puedan enviarse mensajes a un número “potencialmente ilimitado” de destinatarios.
Entre esas obligaciones generales para esas “empresas digitales” figuran:
- Establecer un punto único de contacto, tanto para autoridades como para usuarios.
- Los buscadores y las redes sociales, entre otras, deben hacer públicas las características de sus algoritmos (que determinan lo que los usuarios ven online) y ofrecer la posibilidad de acceder a contenidos que no sean personalizados de acuerdo a su perfil.
- Explicar de forma comprensible para los usuarios cuáles son sus términos y condiciones.
- Proporcionar medios a los usuarios para señalar contenidos ilícitos, incluidos los ofrecimientos de bienes y servicios. Deberán dar prioridad a los avisos que lleguen de “alertadores fiables” (entidades de la sociedad civil de reconocida trayectoria específicamente designadas para cumplir esa tarea).
- Especificar en los términos de servicio las restricciones que pueden tener los mismos (incluyendo los criterios de moderación) e informar de manera transparente de sus actividades.
- Los anuncios publicitarios deben ser digitalmente archivados para que las autoridades puedan supervisar si hay mensajes engañosos o ilícitos. También debe especificarse por qué se muestra cada publicidad y quien la ha pagado.
- La publicidad no puede dirigirse expresamente a menores con anuncios basados en la elaboración de perfiles o en sus datos personales. También están prohibidas las publicidades personalizadas basadas en datos sensibles de usuarios, tales como creencias políticas, religiosas o preferencias sexuales.
- Proporcionar información a cualquier afectado por una decisión de moderación de contenidos (retirada de contenidos, suspensión de cuentas, etc.) y subir esa declaración a la base de datos de transparencia de la DSA.
- Publicar un informe sobre los procedimientos de moderación de contenidos al menos una vez al año.
Hay otro nivel de obligaciones específicamente aplicables a plataformas de marketplace: combate contra contenidos ilícitos que puedan encontrarse dentro de la plataforma y la posibilidad de rastreo de vendedores para reducir fraudes y estafas.
Finalmente, se establece un tercer nivel de regulación sobre buscadores y plataformas “muy grandes”, definidas como aquellas que tienen al mes más de 45 millones de usuarios (10% de la población de los países de la Unión Europea).
Para julio de 2024, los buscadores y plataformas “muy grandes” alcanzadas por este nivel de regulación tienen principalmente origen y sede en los Estados Unidos: X, Instagram, Wikipedia, Amazon, la AppStore de Apple, Bing, Facebook, Google Search, Google Play, Google Maps, Google Shopping, LinkedIn, Pinterest, Snapchat y YouTube.
A estas se agregan cuatro compañías europeas: Zalando (tienda online alemana de modas), Booking (plataforma de viajes con sede en Países Bajos), XVideos (porno, checa) y XNXX (porno, francesa). También cuatro prestadores chinos: TikTok, AliExpress (marketplace de Alibaba), Shein (tienda en línea de modas y ropa deportiva) y Temu (tienda en línea de moda, electrónica, productos de belleza y juguetes). Hay otros dos sitios porno —que de manera genérica figuran entre las páginas más visitadas del planeta—: Pornhub (Canadá) y Stripchat (registrada en Chipre).
Todas estos buscadores o plataformas “muy grandes” están sujetas a las disposiciones de los puntos anteriores, pero la autoridad de aplicación de la DSA será la Comisión Europea (a diferencia de los demás casos en que caerán bajo la jurisdicción de autoridades nacionales) y que además las reforzará y auditará con medidas que pueden calificarse como de “autorregulación inducida”:
- Las empresas deben identificar, analizar y evaluar los “riesgos sistémicos” vinculados a sus servicios. Esto podría significar adaptar su diseño o funcionamiento o bien cambiar sus sistemas de recomendación.
- Los “riesgos sistémicos” se relacionan con el combate contra el contenido ilegal, la discriminación y la violencia de género, así como la preservación de “derechos fundamentales” como libertad de expresión, pluralismo de los medios de comunicación, derechos de los niños, protección del consumidor y protección de las minorías. También acciones que no comprometan la seguridad pública, la salud pública, los procesos electorales y el bienestar físico y mental de los usuarios.
- En cuanto a contenidos ilícitos éstos se definen en otras leyes, ya sea a escala europea o nacional: mensajes o materiales terroristas, de abuso sexual a menores o la “incitación ilegal al odio”. Rigen los criterios de retiro de material de acuerdo con el principio antes tratado sobre responsabilidad de los intermediarios.
La Comisión podrá aplicar multas de hasta el 6 % de la facturación mundial anual de las “empresas digitales muy grandes” que no cumplan con la normativa. En caso de infracciones reiteradas tiene la facultad de imponer suspensiones de tales compañías en la Unión Europea, en todos los casos con las debidas garantías de defensa y la intervención de un juez.
Las DMA/DSA surgieron del trabajo de varios años tras una laboriosa búsqueda de acuerdos entre países y fuerzas políticas. Muchas empresas del sector no criticaron mayormente las normativas, si bien las “muy grandes” formularon objeciones en el proceso de redacción que en varios casos se tomaron en cuenta.
La normativa fue votada por un muy amplio número en el Parlamento Europeo y es más o menos apoyada por la gran mayoría del espectro político (a veces con algunas reservas menores entre conservadores moderados y liberales, pero sí con el rechazo de la extrema derecha y la extrema izquierda). A casi un año de su puesta plena en vigor es todavía temprano para evaluar sus efectos, especialmente en lo concerniente a temas de libertad de expresión, que son los que más preocupan a algunos sectores. Por ejemplo, se ha alertado acerca de que en naciones aspirantes a ingresar a la Unión Europea y que muestran algunas tendencias autoritarias, como Serbia, la aplicación de la DSA puede ser utilizada para “facilitar la censura de las voces críticas hacia el gobierno”.
El inventario de internet: más allá de la infraestructura
Frente a todo esto hay otros asuntos no relacionados estrictamente con delitos, transgresiones, libertad de expresión y ciudadanía digital, pero que también representan cuestiones altamente sensitivas.
Una de ellas es la neutralidad de la red. Se trata de que el tráfico deba ser tratado igualitariamente sin que se apliquen preferencias, bloqueos o tarifas discriminatorias según la página web, plataforma, aplicación, etc. a la cual se busque acceder[7].
Otra es la defensa de la competencia: es la posición dominante de buscadores y sus efectos, tales como el conflicto económico entre Google y medios de prensa por su indexación en la sección de noticias del primero (que le detrae audiencia a los medios debido a que muchos sólo ven los titulares de la indexación) o la fuerte concentración (y esta sí es real) de la publicidad digital mundial en dicho buscador y un puñado de plataformas.
Una cuestión más es el llamado derecho al olvido en Internet. Es decir, la posibilidad de eliminar de la red o de que buscadores no muestren o releguen información considerada perjudicial para una persona, no necesariamente falsa y a pedido de la misma persona.
Ese “derecho al olvido” está admitido en fallos judiciales de algunos países o en ciertos ordenamientos legales nacionales, en distintos grados y extensiones. Pero se enfrenta a la crítica de defensores de libertades políticas, expresivas y civiles que lo ven como una forma de censura o restricción del acceso a la información general o pública; para peor si es promovido tan solo a partir del juicio subjetivo de la misma parte interesada, como una forma de “reescribir” su propia historia. ¿Podría Hitler usar el “derecho al olvido” para minimizar en las búsquedas a los campos de concentración y destacar, más bien, su pionera política antitabáquica o su supuesto amor por los animales?
En suma, el inventario que nos deja hoy Internet, la manifestación más acabada y ubicua de las TIC en la actual etapa de la historia, presenta también un muy importante aspecto jurídico y normativo de enorme relevancia para los derechos individuales y el sistema político, algo que va mucho más allá de las cuestiones de infraestructura o los análisis de marcos regulatorios generales.
En ese aspecto se involucran —entre otras— cuestiones de libertad de expresión, seguridad ciudadana, libertad de ejercer el comercio, derecho al consentimiento informado, protección de menores, acciones contra actos de intimidación y limitación del poder del Estado por igual. Paradójicamente, estos factores interactúan muchas veces en juegos de suma cero: para llegar a defender el que se supone que es el bien jurídicamente tutelado en cada caso, alguno deberá avanzar en detrimento del otro.
Si bien hoy tenemos más preguntas que respuestas, será un verdadero desafío jurídico, político y comunicacional encontrar un punto de equilibrio entre todos los factores antes aludidos.
Aunque ni siquiera es fácil lograrlo en el mundo real, el mundo digital requiere un marco en el cual las libertades, derechos y obligaciones de los usuarios (que son también ciudadanos y consumidores), así como de los prestadores, estén debidamente equilibrados y preservados. Ese marco, además, debe ser objeto del suficiente consenso y de una aplicación clara y eficaz. Todo, con la libertad como un valor guía, perotampoco sin contradecirse con un criterio razonable de responsabilidad[8]. Claro que todo esto es muy fácil escribirlo y queda muy bien decirlo. Pero otra cosa es concretarlo.
Este artículo, con adaptaciones y reformulaciones, es parte de una publicación del autor: Los Caminos de la Conectividad: Índice de Indicadores Básicos de Infraestructura de Tecnología de Información y Comunicaciones en América Latina (Índice-IBITIC/AL).
Se trata de un índice donde se califica a cada uno de los países latinoamericanos según mediciones de su infraestructura TIC, a partir de cálculos propios y uso de datos de organismos multilaterales, asociaciones del sector y reguladores. Adicionalmente, se incluyen notas similares a esta sobre temas multidisciplinarios y de actualidad referidos a las TIC.
Los Caminos de la Conectividad (Indice IBITIC/AL)será publicado en fecha próxima por CESCOS Centro para el Estudio de las Sociedades Abiertas, un think tank con sede en Montevideo, Uruguay, en conjunto con la Fundación Friedrich Naumann para la Libertad en Argentina, Brasil, Paraguay, Uruguay, en Buenos Aires.
Los puntos de vista son de exclusiva responsabilidad del autor y no necesariamente reflejan la opinión de CESCOS o de la Fundación Friedrich Naumann para la Libertad.
Los Caminos de la Conectividad (Índice IBITIC/AL) también será reseñado oportunamente por Convercom.Mas información en: https://cescos.org. También en https://www.freiheit.org/es/argentina-brasil-paraguay-y-uruguay)
[1] Según la Real Academia Española (que adoptó el término a partir de su uso en el Río de la Plata): “manifestación popular de protesta contra una persona, generalmente del ámbito de la política o de la Administración, que se realiza frente a su domicilio o en algún lugar público al que deba concurrir”. (https://dle.rae.es/escrache)
[2] Sin embargo, si uno considerase en su totalidad a una red social como X o Facebook no tanto como un ágora de discusión sino como un medio de comunicación como lo son el Washington Post o Radio Rivadavia —y de hecho compiten en términos de atención y publicidad con esos medios clásicos— podría decirse que el titular de tales redes es el editor. Y, como tal, en esa lógica, también gozaría del derecho de definir y editar sus contenidos y decidir cómo “modera” los mensajes: cuando el editor de un diario no contrata o no le da voz a determinada figura o periodista no lo está “censurando” sino definiendo sus contenidos o la línea editorial del medio.
[3] De hecho, en la Argentina el decreto 5490 (1965) que reglamentó la ley de radiodifusión de 1957 imponía a las emisoras “tratar sólo en firma incidental todo lo relacionado con (…) astrología”.Esta disposición se mantuvo en normas sucesivas hasta que se derogó en 1991. En la práctica, la disposición fue interpretada durante su vigencia de más de 25 años como la prohibición de transmitir horóscopos por radio o televisión, lo que nunca abarcó diarios o revistas.
Así, y de manera bastante curiosa, cuando durante ese periodo el conocido astrólogo mediático argentino Horangel (Horacio Germán Tirigall, fallecido hace pocos años), hacía apariciones en TV en los años 60 a los 80, debió estructurarse un programa especial para él (“Los doce del signo”) que remedaba un formato de panel periodístico. Cada panelista correspondía a un signo zodiacal. Esto le daba la oportunidad de tratar temas astrológicos en forma “incidental”, para adecuarse a la reglamentación.
[4] La lista de sitios bloqueados en Enacom: https://www.enacom.gob.ar/bloqueo-de-sitios-web_p3286
[5] Ley 12965 23.05.2014.
[6] La Sección 230 estaba contenida originalmente en un agregado a la Communications Act llamado Communications Decency Act (CDA) y que buscaba regular la pornografía en Internet. La Corte Suprema de Justicia declaró inconstitucional en 1997 esa parte de la CDA, pero mantuvo la Sección 230.
[7] Esto no debe ser confundido con los cargos que eventualmente puede cobrarle al usuario un sitio web, plataforma, aplicación, etc. para acceder o usar su producto o sus servicios. La neutralidad de la red se refiere a que ni el gobierno ni el ISP deben establecer bloqueos o restricciones arbitrarias a tales sitios, etc. y que el consumo de datos necesarios para acceder o usar tales productos no pueda ser facturado diferencialmente (por ejemplo, un ISP que imponga una tarifa más alta a los usuarios que usan aplicaciones OTT de streaming de video como Netflix o que las bloquee a usuarios que no abonen un posible cargo extra).
En la gran mayoría de las naciones, el principio de la neutralidad de la red está nominalmente vigente pero en los últimos tiempos ha sido objetado y aun se han tolerado algunas excepciones. En ciertos mercados, servicios de telefonía móvil celular con Internet y con un abono que fija un monto limitado de datos, ofrecen a su vez acceso sin costo —es decir, diferenciado— a algunas aplicaciones como WhatsApp, lo que en realidad implica cierta violación parcial de la neutralidad de la red.
La FCC de Estados Unidos eliminó la neutralidad de la red en 2017 y la restableció en 2024. Los partidarios de la neutralidad dicen que este principio se consagró desde el nacimiento de Internet y le dio su carácter de espacio abierto y libre. Sin embargo, sus detractores dicen que puede trabar la innovación y la financiación de nuevos productos o servicios digitales por parte de interesados en financiarlos o pagarlos en forma extra.
[8] Una entidad que estudia estos temas en la Argentina es el Centro de Estudios en Libertad de Expresión y Acceso a la Información (CELE) de la Facultad de Derecho de la Universidad de Palermo (UP) en Buenos Aires. Fue creado en el año 2009 con el objetivo de “proveer de investigaciones a periodistas, instituciones gubernamentales, unidades académicas, y demás sectores de la sociedad civil dedicados a la defensa y a la promoción de estos derechos, especialmente en América Latina”. Con el tiempo se ha concentrado y especializado en seguir y analizar proyectos y regulaciones en los países latinoamericanos que afecten la libertad de expresión y otros derechos en Internet. Ver https://www.palermo.edu/cele/ y https://observatoriolegislativocele.com/
Una visión de la situación general mundial de Internet y en países específicos en torno a regulaciones y libertades está analizada en un informe que se da conocer cada año por parte de la ONG independiente Freedom House, con sede en los Estados Unidos. Hace muy poco, en octubre de 2024, salió el último informe, que cubre 2023 y los primeros meses de 2024: Freedom House (2024). Freedom on the Net. Washington, DC : Freedom House (ver mapa y links más arriba).
Hacé tu comentario