La inteligencia artificial presenta grandes beneficios para la sociedad y por eso es importante promover su desarrollo y adopción en beneficio de las personas, evitando comenzar por una regulación rígida que levante barreras a la innovación. Hoy en Argentina lo esencial es pensar cómo podemos adelantarnos para aprovechar los beneficios que la IA puede traer al desarrollo productivo sin apurarnos con un marco regulatorio que puede quedar rápidamente obsoleto o resultar poco óptimo para los objetivos de desarrollo.

Como todo avance tecnológico con impacto en la vida cotidiana de las personas, la IA genera dudas y preocupaciones por parte de los legisladores, los reguladores, la comunidad científica, los actores de la sociedad civil y los ciudadanos en general. Pero esas inquietudes no deben esconder los beneficios que la adopción de la inteligencia artificial en la vida cotidiana genera, tanto para las personas en forma individual como para la sociedad en general. Así por ejemplo los sistemas inteligentes de detección temprana de desastres naturales o las posibilidades que la IA aporta para la optimización de cultivos y otras actividades productivas no deben olvidarse.

Cuando hablamos de legislar el objetivo debe ser fomentar el uso correcto, es decir en forma compatible con los derechos de la personas y sin generar prohibiciones generales ni trabas a la innovación.

Modelos normativos comparados

En la actualidad, a nivel global hay dos visiones acerca de cómo tratar la regulación de la Inteligencia Artificial. Por un lado, está el enfoque normativo horizontal, que es el que aplica la Unión Europea, donde se busca establecer una legislación general que abarque todos los usos posibles de esta tecnología. Por otro lado, está el enfoque normativo vertical o sectorial, con el que se identifican los países como el Reino Unido, Japón y EEUU.

El enfoque horizontal propone aplicar una misma regulación a las aplicaciones en distintos sectores, estableciendo distinciones en función de los impactos y posibles riesgos generados por la Inteligencia Artificial. En este modelo es el Estado quien controla la tecnología, habilitando sus diferentes usos en la medida que los riesgos e impactos sean aceptables. Este modelo es reconocido por ser estable, ya que garantiza una misma línea regulatoria para todas las aplicaciones y usos, pero como contrapartida es rígido, no es fácil de modificar y no es  adaptable a usos específicos, por lo cual puede generar desincentivos a la innovación.

El enfoque vertical, en cambio, se centra en casos de uso específicos de la Inteligencia Artificial con un perfil de riesgo alto, sin intervenir en los restantes usos que no generan preocupación. Mediante normas específicas se busca cubrir los vacíos legales y  las situaciones no previstas, dejando la facultad regulatoria en las autoridades sectoriales. Este modelo es más flexible y en cierta medida implica una regulación personalizada para los casos en que el riesgo o el impacto de una aplicación particular lo requieran. Esta aproximación, desde nuestro punto de vista, es más compatible con los principios constitucionales que garantizan el derecho a ejercer toda industria lícita y con la libertad de los emprendedores para desarrollar innovaciones basadas en la Inteligencia Artificial.

Aportes para un debate legislativo

Desde Cabase queremos señalar algunos aspectos que deberían  tenerse en cuenta al momento empezar a pensar una regulación de la IA:

  • Partir de un enfoque basado en riesgos e impactos:  No todas las aplicaciones de IA poseen el mismo impacto en los derechos de las personas, ni operan de la misma manera, por eso al pensar la regulación es clave identificar los posibles riesgos e impactos. En este sentido consideramos una buena práctica categorizar a la inteligencia artificial en función de sus riesgos y dejar las regulaciones para aquellas que generen los riesgos más altos o posibles impactos incompatibles con los derechos de las personas. Así, por ejemplo, las aplicaciones médicas o de salud deben tener una regulación más rigurosa que aquellas que utilizamos para entretenimiento. Asimismo, al implementar un enfoque basado en riesgos se deben considerar los beneficios que se obtienen a través de esta tecnología, debiendo abordarse de manera holística tanto los riesgos que implica para las personas, como los beneficios que pueden generar para la sociedad.
  • Establecer principios regulatorios: la regulación sobre la IA tiene que ser flexible para adaptarse a la evolución tecnológica permanente, sin generar barreras a la innovación ni soluciones únicas y rígidas que no sean moldeables a situaciones emergentes o imprevistas producto del desarrollo tecnológico. En este sentido los principios recomendados por la OCDE en 2019 y actualizados en 2024 son un buen ejemplo. En línea con este enfoque de principios que guíe el diseño, desarrollo y aplicación de la IA, consideramos que no resulta conveniente pensar en un diseño institucional con una autoridad única en materia de inteligencia artificial sino que son las autoridades sectoriales, quienes se encuentran en mejor posición para evaluar los casos en los que hay que regular y los alcances de la regulación. Asimismo, una regulación de principios simplifica su implementación posterior y favorece su cumplimiento por parte de los distintos actores alcanzados.   
  • Fomentar la autorregulación y la corregulación: la tecnología se encuentra en permanente evolución y son sus desarrolladores quienes se encuentran en la mejor posición para analizar sus riesgos e impactos. Por lo tanto la regulación no debe inhibir las propuestas de autorregulación y de corregulación. Estas medidas regulatorias se complementarán con regulaciones estatales en los casos específicos en los que el interés público lo requiera, y cuentan con ventajas relativas a la información disponible, flexibilidad y aplicación efectiva.
  • Visión Integral de la cadena de valor de la IA: Esta suele ser muy extensa y sofisticada, partiendo de los proveedores del hardware y la infraestructura digital, los desarrolladores, implementadores y usuarios, nacionales y extranjeros, por eso cuando se piense en una regulación, hay que establecer claramente quién es el destinatario de la misma, de modo de asegurar la seguridad jurídica y evitar ambigüedades que puedan  desalentar la innovación. Este principio aplica también para la atribución de responsabilidades que no puede ser hecha en manera objetiva sino contemplando la participación específica de cada uno de los actores de la cadena de valor. En esta línea se recomienda tener en cuenta los roles y funciones de los proveedores de infraestructura digital como conectividad, centros de datos y servicios de cloud, de los  desarrolladores, quienes proveen el sistema de Inteligencia Artificial en general; los implementadores, los que hacen una tecnología para usuarios finales; y los usuarios, que son quienes aprovechan esa tecnología en concreto.
  • Aplicabilidad de las leyes vigentes:  a partir de la idea de adoptar un sistema de regulación vertical y no una norma general que busque abarcar todos los usos y las aplicaciones de la inteligencia Artificial, tenemos que tener en cuenta que hay muchas leyes vigentes que son aplicables a esta tecnología. Así por ejemplo la ley  25.326 sobre Datos Personales,  la Ley 26.388 sobre Delitos Informáticos, la Ley 24.240 de Defensa del Consumidor, por citar algunas, alcanzan a la Inteligencia Artificial y si bien es probable que se requiera de adaptaciones y actualizaciones no debemos olvidar que son plenamente aplicables. Esta es otra razón por la cual no conviene apurarse a regular a la Inteligencia Artificial de manera general sino que conviene efectuar las adecuaciones que requieran las normas existentes cuando se identifiquen riesgos o impactos no cubiertos.
  • Agilidad y flexibilidad: la evolución constante de la Inteligencia Artificial tiene que ser considerada a la hora de establecer revisiones periódicas de las normas que busquen regular sus usos, sin establecer restricciones pétreas que con posterioridad no se puedan levantar o modificar. En este sentido la recomendación sería regular lo menos posible (principio de regulación mínima) y siempre evaluando previamente el el tipo de riesgo o impacto que genere cada uso. Este principio desaconseja también los modelos regulatorios en los que se exige de una autorización o inscripción previa por parte del desarrollador del sistema o aplicación de Inteligencia Artificial como paso previo para realizar la actividad. La libre innovación debe ser la regla y la excepción serán los casos en los que el riesgo o impacto no sea compatible con los derechos de las personas.
  • Promover interoperabilidad de los regímenes legales: Dada la naturaleza global de muchas de las aplicaciones de Inteligencia Artificial es de extrema importancia considerar la naturaleza transnacional de lo que se quiere regular, evitando la imposición de requisitos y obligaciones que no se alineen con las mejores prácticas internacionales y adoptando definiciones internacionales que permitan la interoperabilidad de los distintos sistemas jurídicos.

Sin duda estamos ante una tecnología que genera un impacto positivo en la vida de las personas y en la productividad de los países que debe aprovecharse sin generar obstáculos a la innovación o barreras al desarrollo de nuevos servicios y aplicaciones que permitan el aprovechamiento de esos beneficios por la sociedad en su conjunto.


El autor es director de la Comisión de Legales y Políticas Públicas de la Cámara Argentina de Internet (Cabase). Este texto se basa en la presentación realizada en el conversatorio Desafíos Legislativos en la Era de la Inteligencia Artificial organizado por los diputados Silvana Giudici y Martín Yeza el jueves 5 de septiembre de 2024 en el edificio anexo de la Cámara de Diputados de la Nación

Ayudanos a seguir pensando, buscando y elaborando información para conectar a la sociedad. Si valoras lo que hacemos....

Invitame un café en cafecito.app
Buy Me a Coffee at ko-fi.com

Hacé tu comentario

Por si acaso, tu email no se mostrará ;)