Primera ley de IA entraría en vigor en mayo

A la par de los beneficios hay preocupación por los riesgos que implicaría utilizar la Inteligencia Artificial (IA) de manera equivocada. Los gobiernos trabajan para encontrar un marco normativo que dé seguridad jurídica. En este esfuerzo el Parlamento de la Unión Europea (UE) ratificó la primera ley de IA del mundo, allanando el camino para la legislación de esta tecnología.
Por Adriana Reyes Urrutia
El Parlamento de la UE ratificó la primera ley de IA del mundo el 13 de marzo pasado, luego de que el 21 de abril de 2021 aprobara un marco normativo pionero que buscaba armonizar y sentar las bases para otorgar seguridad jurídica de cara a estimular la inversión e innovación, promulgando un conjunto de normas para salvaguardar los derechos fundamentales y la seguridad. La aparición a finales de 2022 del ChatGPT dio el empuje definitivo para llegar a la ley, la cual se prevé que entre en vigor en mayo de este año.

En términos generales, la necesidad de una ley de IA surge del riesgo de no actuar ante el uso equivocado de la IA porque, a medida que la IA aumenta en complejidad, los procesos por los cuales toma decisiones se volverán cada vez más oscuros, reduciendo el poder para formular objeciones tanto de los ciudadanos como de los gobiernos, entre otras situaciones.

Pero no todo es a favor de la ley de IA, hay voces que apuntan que la legislación puede frenar la innovación. Datos del Parlamento Europeo indican que actualmente solo el 3% de los unicornios de IA del mundo proceden de la UE, con una inversión privada en IA unas 14 veces mayor en Estados Unidos y cinco veces más en China. Sin embargo, hay estimaciones que sugieren que el alcance regulatorio y la aplicación geográfica de la ley europea podría plantear desafíos significativos para plataformas estadounidenses. Para 2030, se espera que el mercado mundial de la IA alcance los 1.5 billones de dólares.

ENFOQUE DE LA LEY
Este primer marco regulador de la Unión Europea para la IA tiene dos objetivos principales:

1. Seguridad para la ciudadanía, garantizando que los sistemas de IA usados en la UE e introducidos en el mercado europeo sean seguros y respeten los derechos de los ciudadanos.

2. Estimular la inversión y la innovación en el ámbito de la IA en Europa.

Según la ley de IA, los sistemas de aprendizaje automático se dividirán en cuatro categorías principales en función del riesgo potencial que supongan para la sociedad:

Riesgo inaceptable. Algunos ejemplos son los sistemas orientados a la manipulación cognitiva conductual o el rastreo indiscriminado de imágenes faciales extraídas de la web. Las únicas excepciones, muy delimitadas y protocolizadas, tienen que ver con usos de extrema urgencia que requieren una autorización judicial.

Riesgo alto. IA usada en infraestructuras críticas, formación, empleo, servicios esenciales, procesos judiciales y democráticos, control fronterizo, etc. estarán sometida a estrictos requisitos y certificaciones y no podrán comercializarse hasta que el organismo regulador les dé su aprobación.

Riesgo limitado. Los usos asociados a la falta de transparencia, como texto informativo sobre temas de interés público redactado por una IA o chabot. En estos casos las aplicaciones están sometidas a requisitos de etiquetado para aclarar que se trata de sistemas de IA.

Riesgo mínimo. La mayoría de los sistemas usados actualmente como filtros de sapam o videojuegos con IA integrada tienen permitido el uso libre sin requisitos ni obligaciones.

Las normas generales sobre IA se aplicarán un año después de su entrada en vigor, según las previsiones en mayo de 2025, y las obligaciones para los sistemas de alto riesgo en tres años. Estarán bajo la supervisión de las autoridades nacionales, apoyadas por la oficina de IA dentro de la Comisión Europea, pero corresponderá a los Estados miembros crear agencias nacionales de supervisión para lo cual tienen 12 meses.

OTROS ESFUERZOS
Varios países están intentando desarrollar normas de regulación para la inteligencia artificial de forma segura, confiable y que tome en cuenta los riesgos y las oportunidades que esta tecnología conlleva. En México, de acuerdo con los datos disponibles, existen 19 iniciativas provenientes de los partidos representados en el Congreso para regular distintos aspectos de la Inteligencia Artificial.

En Estados Unidos, el 30 de octubre pasado, el presidente Joe Biden firmó una Orden ejecutiva sobre el desarrollo y uso seguro y confiable de la inteligencia artificial que cuenta con ocho principios rectores y prioridades como el que la IA sea segura, haya el compromiso de apoyar a los trabajadores estadounidenses y proteja los intereses de los estadounidenses que utilizan cada vez más en su vida diaria.

En la India en noviembre del año pasado el gobierno anunció que comenzaba a redactar un reglamento para regular y penar el uso de imágenes ultrafalsas o “deepfake” creadas con inteligencia artificial convertidas en amenazas para la sociedad; según las autoridades la postura de este país es trabajar en una regulación global de IA.

En China el 15 de agosto de 2023 entraron en vigor las Medidas Provisionales para la Gestión de Servicios de Inteligencia Artificial Generativa que establecen una serie de reglas, que los distintos componentes de la cadena de valor de la inteligencia artificial deben observar en el desarrollo de esta tecnología. Van desde cuestiones políticas que deben ser tomadas en cuenta por los desarrolladores de contenido con inteligencia artificial, pasando por cuestiones de discriminación, ética comercial, transparencia, etiquetado de datos, obligaciones de los proveedores y derechos de los usuarios.

En Chile, en abril de 2023 el Congreso abordó la iniciativa proyecto de Ley que Regula los Sistemas de Inteligencia Artificial, la Robótica y las Tecnologías Conexas en sus distintos ámbitos. Considera sistemas de riesgo inaceptable y sistemas de alto riesgo, a ambos les asigna prácticamente las mismas definiciones que la iniciativa europea.

En Brasil, se han presentado dos proyectos de ley uno en 2020 y otro en 2023. El más reciente recoge prácticamente el mismo enfoque que el de la UE, aunque también incluye derechos específicos de las personas afectadas por la IA.

Argentina ha aprobado una serie de Recomendaciones para una IA fiable, orientadas exclusivamente a quienes formen parte del sector público y que están basadas sobre todo en estándares internacionales sobre principios éticos de la inteligencia artificial, incluidos en documentos como las Recomendaciones sobre la ética de la IA de la Unesco, los principios de la OCDE sobre Inteligencia Artificial y la Conferencia de Asilomar organizada por el instituto Future of Life.

Respecto a la OCDE, los 36 países que la integran, incluido México, firmaron en mayo de 2019, un primer conjunto de directrices de políticas intergubernamentales en materia de inteligencia artificial, que consideran seis principios y cinco recomendaciones para la elaboración de políticas públicas o regulaciones sobre Inteligencia Artificial.

Los principios se pronuncian por el desarrollo sostenible y el bienestar de las personas, así como salvaguardias adecuadas con miras a garantizar una sociedad justa y equitativa. La transparencia y una divulgación responsable también son contemplados, así como la evolución y gestión de los potenciales riesgos.

NO HAY VUELTA ATRÁS
De acuerdo con el Índice de Inteligencia Artificial de la Universidad de Stanford, en 2023 se produjeron 32 modelos de inteligencia artificial dentro de la industria y solo 3 en la academia, estos datos nos dejan ver los alcances de la IA que van tomando en nuestra vida diaria. Según Grand View Research, se espera que el tamaño del mercado global de la IA crezca 37% cada año desde 2023 hasta 2030. En 2023 el mercado se valoró en 196,63 mil millones de dólares.

La regulación de la IA ya no responde a la pregunta de si se debe desarrollar o no, sino a cómo tiene que hacerse de la mejor manera para no afectar a los usuarios, a los desarrolladores, a las empresas y a los gobiernos. Según datos publicados en la Gaceta UNAM, cerca del 80% de las personas en algunos países utilizan inteligencia artificial, incluso sin darse cuenta; sólo la tercera parte está consciente de ello.
*Editora News IMEF.
adria.urrutia@gmail.com
Las opiniones expresadas en este artículo son de exclusiva responsabilidad del autor y no representan la opinión del IMEF.

Suscríbete a IMEF News

Análisis y opinión de expertos en economía, finanzas y negocios para los tomadores de decisiones.

Te puede interesar

El IMEF reduce estimación del PIB 2024 y 2025

El marco macroeconómico presenta algunos ajustes en sus variables, comenzando por una reducción en el crecimiento del PIB esperado para el presente año de 2.1% hace un mes a 2.0% en la Encuesta Mensual de Expectativas IMEF de julio.

México ‘respira’: EE.UU. acuerda extender consultas del T-MEC sobre política energética

Las conversaciones entre México y EE. UU. para llegar a un acuerdo en materia energética bajo el T-MEC completaron el tiempo mínimo requerido de 75 días.

Iniciativa de reforma en materia administrativa atenta contra el Estado de Derecho

Ante la iniciativa con Proyecto de Decreto por el que se reforman, adicionan y derogan diversas disposiciones en materia administrativa presentada por el Ejecutivo Federal, el IMEF externa su preocupación por las serias repercusiones que implicarían.

¿Qué dicen las cifras de inversión extranjera directa de México?

En los primeros 9 meses del año, la inversión extranjera directa alcanzó un nuevo máximo histórico; sin embargo, hay datos que indican que persiste el deterioro de la nueva inversión y que Estados Unidos y Canadá, socios de México en el TMEC, han perdido relevancia.

Desaceleración adicional de la economía: Encuesta mensual de expectativas IMEF

La encuesta de marzo muestra una desaceleración adicional de la economía. La proyección de crecimiento del producto interno bruto arroja una mediana de únicamente 0.6% contra 1% el mes anterior.

Balance primario deficitario

De acuerdo con los Criterios Generales de Política Económica enviados por el presidente López al Congreso de la Unión, el gobierno plantea un gasto neto de nueve billones de pesos, incurriendo en un flujo de financiamiento neto de 1.9 billones (5.4% del PIB) para cubrir el déficit, con lo cual el saldo de los requerimientos financieros del sector público llegaría en 2024 a 16.9 billones de pesos, representando el 48.8% del PIB y 6 billones de pesos más que el saldo al final de 2018.

¿Cómo vamos a cinco años de la Cuarta Transformación?

En este artículo se presentan nueve rubros de cómo vamos a cinco años de la Cuarta Transformación y tres pendientes prioritarios para la próxima administración.