C贸mo nos afecta la nueva Ley Europea de IA

Picture of Fernando Perez - Cofundador y Director Corporativo
Fernando Perez - Cofundador y Director Corporativo
Expertos
Tabla de contenidos

Se ha hablado y publicado mucho en las 煤ltimas semanas sobre la aprobaci贸n de la nueva Ley Europea de Inteligencia Artificial (conocida como 鈥UE IA Act鈥), especialmente sobre el hecho de que Europa ser谩 pionera en controlar la aplicaci贸n de la IA o c贸mo pondr谩 coto al poder de las grandes empresas tecnol贸gicas, especialmente a las estadounidenses; sin embargo, apenas se ha profundizado en qu茅 es lo que regula y c贸mo lo har谩, pero s铆 es cierto que constituye la primera normativa relacionada con la IA de un regulador importante en cualquier lugar del mundo.

La Ley Europea de IA es un Reglamento, 驴qu茅 quiere decir esto?

En primer lugar, se debe aclarar que en realidad m谩s que una Ley sobre la Inteligencia Artificial en s铆 misma, que ser铆a un concepto tremendamente difuso, es una regulaci贸n de los usos de la IA en el entorno de la UE articulada a trav茅s de un Reglamento. 

La segunda cuesti贸n obviamente es qu茅 es un Reglamento. En la Uni贸n Europea, se legisla por medio de distintos tipos de actos, esencialmente cinco:

  • Reglamentos.
  • Directivas.
  • Decisiones.
  • Recomendaciones.
  • Dict谩menes.

Algunos son vinculantes y otros no, algunos se aplican a todos los pa铆ses de la UE y otros solo a algunos.  

Un Reglamento es de aplicaci贸n general a categor铆as abstractas de personas (no personas identificadas), es obligatorio en todos sus elementos y se aplica directamente tras su entrada en vigor en los Estados miembros, sin tener que ser transpuesto al Derecho nacional.  

La tercera cuesti贸n ser铆a qu茅 implica esto para las empresas y ciudadanos de cada pa铆s, porque quiz谩 la palabra Reglamento no tiene un significado suficientemente expreso (de ah铆 que se suelan denominar 鈥楢ct鈥 o Ley), pero un Reglamento es el acto legislativo m谩s importante en la UE, pues es de cumplimiento obligatorio, vinculante y de aplicaci贸n directa, no necesita ser 鈥榓daptado鈥 a la legislaci贸n de cada pa铆s.  

Y es que en la legislaci贸n europea no existe puramente el concepto ni la palabra 鈥楲ey鈥 como en Espa帽a o la mayor铆a de los pa铆ses miembros, pero en la pr谩ctica un Reglamento es equivalente a una Ley que atribuye derechos y obligaciones a los particulares y empresas, quienes pueden invocarlo directamente ante los tribunales nacionales, y que pueden utilizarlos como referencia en sus relaciones mutuas, con los Estados miembros o con las autoridades de la UE. 

Es decir, nos afecta a todos los particulares y empresas, en toda la UE y no puede existir ninguna normativa de rango nacional, auton贸mica o local por encima ni que contravenga el Reglamento.

Hay tres aspectos fundamentales sobre c贸mo nos afecta: los plazos, a qu茅 tipo de servicios y a quienes. 

 1.- Los plazos  

Sobre los plazos, debe resaltarse que aunque ha sido aprobada en un momento en el que la IA est谩 en un punto de m谩ximo inter茅s, no ha sido consecuencia de ella, y estrictamente no est谩 en vigor a煤n.  

Antecedentes 

La Uni贸n Europea comenz贸 a barajar opciones para regular la Inteligencia Artificial a finales del a帽o 2018, cuando present贸 por primera vez una estrategia de IA y acord贸 un plan coordinado con los Estados miembros. Un a帽o despu茅s, la Comisi贸n Europea estableci贸 entre sus prioridades para 2019-2024 conseguir una Europa preparada para el mundo digital, donde se inclu铆a el debate sobre una inteligencia artificial humana y 茅tica. En 2019, la Comisi贸n public贸 las Directrices 茅ticas para una Inteligencia Artificial de confianza y en 2020 vio la luz el Libro Blanco sobre Inteligencia Artificial, una estrategia industrial de la IA para que Europa adopte y lidere el desarrollo de esta tecnolog铆a, a la vez que propone un marco legislativo que impulse la confianza en la IA respetando los derechos fundamentales y la 茅tica de Europa. 

Cronolog铆a de la Ley 

El inicio efectivo de la Ley llega en 2021, cuando se publica la primera propuesta para regular los usos de la IA con el fin de abordar adecuadamente los beneficios y riesgos de su uso. En concreto se trata de la COM/2021/206, del 21 de Abril de 2021 y cuyo objetivo es 鈥榠ntroducir un marco normativo y jur铆dico 煤nico para los sistemas de inteligencia artificial que operen en la UE鈥. 

Tras pasar por las distintas Consultas P煤blicas y Comisiones (muchas) del Parlamento con sus correspondientes (miles) de enmiendas de los grupos parlamentarios, en Diciembre de 2022, el Consejo de la UE adopt贸 su posici贸n com煤n (芦orientaci贸n general禄) sobre la Ley de AI

Entre Junio y Diciembre de 2023, el Parlamento y el Consejo alcanzan un acuerdo provisional sobre la Ley de AI y adopta su posici贸n tras su aprobaci贸n a nivel pol铆tico y t茅cnico por los Estados miembros. Y finalmente, el 13 de Abril de 2024 la Ley fue aprobada en el Parlamento por amplia mayor铆a. 

No obstante, no est谩 todav铆a en vigor, pues a煤n est谩 sujeta a una 煤ltima comprobaci贸n jur铆dica-ling眉铆stica y su aprobaci贸n definitiva mediante el llamado procedimiento de correcci贸n de errores, y pendiente de su adopci贸n formal por el Consejo, est谩 prevista para antes del final de la legislatura en Junio de 2024. 

Efectividad de la Ley 

La Ley de IA entrar谩 en vigor 20 d铆as despu茅s de su publicaci贸n en el Diario Oficial y ser谩 de plena aplicaci贸n 24 meses despu茅s de su entrada en vigor (previsiblemente en torno a verano de 2026), pero con ciertas excepciones, que se adelantan o se atrasan, en concreto las siguientes son las m谩s relevantes: 

  • La prohibici贸n de las pr谩cticas consideradas inaceptables que se aplicar谩n 6 meses despu茅s de la fecha de entrada en vigor 
  • Los c贸digos de buenas pr谩cticas que se implantar谩n 9 meses despu茅s 
  • Las normas sobre la IA de uso general (GPAI), incluida la gobernanza que se aplicar谩n 12 meses despu茅s 
  • Las obligaciones para los sistemas de alto riesgo, que se aplicar谩n 36 meses despu茅s (mediados de 2027) 

La supervisi贸n 

Las normas generales sobre IA estar谩n bajo la supervisi贸n de las autoridades nacionales, apoyadas por una oficina de IA de nueva creaci贸n dentro de la Comisi贸n Europea, y corresponder谩 a los Estados miembros crear agencias nacionales de supervisi贸n.  

En principio, los pa铆ses tienen 12 meses para nombrar a estos organismos de vigilancia; en Espa帽a con toda seguridad ser谩 la AESIA (Agencia Espa帽ola de Supervisi贸n de la Inteligencia Artificial), que tendr谩 su sede en A Coru帽a y depender谩 del Ministerio para la Transformaci贸n Digital y de la Funci贸n P煤blica, por medio de la Secretar铆a de Estado de Digitalizaci贸n e Inteligencia Artificial. No obstante, la AESIA, si bien ha sido anunciada, no se constituido aun formalmente, encontr谩ndose actualmente en proceso de contrataci贸n de personal 

2.- Qu茅 regula 

La definici贸n de 芦sistema de IA禄 es, literalmente la siguiente, seg煤n el Art铆culo 3 [1] de la Ley:  

Ya que la definici贸n es muy amplia, el aspecto clave de la Ley es saber a qu茅 sistemas se aplica, ya que contrariamente a lo que su nombre parece indicar, realmente no aplica a cualquier sistema que utilice elementos de IA en su funcionamiento. Lo fundamental de la Ley es que clasifica las aplicaciones de IA en cuatro categor铆as de riesgo:  

  • En primer lugar, las aplicaciones y sistemas que crean un riesgo inaceptable, que quedan directamente prohibidos; ejemplos de ellos son los sistemas de puntuaci贸n social, de reconocimiento biom茅trico en espacios p煤blicos, de manipulaci贸n emocional, de prevenci贸n de delitos mediante perfilado, etc. 
  • En segundo lugar, se encuentran las aplicaciones de alto riesgo, que estar谩n sujetas a requisitos legales estrictos y espec铆ficos; ejemplos de ello son la gesti贸n de infraestructuras cr铆ticas, decisi贸n de acceso a formaci贸n educativa o profesional, administraci贸n de justicia y procesos democr谩ticos, etc. 
  • En tercer lugar est谩n los sistemas de IA de riesgo limitado, sujetos 煤nicamente a obligaciones de transparencia, dirigidas a garantizar que los usuarios finales sean conscientes de que est谩n interactuando con un sistema de IA o con contenido generado por IA; fundamentalmente estas obligaciones van dirigidas a evitar la desinformaci贸n o los llamados 鈥榙eepfakes鈥, y tambi茅n aplicar铆an a ciertos tipos de chatbots o asistentes virtuales. 
  • Por 煤ltimo, est谩n las aplicaciones de riesgo m铆nimo o nulo, en las que se engloban todas las que no est谩n expl铆citamente prohibidas o catalogadas como de alto riesgo y que no requieren obligaciones de transparencia, y que quedan libres de regulaci贸n. 

Sin estar encuadrados espec铆ficamente en ninguno de los casos anteriores, existe un apartado espec铆fico para los modelos de IA de prop贸sito general (GPAI), como los LLM鈥檚, que deben proporcionar documentaci贸n t茅cnica, instrucciones de uso, cumplir la Directiva sobre derechos de autor o propiedad intelectual y publicar un resumen sobre los contenidos utilizados el entrenamiento de los modelos.  

Con toda probabilidad, la vertiginosa evoluci贸n tecnol贸gica de este tipo de modelos ha hecho que sea imposible encuadrarlos en una categor铆a espec铆fica de riesgo, pues es imposible predecir cu谩les ser谩n sus capacidades futuras y sus casos de uso; por ello el regulador ha optado por definirlos como un riesgo 鈥榮ist茅mico鈥, que en la pr谩ctica equivale a decir que en este momento no es posible la identificaci贸n, evaluaci贸n y medici贸n de sus riesgos, pero que pueden ser potencialmente muy elevados y por tanto deben ser evaluados peri贸dicamente. 

Como resumen de este punto debe destacarse que la mayor parte del texto aborda los sistemas prohibidos y los sistemas de IA de alto riesgo, que est谩n estrictamente regulados, y s贸lo una peque帽a parte se ocupa de los sistemas de IA de riesgo limitado, sujetos simplemente a obligaciones de transparencia y que el riesgo m铆nimo no est谩 regulado, lo que en palabras del propio regulador incluye la mayor铆a de las aplicaciones de IA actualmente usadas en la UE. 

3.- A quien afecta 

En este punto son importantes las definiciones, pues pueden inducir a confusi贸n; la definici贸n de usuario en la Ley no corresponde a los usuarios finales del sistema, sino que se refiere a las personas f铆sicas o jur铆dicas que despliegan un sistema de IA a t铆tulo profesional (tambi茅n se refiere a ellos como implantadores), que ser铆a el rol de las todas las empresas que implementen sistemas de IA que interact煤en con sus clientes. Pero igualmente, estas obligaciones est谩n ligadas al nivel de riesgo y en este sentido s贸lo los usuarios (empresas implantadoras) de sistemas de IA de alto riesgo tienen obligaciones relevantes. 

Por otra parte est谩n los proveedores o desarrolladores, en los que recaen la mayor铆a de las obligaciones, que ser铆a el de las empresas que crean software que utilizan la IA de una forma u otra con el objetivo de comercializarlas para que las utilicen usuarios finales (ciudadanos) u otras empresas (los implantadores anteriormente comentados). De nuevo, solo existen obligaciones relevantes para aquellos que desarrollen sistemas de IA de alto riesgo que pretendan comercializar o poner en servicio en la UE, independientemente de que tengan su sede en la UE o en un tercer pa铆s. En este aspecto, las obligaciones de las empresas que no desarrollen sistemas de alto riesgo se circunscriben a las relativas a facilitar la transparencia en el sistema, seg煤n se recoge en el art铆culo 50.1:  

De forma general, la mayor铆a de los casos de uso en donde actualmente se emplean sistemas de IA en las empresas no est谩n sujetos a regulaci贸n, ya que no suponen un riesgo significativo de da帽o para la salud, la seguridad o los derechos fundamentales de las personas f铆sicas, incluido el hecho de no influir materialmente en el resultado de la toma de decisiones, seg煤n se recoge en el Art铆culo 6.2a si se cumplen uno o varios de los siguientes criterios: 

4.- Conclusiones 

Para finalizar, es necesario aclarar dos aspectos que han generado bastantes dudas en torno a la aplicaci贸n de esta Ley de la IA

  1. El manejo de los datos: la ley de IA no entra para nada en qu茅 tipo de datos se tratan en los sistemas ni en c贸mo se deben manejar. No es su objeto, para eso est谩 el GDPR (otro Reglamento, de 2018) y todo lo relativo al tratamiento se debe seguir rigiendo por 茅ste, nada cambia. 
  1. Las automatizaciones totales o parciales en muchos trabajos hasta ahora desarrollados por humanos que pueden producirse por la aplicaci贸n de los sistemas de IA, y que son objeto de m煤ltiples debates, no son susceptibles de regulaci贸n ni de aplicaci贸n de la Ley de IA; se trata de una mera evoluci贸n tecnol贸gica como en su d铆a lo fueron los ordenadores personales o Internet. Lo que regula la Ley es la posibilidad de que estos sistemas tomen decisiones que influyan en la vida de las personas y si es as铆, prevenir que dichas decisiones tengan sesgos de cualquier tipo, o bien que se utilicen para cometer o apoyar actividades il铆citas o ilegitimas. 

En conclusi贸n, los casos de uso actuales m谩s frecuentes de la IA, como automaci贸n de procesos, extracci贸n y sumarizaci贸n de informaci贸n o atenci贸n al cliente no plantean riesgo desde el punto de vista de la regulaci贸n prevista con la entrada en vigor de la UE IA Act, excluy茅ndose por completo su calificaci贸n de sistemas inaceptables o de alto riesgo en los que se centra el grueso de la Regulaci贸n. 

No obstante, conviene ir revisando la evoluci贸n del Reglamento de cara a incorporar en el futuro las medidas concretas referidas a la transparencia y las recomendaciones que se recojan en los c贸digos de buenas pr谩cticas. 

Picture of Fernando Perez - Cofundador y Director Corporativo
Fernando Perez - Cofundador y Director Corporativo
Cofundador y Director Corporativo en Aunoa, lo que significa trabajar en la empresa con una de las mejores herramientas de automatizaci贸n de servicios de atenci贸n al cliente basadas en tecnolog铆as de IA. Esp铆ritu emprendedor, como cofundador de 4 empresas de 茅xito y en puestos directivos dentro de una gran organizaci贸n global, combinando un perfil t茅cnico e innovador con un claro enfoque en los objetivos de negocio en el sector tecnol贸gico durante los 煤ltimos 25 a帽os.

隆Mantente actualizado!

驴Quieres estar al tanto de la IA y los chatbots? Suscr铆bete a nuestra newsletter para contenido exclusivo y consejos expertos.

Descubre c贸mo es el proceso de implantaci贸n y de entrenamiento de nuestros Chatbots con IA

ART铆CULOS RELACIONADOS