Inteligencia artificial: así se gestó la primera norma en el mundo que regula esta tecnología

Ibán García, jurista español y protagonista de las negociaciones desde el Parlamento Europeo, explica en el ICAM los entresijos del Reglamento de IA y las principales características de esta norma

Javier Escolano
Javier Escolano
Periodista jurídico

Ibán García, abogado, fue miembro del Parlamento Europeo durante la novena legislatura, desde julio de 2019 hasta julio de 2024. Como coordinador del grupo Socialista y Demócratas en el Comité de Asuntos Jurídicos de la Eurocámara, formó parte del equipo negociador de la primera norma jurídica del mundo sobre inteligencia artificial: el Reglamento (UE) 2024/1689.

También fue ponente de la iniciativa legislativa sobre los Aspectos éticos de la inteligencia artificial, la robótica y tecnologías afines y de la opinión sobre la Ley de Datos, y fue el coponente del informe de iniciativa sobre mundos virtuales. Actualmente, es director internacional de la consultora Lasker Consulting.

Invitado por la Sección de Robótica, IA y Realidad Virtual y Aumentada del ICAM, que preside Santiago Mediano, García explicó en la sede colegial los pormenores del proceso de elaboración del Reglamento de IA, su evolución en el seno de la UE y los detalles y perspectivas de futuro.

“Hoy el debate está más vivo que nunca. Cuando la Comisión Europea encargó en 2018 un Libro Blanco sobre la cuestión, no había tanta polémica. Posteriormente, el Parlamento Europeo abordó el tema con una iniciativa de regulación sobre ética, robótica y cuestiones afines. Fue la primera norma que reguló el fenómeno de la IA; desde entonces, la velocidad de los cambios ha sido notable para que tuviéramos este Reglamento”, señaló.

A lo largo de su intervención, abogó por una IA europea y una estrategia conjunta frente a China y Estados Unidos: “Es la única manera de competir contra estos gigantes que tienen otros modelos. Países como Australia y Canadá han copiado la norma europea. Todos los desarrollos en América del Sur están influenciados por este Reglamento europeo de IA. En este momento hay 700 proyectos de norma sobre la regulación de la IA en Estados Unidos. Habrá que ver qué hace Trump con la norma ejecutiva que publicó hace dos años Biden. Frente a la uniformidad del mercado europeo, el norteamericano aparece dividido. También hay que seguir el Pacto Mundial Digital que plantea la ONU sobre estas tecnologías”.

García recordó un debate que tuvo con Moisés Barrio, letrado del Consejo de Estado, y reputado experto en regulación digital: “Barrio sintetizó muy bien por qué había que regular la IA. Lo primero que señaló es que la IA necesita regulación porque los daños que puede producir son sistémicos; puede estar incorporada en todos los procesos y no ser evidente para el ser humano. Al mismo tiempo, los daños de la IA se producen a gran escala, generan graves problemas de causalidad y muchos de los riesgos pueden estar ocultos y detectarse en el futuro”.

Este experto recordó que la Comisión Europea presentó en 2021 una propuesta legislativa completa sobre IA, “que desde su misma presentación generó un proceso exhaustivo de negociación. Ahí, el Parlamento Europeo, a través de sus comités, realizó diferentes informes sectoriales sobre el uso de la IA en cuestiones como medicina, medioambiente, justicia e incluso en el ámbito de la defensa. Se creó un Comité Específico de IA que tuvo una duración aproximada de un año y que también generó una serie de recomendaciones”.

Sobre el acuerdo definitivo en el Parlamento Europeo, García recordó que se produjo “a principios del año pasado, tras un debate que duró dos años. Y a partir de ahí, la negociación, que coincidió con la Presidencia Española del Consejo, se dilató mucho tiempo. Fueron necesarios cinco trílogos tripartitos entre el Consejo y el Parlamento, los dos órganos legisladores, y la Comisión Europea, que actúa como órgano moderador. Lo más llamativo fue el último de los trílogos, que duró más de treinta horas. Los problemas iniciales que existían en esta negociación fueron los mismos que se abordaron en la negociación final”.

Desde su punto de vista, fue clave la Presidencia Española del Consejo para llegar a este acuerdo en una materia viva que está en plena evolución. «Creo que las creencias éticas o religiosas pueden ser claves a la hora de tener una posición u otra sobre este debate. Hay que darse cuenta de que las diferencias culturales en la UE hicieron difícil avanzar. Organismos como el Parlamento y el Consejo tenían posiciones políticas diferentes. Hubo un arduo debate sobre dónde deberían ponerse los límites, en un contexto con muchos intereses económicos en juego, donde cada uno de los 27 países miembros tenía una forma de ver este tema”.

El ser humano, en el centro

«Pese a todo, se llegó al acuerdo», recuerda García, quien destaca de la norma su carácter humanocéntrico; «quiere poner a la persona en el centro de la regulación. Esta ley tiene dos objetivos complementarios: por un lado, proteger los derechos fundamentales, nuestras democracias, el Estado de Derecho y el medioambiente; y, al mismo tiempo, dotar de confianza a los usuarios de la tecnología de IA, dar seguridad a las empresas y facilitar la innovación y el desarrollo”.

Sobre la definición de la IA, explicó que “se buscó en textos internacionales de la OCDE y la UNESCO, que ya hablaban de ello. En cuanto a la aplicación de la norma, se trata de una normativa marco aplicable a todas las tecnologías que emplean IA, con un ámbito geográfico amplio que garantiza su extraterritorialidad. De este modo, la ley debe aplicarse a todas las IA que se comercializan y operan en Europa, al igual que a los resultados de su aplicación, los llamados outputs, si tienen impacto en la propia UE. Si alguien quiere operar en nuestro mercado, no importa de dónde venga, tiene que cumplir con la normativa aprobada”.

En cuanto a la norma, este experto señaló que “afronta el riesgo como elemento para definir esa regulación. Trata de establecer un equilibrio entre beneficios y usos. A nadie se le escapa la potencialidad de la IA, pero, al mismo tiempo, su uso conlleva riesgos claros. De esta manera, lo que se pretende es regular los usos de la IA en cada momento, lo que garantiza la viabilidad de la norma ante tecnologías que evolucionan y se transforman. Esos daños pueden producirse en la salud, la seguridad, los derechos fundamentales y también en valores colectivos como la democracia, el Estado de Derecho y el medioambiente. Es una norma protectora que sitúa a los derechos fundamentales en el centro de la regulación”.

Respecto al uso de la IA, se establecen categorías: “hay una categoría inasumible por los riesgos que conlleva; son sistemas de alto riesgo y herramientas de IA que requieren obligaciones notables de transparencia. Ahí entran los sistemas de reconocimiento de emociones en el trabajo y en la educación, el uso de la IA en la ley para evitar la política predictiva, el rastreo de imágenes faciales en internet, y sistemas biométricos que puedan averiguar decisiones políticas, orientación sexual, raza o religión. Se prohíbe la identificación biométrica, salvo en casos de secuestro, trata y para buscar delitos muy graves que se encuentran en un anexo de la propia ley, siempre con autorización judicial. Esta excepción generó debate entre el Parlamento y el Consejo, pero se logró consenso para aplicarla”.

Otra categoría es la IA de alto riesgo, en la que la propia norma establece usos concretos: “estos sistemas pueden estar integrados en productos ya regulados y se someten a controles previos antes de su comercialización y uso, o porque operan en zonas sensibles que se enumeran en la ley. De esta forma, las herramientas biométricas, las infraestructuras críticas o el uso de la tecnología en el trabajo, el control de fronteras o servicios esenciales como seguros o justicia están incluidas. Estos sistemas de alto riesgo se inscriben en un registro europeo. Deberán hacer una evaluación de riesgos y análisis de datos para evitar cualquier sesgo”.

Para Ibán García, “de esta manera, la norma quiere cubrir toda la cadena de valor de la IA. El Parlamento incorporó una obligación adicional de una evaluación de impacto sobre derechos fundamentales cuando la IA se incorpora a un servicio esencial o público. También se incluyen como servicios esenciales bancos y aseguradoras. Esa evaluación de impacto busca evitar cualquier trato discriminatorio que pueda generar la herramienta”.

IA y propiedad intelectual

Este experto habló de la problemática de la IA en relación con la propiedad intelectual, que está generando tantos debates y titulares en los medios: “La ley de IA no resuelve todas las incógnitas sectoriales que se han generado con su aplicación. Sin embargo, para las industrias de contenidos, la irrupción de la IA plantea distintos retos que habrá que resolver”.

Así, comentó: “En Europa tenemos dos sentencias de primera instancia. La primera, de un juzgado de Praga, sobre la posible protección de un producto de IA generativa. El tribunal dice que debe ser una obra humana para ser objeto de protección. Por otro lado, un tribunal de Pekín considera lo contrario en su resolución. La otra sentencia europea, de Hamburgo, trata el uso de fotografías sin permiso por un modelo de IA. En este caso, el tribunal avala que la excepción de minería de datos ampara este uso irregular”.

“Hace apenas unos días hubo otra sentencia de un tribunal de Nueva York sobre la demanda de la prensa contra OpenAI. En el fallo se establece que debe acreditarse el daño producido, algo que los demandantes no lograron. Habrá más fallos judiciales, sin duda”, añadió.

Por otra parte, García abordó algunas de las cuestiones específicas de la ley en materia de IA generativa. “Plantea transparencia sobre los contenidos de estos modelos generativos que se utilizan, y también sobre la producción de esas obras creadas con dichos contenidos. Se busca que esos modelos de IA generativa respeten la normativa de derechos de autor y de propiedad intelectual. Se pide al usuario de estas herramientas que realice un resumen sobre los datos protegidos por derechos de autor utilizados en los entrenamientos de herramientas de IA. La Oficina Europea de IA está trabajando en un modelo para que esto sea comprensible para los titulares de derechos”.

En cuanto a los productos de IA generativa, “si interactúan con personas naturales, deben informar de que son herramientas de IA. Desde el Parlamento Europeo se pidió máxima transparencia para imágenes, textos o contenidos que pudieran pasar por auténticos, para evitar las deepfakes. Esa obligación de transparencia recae en los creadores de estos modelos y en las plataformas que los difunden. Se estima que el 85% de los desarrollos tecnológicos de IA no generan riesgos para los derechos fundamentales, por lo que no entrarían en las categorías de prohibición o alto riesgo”, expuso.

En este escenario, la norma plantea que las empresas “creen sus códigos de conducta para aplicarlos de forma voluntaria en el desarrollo de la IA. Estos códigos deben fomentar la accesibilidad, igualdad de género y sostenibilidad, entre otros elementos. Ayudarán a crear una IA justa, segura, robusta, sostenible y socialmente responsable. El principio de diversidad cultural es uno de los valores éticos incluidos”.

Además, la ley establece un sistema de gobernanza tanto a nivel nacional como europeo. “Se crea un registro europeo de las IA de alto riesgo y de los modelos de IA generativa”.

En cuanto a las sanciones, este exparlamentario europeo recordó que “el falseamiento de datos en estas declaraciones de alto riesgo puede acarrear multas de hasta 35 millones de euros o el 7% de la ganancia anual. Cada Estado miembro creará una entidad de supervisión de la norma. En España, hemos creado la AESIA, única en su género. Por su parte, la Oficina Europea de IA se centra en la IA generativa y vela por la supervisión de los organismos nacionales reguladores. Además, hay un Comité Consultivo, el Comité de Expertos, liderado por la española Nuria Oliver. El papel de esta Oficina Europea es clave para diseñar códigos de buenas prácticas y otras actuaciones”.

Desde su punto de vista, “un rasgo que define la IA como tecnología es su absoluta transversalidad. Por eso, hay que escuchar a todos los sectores sobre su desarrollo e implementación. Creo que es importante dedicar tiempo a la alfabetización en IA”.

De esta manera, concluyó el ponente, «los ciudadanos podrán entender qué supone el uso masivo de la IA. Es previsible que todos los debates sobre cohesión social e igualdad estén marcados por el uso de esta tecnología emergente. La norma establece en cada país aspectos de prueba concretos, sandboxes para analizar su impacto en la innovación. En España ya tenemos uno en marcha”.

Javier Escolano
Javier Escolano
Periodista jurídico

Contenidos destacados

- Publicidad -spot_img
- Publicidad -spot_img
- Publicidad -spot_img

CONTENIDOS RELACIONADOS

La jurisdicción militar busca su lugar en la reforma global de...

El presidente de la Sala Quinta del Supremo aborda las claves de la modernización de esta jurisdicción en un acto de la sección de Derecho Militar del ICAM

Derecho deportivo: El caso Diarra revoluciona la transferencia de jugadores profesionales

La Sección de Derecho Deportivo del ICAM analiza el impacto de la sentencia del TJUE en la normativa FIFA y los derechos fundamentales, así como las recientes controversias legales de los Juegos Olímpicos y Paralímpicos París 2024

Dos años después de la invasión de Ucrania por Rusia, el...

A lo largo de estos veinticuatro meses los abogados madrileños han...