Desde hace un mes, tanto los Estados como la Eurocámara han dejado atrás sus diferencias y se han unido por una única causa: regular la Inteligencia Artificial y su uso en todo el mundo. En Engloba Tech, queremos hablarte sobre este sonado tema que lleva protagonizando noticias en medios de comunicación sobre las nuevas aplicaciones de Inteligencia Artificial.

Tras tres largos días de conversaciones, en diciembre se llegó a un acuerdo para crear la Ley de Inteligencia Artificial y establecer unas primeras normas armonizadas. La finalidad de este acuerdo, sin duda, ha sido garantizar que estas tecnologías realizadas con IA y consumidas en el mercado europeo sean seguras y respeten los derechos y valores fundamentales de la Unión Europea. Unas reglas que, a la vez, pretenden fomentar el desarrollo e innovación de la IA en todos los países europeos.

La Ley de Inteligencia Artificial se ha convertido en la primera ley integral sobre la IA en todo el mundo. Un texto que deberá ser ratificado por diferentes partes antes de que entre en vigor a finales de 2026

Pero ¿por qué se ha llevado a cabo este reglamento? Como comentamos en un artículo anterior en Engloba Tech, la IA ofrece un sinfín de beneficios, no obstante, también puede suponer un riesgo para la seguridad y privacidad de las personas, entidades y empresas. Es por ello por lo que se propone que los sistemas de IA se analicen y se clasifican antes de usarse en cualquier aplicación según el riesgo que pueden suponer a los usuarios. Ante los distintos niveles de peligro se aplicará una mayor o menor regulación, por lo que las reglas serán más estrictas o menos.

Explorando los elementos clave del acuerdo provisional para las aplicaciones de Inteligencia Artificial

En contraste con la propuesta inicial de la Comisión Europea, los elementos clave del acuerdo provisional se pueden sintetizar de la siguiente manera:

Riesgo inaceptable

Son aquellos sistemas que se consideran una amenaza para las personas. Por ello, serán prohibidos. Hablamos, por ejemplo, de aquellos que manipulan el comportamiento de personas o grupos vulnerables, como juguetes por voz. O bien, aquellos que clasifican a las personas por su estatus socioeconómico, sus características personales o su comportamiento. Los sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial, también se consideran una amenaza.

Alto riesgo

Los sistemas de alto riesgo son aquellos que pueden afectar de manera negativa a la seguridad o los derechos fundamentales de las personas. Todos serán analizados antes de que sean comercializados. Aunque dicha evaluación persistirá a lo largo de su ciclo de vida.

Se clasifican en dos categorías, por un lado, los sistemas de IA que usan productos sujetos a la legislación de la UE sobre seguridad de los productos. Como, por ejemplo, juguetes, aviación, automóviles, ascensores, dispositivos médicos… Por otro lado, contamos con aquellos sistemas que pertenecen en ocho áreas específicas y que exigen un registro en una base de datos de la UE. Estos ámbitos son:

  • Identificación biométrica.
  • Gestión y explotación de infraestructuras críticas.
  • La formación profesional.
  • El empleo, gestión de trabajadores y el acceso al empleo.
  • El acceso y goce de servicios privados esenciales, y servicios y prestaciones públicas.
  • Aplicación de la ley.
  • Gestión de la migración, control de fronteras y el asilo.
  • Asistencia en la interpretación jurídica y aplicación de la ley.

IA generativa

Este tipo de sistema, como por ejemplo el ChatGPT, tiene que cumplir ciertos requisitos de transparencia:

  • Hay que informar que el contenido se ha realizado a través de IA.
  • Diseñar el modelo para que no se produzcan contenidos ilegales.
  • Publicar resúmenes de datos protegidos por derechos de autor usados para el entrenamiento.

Riesgo limitado

¿Cuáles son los riesgos limitados? Son aquellos que cumplen unos requisitos mínimos de transparencia y que, además, permiten a los usuarios decidir con toda la información requerida. Tras el uso y la experiencia de una app, el usuario decide si desea seguir empleándola.

Una nueva oficina de gobernanza para las aplicaciones de Inteligencia Artificial

En respuesta las recientes regulaciones sobre los modelos GPAI y la evidente necesidad de su implementación a nivel de la UE, se establece una Oficina de Inteligencia Artificial dentro de la Comisión.

Esta oficina tendrá la responsabilidad de supervisar los modelos de IA más avanzados, promover estándares y prácticas de prueba, así como hacer cumplir normas comunes en todos los estados miembros.

Un panel de expertos científicos independientes asesorará a la Oficina de IA en relación con los modelos GPAI

La Junta de IA, compuesta por representantes de los Estados miembros, continuará siendo una plataforma de coordinación y un órgano asesor clave para la Comisión. Otorgará un papel significativo a los Estados miembros en la implementación del reglamento, incluido el diseño de códigos de prácticas para modelos de fundación. Además, se establecerá un foro consultivo para partes interesadas, como representantes de la industria, pymes, startups, sociedad civil y academia, con el propósito de aportar conocimientos técnicos a la Junta de IA.

¿Cuáles serán las penalizaciones por la violación de la Ley?

Las multas se calcularán como un porcentaje de la facturación anual global de la empresa infractora en el año financiero anterior o una cantidad predeterminada, eligiendo la mayor de ambas opciones. Se establecerán límites más proporcionados a las multas administrativas para pymes y nuevas empresas en caso de infracción de las disposiciones de la Ley de IA, según lo acordado en el acuerdo provisional.

El acuerdo de transacción también garantiza el derecho de individuos y entidades a presentar quejas ante la autoridad de vigilancia del mercado en caso de incumplimiento de la Ley de la IA, asegurando que dichas quejas se procesen de acuerdo con los procedimientos específicos de esa autoridad.

En términos de transparencia y protección de los derechos fundamentales, el acuerdo provisional exige una evaluación del impacto en los derechos fundamentales antes de que los implementadores pongan en el mercado un sistema de inteligencia artificial de alto riesgo.

También se promueve una mayor transparencia en el uso de estos sistemas, incluyendo la obligación de que ciertos usuarios, como entidades públicas, se registren en la base de datos de la UE para sistemas de IA de alto riesgo. Además, se resalta la obligación de informar a las personas físicas cuando estén expuestas a sistemas de reconocimiento de emociones.

Estos son algunas de las novedades de la nueva Ley de Inteligencia Artificial. En Engloba Tech, te seguiremos manteniendo informad@ sobre este tema. Y si quieres contratar algunos de nuestros servicios, como el servicio de desarrollo de apps webs y móviles o aplicaciones de Inteligencia Artificial, ¡no dudes en ponerte en contacto con nosotros!