Hace unos días muchos de los periódicos de nuestro país, en papel y digitales, encabezaban una de sus páginas con esta noticia: la Unión Europea tiene intención de regular ChatGPT y el resto de Inteligencias Artificiales. Y es que la IA últimamente está en boca de todos. ¿Por qué? Te lo contamos en este artículo.

Antes de que termine el año, los legisladores quieren aprobar una nueva ley para la Inteligencia Artificial y poder regular su uso. En 2021 ya se presentó una normativa europea de IA que, por el momento, está pendiente de aprobación.

La UE quiere comprometerse, entre otras cosas, a añadir nuevas reglas a dicha legislación con el objetivo de controlar todas estas herramientas que han ido saliendo a la luz en los últimos años y que son capaces de generar texto, imágenes o vídeos.

La evolución y el crecimiento de estas herramientas ha sido del todo fugaz. Han obtenido poder muy rápidamente y es necesario poderle dar una atención política que permita controlar la privacidad y seguridad de los usuarios y solventar los problemas sociales que puedan provocar, como, por ejemplo, el despido de personal.

El 11 de mayo se llevará a cabo una votación en los comités técnicos para debatir este tema y sobre la nueva propuesta del Parlamento Europeo

Ante la percepción de los riesgos que estas herramientas puedan acarrear, son muchos los que se han posicionado a favor de la regulación de este tipo de tecnologías. El Reglamento Europeo que está preparando Europa traerá definiciones para una nueva realidad en aquellas herramientas generadoras de imágenes y textos usadas a nivel masivo. Un reglamento que se aplicará, de inmediato, en los 27 países de la UE.

¿Cómo proteger los derechos sociales y poder avanzar tecnológicamente?

No cabe duda de que la tecnología ha vuelto, una vez más, a desafiar los legisladores. Una vez se presentó la propuesta de reglamento en 2021, las herramientas de IA no estaban aún tan desarrolladas ni tampoco estaban en el día a día de los usuarios. Por este motivo, hoy en día la UE está a tiempo de incluirlas en la normativa antes de llevar a cabo la propuesta en el Pleno.

Las normas que se quieren proponer tienen que ver con el poder limitar los usos de la IA, como bien afirma el jurista de BEUC, Federico Oliveira Da Silva. El objetivo principal es proteger a los consumidores que usen o sean objeto de sistemas de AI.

La base de la Ley de IA es un sistema de clasificación que define el nivel de riesgo que una tecnología de IA podría suponer para la salud y la seguridad de las personas. La privacidad es uno de los ejemplos de más peso en esta nueva regulación.

El marco incluye cuatro niveles de riesgo: el inaceptable, el alto, el limitado y el mínimo. En el primero de ellos, el inaceptable, uno de los usos que se quieren prohibir es el social scoring, un sistema de puntuación chino que define la reputación de una persona según varios factores. Uno de ellos está su actividad en internet.

Por otro lado, los sistemas de alto riesgo están permitidos, aunque tanto empresas como usuarios deben cumplir una normativa que exige varias pruebas, de manera rigurosa, así como documentación de la calidad de los datos, entre otros.

¿Qué sucederá si otros países no regulan como la UE? ¿Y si el hecho de adoptar ciertas soluciones con ChatGPT les hace más competitivos? Ante este escenario, En Engloba Tech, como empresa IT, estaremos al día de los cambios que vayan sucediendo y de las noticias que vayan apareciendo sobre este tema.

Estamos seguros de que, con el tiempo, podremos convivir con herramientas IT que sean de gran apoyo en nuestro crecimiento laboral y social, sin que repercutan en la privacidad, la salud y el bienestar de las personas.