La inteligencia artificial, IA, ha demostrado su potencial para transformar numerosos aspectos de nuestra sociedad. Sin embargo, a medida que esta tecnología avanza rápidamente, también surgen preocupaciones sobre su uso responsable y ético. Reconociendo la necesidad de proteger los derechos y la seguridad de los ciudadanos, la Unión Europea ha dado un paso importante al aprobar una ley que establece un marco regulatorio para controlar los posibles peligros asociados con la IA.
La nueva ley de la Unión Europea sobre IA, aprobada con 499 votos a favor, 28 en contra y 93 abstenciones, tiene como objetivo garantizar que esta tecnología se utilice de manera segura y ética en el contexto europeo. La legislación aborda una amplia gama de temas, desde la prohibición de sistemas de IA considerados «peligrosos» hasta la regulación de sistemas de alto riesgo, pasando por la protección de la privacidad y los derechos fundamentales de los individuos.
Dicha Ley regulará la IA según el nivel de riesgo, es decir, cuanto mayor sea el peligro que represente para las personas, mayores serán las exigencias y obligaciones de esta tecnología. De hecho, incluso algunos pueden ser eliminados.
Así pues, una de las principales características de la Ley es la prohibición de sistemas de IA que se consideren una amenaza para la seguridad de las personas, como aquellos que manipulan el comportamiento humano de manera engañosa o que pueden poner en peligro la integridad física de los individuos. Esto incluye la prohibición de aplicaciones como la vigilancia masiva en tiempo real y los sistemas de puntuación social que discriminan a las personas.
Además, la legislación establece una serie de requisitos y salvaguardias para los sistemas de IA de alto riesgo, como los utilizados en sectores como la salud, el transporte, la energía y la administración de justicia. Estos sistemas deberán cumplir con criterios estrictos de transparencia. También se requerirá una supervisión humana adecuada y se impondrán medidas de seguridad para mitigar los riesgos asociados con su uso.
La protección de la privacidad y los derechos fundamentales también ocupa un lugar central en la ley de la UE. Se prohíbe el empleo de tecnologías de reconocimiento facial en tiempo real en sitios públicos, a menos que se cumplan ciertas excepciones específicas. Además, se establecen requisitos claros para obtener el consentimiento informado y para garantizar que los sistemas de IA no discriminen a las personas por motivos de raza, género, religión u otros criterios protegidos.
La aprobación de esta ley por parte de la Unión Europea marca un punto importante en el camino hacia un uso responsable de la inteligencia artificial. Al establecer un marco regulatorio sólido, la UE busca proteger los derechos y la seguridad de los ciudadanos, fomentando así la confianza en la tecnología y promoviendo su adopción responsable.
¿De qué manera regula esta ley el famoso y protagonista ChatGPT?
Una de las motivaciones de esta Ley fue la aparición del ChatGPT y DALL-E, programas capaces de crear texto e imágenes. Desde ahora, las empresas que están detrás de estos softwares estarán obligadas a revelar que el contenido ha sido realizado por IA y, al mismo tiempo, deben publicar resúmenes de los datos protegidos por los derechos de autor. Por otro lado, los programadores deberán diseñar un modelo que pueda evitar que la IA genere contenidos ilegales.
No obstante, la normativa no será efectiva en nuestra sociedad hasta dentro de tres años, en el 2026. Ante esta situación, la UE tendrá que negociar un marco provisional para todos aquellos negocios que llevan a cabo programas y tecnología de Inteligencia Artificial.
Como especialistas en servicios de software personalizado, en Engloba Tech queremos que estés al día de las últimas novedades sobre el mundo de la tecnología. ¡Así que estate atento a nuestras novedades semanales!