El Parlamento Europeo aprueba la primera ley de Inteligencia Artificial del mundo

El Parlamento Europeo respaldó esta semana la primera ley en el mundo que regula el uso de la Inteligencia Artificial (IA). El “Reglamento Europeo de la Inteligencia Artificial”, aprobado con 523 votos a favor, 46 en contra y 49 abstenciones, “no pretende perjudicar la innovación, sino limitar los peligros asociados a esta tecnología”, declararon los funcionarios encargados de sacarla adelante,

La ley comunitaria tiene como objetivo sentar las bases de una industria que está moldeando la tecnología y la sociedad. La prioridad, según los funcionarios, es la seguridad, la transparencia y la responsabilidad de los Gobiernos, los ciudadanos y las empresas del bloque europeo. “La ley regulará la IA en base a sus riesgos. Cuanto mayor sea el riesgo, más estrictas serán las normas”, advirtió el Parlamento en diciembre.

“La Ley Europea de Inteligencia Artificial es un triunfo de la democracia europea, una norma que ha sido compleja de realizar y negociar, pero que finalmente hemos conseguido sacar adelante y ser los primeros en el mundo en hacerlo. Una norma que generará confianza para los ciudadanos, protegerá sus derechos, y seguridad jurídica para inversores e innovadores“, señalo el eurodiputado Iban García del Blanco, del Partido Socialista Obrero Español (PSOE), al diario El Confidencial.

Con esta ley, los parlamentarios se plantean proteger “la democracia, el Estado de derecho y la sostenibilidad ambiental frente a la IA de alto riesgo” y establecer a Europa “como líder en este campo”. Para concretar los objetivos propuestos, el reglamento establece obligaciones en función de los “riesgos potenciales” y los “niveles de impacto” de la IA.

El Parlamento Europeo estableció un sistema de cuatro niveles para regular el uso de la IA en dependencia del peligro que conlleve. Desde el riesgo mínimo, que permite el uso libre de este tipo de sistemas, pasando por el riesgo limitado y el riesgo alto hasta llegar al riesgo inaceptable, que restringe por completo los sistemas de IA que sean una “clara amenaza para la seguridad, los medios de vida y los derechos de las personas”.

La ley restringe la vigilancia masiva en espacios públicos y veta los dispositivos que usen mecanismos de reconocimiento facial, de voz u otro tipo en tiempo real, así como los sistemas de clasificación biométrica que deduzcan la raza, las tendencias políticas o la orientación sexual de una persona, y que puedan ser utilizados para influir en el resultado de unas elecciones. Sin embargo, el reglamento permite que las fuerzas del orden puedan emplear las cámaras de identificación biométrica para prevenir las amenazas terroristas, siempre con una autorización judicial previa.

Asimismo, la ley establece que los sistemas de IA generativa, como ChatGPT de OpenAI o Bard de Google, tendrán que especificar si un texto, canción o fotografía ha sido generado a través de dicha tecnología, y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.

El reglamento, que venció algunas reticencias entre los parlamentarios, decreta que las empresas no podrán utilizar programas de IA para contratar, despedir o evaluar el trabajo de los empleados en prácticamente ningún caso. Las universidades tampoco podrán usarlos para seleccionar a sus alumnos ni los bancos para analizar la solvencia de sus clientes.  Además, será ilegal el uso del deepfake, técnica que permite editar videos falsos de personas que aparentemente son reales, utilizando algoritmos de aprendizaje no supervisados. También será ilegal que las empresas establezcan un chatbot sin revelar que al otro lado no hay una persona real.

El bloque de naciones dispuso, igualmente, las sanciones que conllevará el no cumplimiento de la ley, con multas desde los 7,5 millones de euros o el 1,5% del volumen del negocio hasta los 35 millones o el 7% del volumen de negocio, dependiendo de la infracción y del tamaño de la empresa. Todo ello será gestionado a través de la AI Office, entidad creada para velar por el cumplimiento de la norma.

“La UE está dejando claro que una tecnología tan potente como la IA, con todas sus ventajas, necesita unos límites“, sentenció la directora general adjunta de la Organización Europea de Consumidores (BEUC), Ursula Pachl.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *