Tecnologia

Las disposiciones más destacadas del Reglamento Europeo de Inteligencia Artificial


Es innegable que el auge de la Inteligencia Artificial (IA) tiene repercusiones en prácticamente todas las esferas de la sociedad moderna, independientemente del grado de desarrollo de un país o región. Por otra parte, trae consigo oportunidades inimaginables de progreso y mejora en muchos ámbitos de la actividad humana. 

La contrapartida es el sinnúmero de amenazas que su desarrollo, uso y aplicación traerá sobre todo para el sector de la humanidad más vulnerable y menos adaptable al cambio, pero también para aquellos que, en el orden actual de las cosas, consideran estar en una zona segura frente al embate del avance tecnológico sin precedentes.


Relacionado: El uso de la IA para generar nuevas estrategias de mercadeo dentro de las empresas


Recientemente, el Consejo de Europa aprobó un Reglamento sobre Inteligencia Artificial. Ya desde años atrás se han presentado iniciativas en diferentes latitudes que buscan crear un marco de referencia normativo, que regule un ecosistema de desarrollo, aplicación y uso de la IA, en un ambiente fiable, transparente y sobre todo ético. 

La OCDE ya había lanzado, en 2019, un conjunto de directrices de políticas intergubernamentales de IA sobre la base de 5 principios:

  • Crecimiento inclusivo, desarrollo sostenible y bienestar.
  • Valores centrados en el ser humano y la equidad.
  • Transparencia y explicabilidad.
  • Robustez y seguridad.
  • Protección y rendición de cuentas.

Disposiciones destacadas

El recientemente promulgado Reglamento Europeo de Inteligencia Artificial (AIA – Artificial Intelligence Act) consta de 12 títulos y 85 artículos. La mayoría de las disposiciones de este reglamento se aplicarán 24 meses después de su entrada en vigor y se espera que su proceso de aprobación que incluye consultas nacionales a los países miembros tome entre 6 y 24 meses. No obstante, algunas disposiciones específicas tendrán un plazo más corto para el inicio de su vigencia, como las relacionadas con los sistemas categorizados como “prohibidos”.

El reglamento define sistema de Inteligencia Artificial como “aquel que opera con elementos de autonomía y que, basándose en datos y entradas obtenidos de humanos o máquinas, infiere cómo alcanzar los objetivos propuestos, usando para ello técnicas basadas en el aprendizaje-máquina o en lógica y conocimiento, lo que genera como salida contenidos, predicciones, recomendaciones o decisiones que influyen en el entorno con el que el sistema interactúa.

El reglamento establece una jerarquía de riesgos en función del uso de la IA y, sobre las categorías detectadas, establece una serie de obligaciones. 


Más sobre PI: Registrar una marca 3D en Chile; errores comunes y desafíos de la Ley Corta de Propiedad Intelectual


Asimismo, define proveedor como la persona física o jurídica o entidad pública que desarrolla o para quien se desarrolla un sistema de IA y lo pone en servicio o lo comercializa bajo su nombre o marca, mediando un pago o no.    

Su ámbito de aplicación se extiende a proveedores de sistemas de IA que se pongan en servicio o comercialicen dentro de la UE o cuya salida se utilice en la UE, independientemente de su origen, y a usuarios definidos como la persona física o jurídica, pública o privada, bajo cuya autoridad se utilice el sistema. 

Resulta interesante que el propio reglamento establece excepciones a su ámbito de aplicación, tratándose de autoridades públicas de terceros países o de organizaciones internacionales, cuando utilicen sistemas IA en el ámbito de la cooperación policial o judicial, con la UE o sus Estados Miembros. Tampoco se aplica a los sistemas de uso militar o utilizados en el contexto de la seguridad nacional.  


De interés: Recursos genéticos y conocimientos tradicionales conexos, la agenda de la Conferencia Diplomática OMPI


El objetivo principal de esta ley es garantizar un entorno seguro y ético para el desarrollo y despliegue de la IA en la UE. Es menester destacar el énfasis que hace el reglamento con un enfoque de clasificación de los sistemas sobre la base de potencial de riesgo, en cuatro grupos:

  • Sistemas de Riesgo Inaceptable.
  • Sistemas de Alto Riesgo.
  • Sistemas de Riesgo Limitado.
  • Sistemas de Riesgo Mínimo.  

Así las cosas, los sistemas de IA considerados de riesgo inaceptable son aquellos que podrían causar un daño significativo o infringir derechos fundamentales, como aquellos que manipulen el comportamiento humano, sistemas de vigilancia masiva y sistemas que permiten realizar una eventual discriminación social. Estos sistemas están totalmente prohibidos por la ley. 

Los sistemas considerados como de riesgo alto son aquellos que pueden impactar significativamente los derechos y seguridad de los ciudadanos, tales como sistemas de transporte y energía, herramientas de reclutamiento y evaluación de desempeño, reconocimiento facial, dispositivos médicos o sistemas para la educación. Este tipo de sistemas de alto riesgo están sujetos a estrictos requisitos de transparencia, supervisión y seguridad, y para esa supervisión y monitoreo se han creado organismos encargados de esas tareas como veremos más adelante. 


No te pierdas: Criptoactivos en el mercado de capitales brasileño


Los sistemas cuyos riesgos son considerados como de un nivel limitado serán aquellos que interactúan directamente con humanos, tales como asistentes virtuales o plataformas con sistemas de IA que proporcionen información y recomendaciones. Este tipo de sistemas deben de operarse en cumplimiento de ciertas obligaciones de transparencia para garantizar que los usuarios estén informados sobre su uso. 

Finalmente, los riesgos más leves, llamados sistemas de riesgo mínimo, serán los que presenten un riesgo casi nulo para propiciar una violación de los derechos fundamentales del ser humano, tales como filtros de spam, sistemas utilizados en videojuegos y automatizaciones básicas. 

La normativa también establece un marco de gobernanza para la supervisión de los sistemas de IA en la UE. Esto incluye la creación de un Comité Europeo de Inteligencia Artificial, que supervisará la implementación de la legislación y proporcionará orientación sobre cuestiones relacionadas con la IA.

Existirá al menos una autoridad nacional notificante y otra autoridad de supervisión de mercado, estas serán competentes para los propósitos del reglamento. Las autoridades de supervisión de mercado están encargadas de monitorear y supervisar el correcto funcionamiento, ya en mercado, de sistemas de IA de alto riesgo, identificando riesgos sobrevenidos, incidentes u otras situaciones que exijan tomar medidas sobre los sistemas de IA de alto riesgo.  


Más sobre IA: Los límites que ChatGTP tiene frente a la protección de datos y la propiedad intelectual de las personas


Regulación sandbox

Un aspecto interesante que contiene este marco normativo es la posibilidad de adoptar medidas de apoyo e innovación a través de sandboxes. Es decir, las autoridades nacionales pueden crear sandboxes regulatorios para desarrollar, entrenar, probar y validar sistemas IA bajo su guía, supervisión y soporte. 

La Comisión puede regular, mediante actos de ejecución, los procedimientos de planteamiento y ejecución, incluyendo elegibilidad, solicitud, selección, participación, seguimiento y salida. La participación en un sandbox tendrá un límite temporal en función de la escala del proyecto. Se basará en un plan específico en el cual, los participantes que lo respetan y se sujetan a la guía de las autoridades, estarán exentos de sanciones administrativas por infracciones legales relativas al sistema supervisado en el sandbox

Dentro del sandbox, y cumpliendo las condiciones que se establecen, se podrán tratar datos personales obtenidos para otros propósitos si son imprescindibles para el desarrollo de sistemas de interés público sustancial, por ejemplo en salud, medio ambiente, sostenibilidad energética, movilidad, calidad del servicio público y seguridad de infraestructuras críticas.


Otras opiniones: El uso de la IA para generar nuevas estrategias de mercadeo dentro de las empresas


Régimen Sancionatorio

Para asegurar el cumplimiento de la legislación, este reglamento establece sanciones severas ante la violación de su articulado. Las multas pueden alcanzar hasta los 35 millones de euros, o bien 7 % de facturación global anual de la empresa que sea infractora, el elemento que sea mayor será el aplicable. 

Esta aplicación de sanciones marca la pauta y sirve de punta de lanza para enviar un mensaje directo respecto a la seriedad e importancia que le está dando la UE a la regulación de la IA. 

Si bien la aplicación de esta ley es en el contexto europeo, es previsible que su impacto se extienda más allá de sus fronteras, ya que estamos ante la primera regularización normativa que permite proteger los derechos fundamentales y la seguridad de los ciudadanos ante el uso de sistemas de inteligencia artificial, pero también sienta un precedente mundial respecto a la implementación de esta normativa, que servirá para marcar la pauta de áreas de mejora para otras leyes que sin duda se promoverán a nivel global. 

*Hernán Pacheco es socio líder de EY Law Centroamérica, Panamá y RD.



Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button