Tecnologia

Por qué una IA responsable necesita un permiso de planificación


¿Cómo crear una IA responsable? Un requisito previo para toda organización que comience a integrar la IA en su tejido empresarial es determinar y poner en marcha un marco sólido que alinee la innovación en IA con la responsabilidad social. Al igual que un proyecto de construcción requiere una planificación meticulosa y el cumplimiento de la normativa pertinente, desarrollar e implementar la IA de forma responsable exige un planteamiento similar. 

Aunque las herramientas y los materiales difieren, en ambos casos deben recabarse permisos que tengan en cuenta consideraciones éticas y de seguridad. En el caso de la IA, podría decirse que es la primera vez en la historia que las posibles consecuencias de la tecnología exigen un debate filosófico y sociológico tan profundo.

Elaborar un anteproyecto

El desarrollo responsable, ya se trate de una estructura física o de un proyecto de inteligencia artificial, debe comenzar con un propósito bien definido. En el caso de un proyecto de construcción, esto se materializa en planos detallados que describen la estructura del edificio, su tamaño y, lo que es más importante, su efecto en el entorno circundante.

Del mismo modo, el desarrollo de la IA también requiere una finalidad clara, que identifique el problema específico que pretende resolver y su impacto potencial en la sociedad. Este anteproyecto servirá de principio guía para todo el proceso de desarrollo, lo que suscitará preguntas sobre resultados imprevistos o no deseados desde el principio.

Un comienzo con unas bases digitales adecuadas ayudará a implementar una IA responsable y eficaz y reportará beneficios durante muchos años. Por el contrario, precipitarse en la implantación de la IA sin una previsión adecuada podría resultar muy perjudicial y costosa de rectificar.

Observar las directrices gubernamentales

Los gobiernos están introduciendo nueva legislación y estipulando normas con vistas a orientar un desarrollo responsable a escala global. En el Reino Unido, el AI Regulation White Paper (Libro Blanco sobre la Regulación de la IA) establece una hoja de ruta clara para una regulación ágil de la IA y directrices para el uso de la tecnología. Sirve de ayuda a los entes reguladores con las competencias y la financiación que necesitan para abordar los riesgos y oportunidades de la IA, con el objetivo de promover una innovación segura y responsable.

La UE también ha reaccionado. Los Estados miembros se enfrentan a la futura Ley de Inteligencia Artificial, que pretende fomentar un desarrollo fiable. Clasifica las solicitudes en función de su riesgo, y señala que las de alto riesgo en ámbitos como la contratación se someterán a un escrutinio más estricto. El incumplimiento conllevará importantes multas y la posible prohibición de modelos de IA que puedan causar daños.

Reforzar la gobernanza interna

El cumplimiento de este creciente conjunto de obligaciones exigirá un serio compromiso por parte de las organizaciones a nivel de directores generales y consejos de administración. No cabe duda de que va a requerir un esfuerzo considerable y una planificación coordinada, y exigirá intervenciones desde todos los ángulos, de múltiples equipos, partes interesadas, usuarios y expertos.

Resulta inquietante el resultado de una encuesta reciente de Conversica. Según dicha encuesta, solo el 6 % de los encuestados ha establecido directrices éticas claras para el uso de la IA, a pesar de que el 73 % señala que las directrices sobre IA son indispensables. Si a esto le añadimos la tentación de precipitarse con las implantaciones por miedo a perder el tren de la IA, los directivos de las empresas tendrán que actuar con moderación para garantizar que se lleva a cabo a su debido tiempo.

Desde el primer momento, la IA responsable debe comenzar con la elaboración de políticas internas, de modo que se garantice la uniformidad en toda la organización. La gobernanza a lo largo del proceso de planificación y ejecución precisará el apoyo de muchas partes, tanto internas como externas, para garantizar que la tecnología de IA se implante de forma correcta y justa.

Generar confianza entre las partes interesadas

Crear equipos de gestión del cumplimiento de la IA con un responsable para cada departamento es clave para mantener todos los proyectos bajo supervisión. Desempeñarán un papel fundamental, ya que garantizarán que los empleados tengan la oportunidad de contribuir a la creación del marco inicial de la IA, y fomentarán la comprensión de cómo la tecnología podría afectar a los puestos de trabajo y a las prácticas laborales.

Los procesos de cumplimiento deben incluir evaluaciones de riesgo exhaustivas de los proyectos propuestos para poner de manifiesto problemas como posibles sesgos e infracciones en materia de privacidad antes de finalizar los planes. Reconocer los retos desde el principio permite aclarar la finalidad de un proyecto y saber si puede contar con el visto bueno o si hay que rediseñar los planes.

Al igual que para obtener un permiso de obras que garantice que un proyecto de construcción se ajusta a la normativa y a las necesidades de la comunidad, la IA responsable requiere un planteamiento riguroso de la legislación, así como consultas con empleados, clientes, otras partes interesadas y la sociedad en general. Un desarrollo basado en la consideración y la transparencia fomentará las buenas relaciones y la confianza a largo plazo.

Determinar si la IA es justa y adecuada para la finalidad prevista

Eliminar los prejuicios y establecer la equidad serán aspectos fundamentales de muchos modelos de IA. Una cuestión de suma importancia es determinar si la IA es apta para tomar decisiones sin supervisión humana.

Tomemos por ejemplo el caso de una persona en busca de empleo con un pasado complicado (por ejemplo, antecedentes penales), pero que ha dado un giro positivo a su vida en los últimos años y cuenta con las cualificaciones más relevantes de todos los solicitantes. ¿Cómo evalúa la IA los riesgos existentes y si debe aprobar o rechazar a este posible candidato? Habrá que determinar cuidadosamente la definición de este tipo de tareas y las variables implicadas para decidir si las decisiones pueden ser gestionadas totalmente por la IA, o si bien deben depender en parte o totalmente del criterio humano.

Muchas organizaciones tendrán dificultades para encontrar internamente los recursos necesarios para validar que sus soluciones actúan de forma responsable y son adecuadas para el caso de uso en cuestión. Recurrir a proveedores y herramientas externos contribuirá a la imparcialidad, medirá la equidad de las aplicaciones de IA y, aún más importante, evidenciará cuándo la tecnología no es adecuada para el caso de uso o cuándo puede ser perjudicial.

Minimizar riesgos y planificar medidas correctoras

Ni siquiera los planes mejor diseñados garantizan resultados cien por cien positivos de la implantación de la IA. Por tanto, las organizaciones deben rendir cuentas cuando las cosas salen mal.

La existencia de puntos de activación integrados para una intervención en los procesos debería ayudar a minimizar los riesgos. Esta medida mitigará los posibles problemas antes de que pasen a tener graves ramificaciones. No obstante, las organizaciones deben ser siempre abiertas respecto a las limitaciones de los sistemas de IA y sus riesgos, por lo que deben explicar qué medidas de seguridad están disponibles.

Incluso cuando se cometen errores, la transparencia es clave. Los planes preparados de antemano deben estar listos para su puesta en marcha con el fin de informar a las partes interesadas, dar respuesta al feedback planteado y gestionar las preocupaciones. Debe haber pasos claros para abordar los incidentes que abarquen la investigación, la contención y la mitigación. Las medidas de seguimiento pueden incluir la eliminación de datos o la compensación a los clientes; todos los aspectos deben estudiarse con antelación.

Establecer un modelo para el futuro

No hay una respuesta correcta sobre cómo cumplir las normas y ser responsable. Pero sin regulación ni rendición de cuentas, incidentes como la reciente historia de Deepfake en Hong Kong podrían convertirse en habituales.

Las empresas adoptarán planteamientos diferentes en función de su tamaño y sector. Surgirán nuevos puestos de trabajo para garantizar un uso uniforme de la IA en toda la empresa y se desarrollarán más herramientas para evaluar si el uso de la IA es conforme.

No obstante, las organizaciones no deben considerar la IA responsable como un esfuerzo puntual. La creación de una cultura de aprendizaje y mejora, que tenga en cuenta el feedback de las partes interesadas, contribuirá a perfeccionar de forma continua las prácticas en materia de IA. Además, observar las normas del sector y participar en grupos afines ayudará a las empresas a adaptar las medidas de protección pertinentes para mantenerse al día de los nuevos avances en el campo de la inteligencia artificial.

Como todo proyecto de construcción de éxito, realizar ahora el trabajo preliminar para construir la IA de forma responsable demuestra un planteamiento concienzudo que beneficiará a las partes interesadas y a la comunidad por igual, y a su vez proporciona el modelo para implantaciones de éxito en el futuro.

Por: Hana Rizvić, Directora de IA en Intellias



Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button