Tecnologia

Experto defiende que la IA debe demostrar que tiene una inteligencia equiparable a la humana


Huelva, 23 Jul. (EUROPA PRESS) – El profesor de la Universidad de Sídney (Australia) José Miguel Bello Villarino ha defendido este lunes que la Inteligencia Artificial (IA) aún debe demostrar que tiene una inteligencia que «se equipare» a la del ser humano, y ha explicado que la mayoría de definiciones sobre esta tecnología «no especifican lo que es, afirmando que «no existe una definición universalmente aceptada».

En una ponencia titulada ‘La inteligencia artificial en el contexto jurídico: concepto, aplicaciones y dilemas’, organizada en la sede onubense de Santa María de La Rábida en la Universidad Internacional de Andalucía (UNIA), dentro del ciclo de conferencias ‘Inteligencia Artificial, Justicia Digital y Derechos Humanos’, el ponente ha expuesto que la IA «no tiene un marco regulatorio establecido en la Unión Europea como Estado Unidos o China», incidiendo en que los expertos recomiendan usar de momento una «ética dura» y una «ética blanda» para controlar su marco de actuación.

Bello ha mencionado que el Nacional Institute of Standards and Technology (NIST) determina que la IA es «un sistema basado en máquinas que puede, para un conjunto dado de objetivos definidos por el ser humano, hacer predicciones, recomendaciones o tomar decisiones que influyen en entornos reales o virtuales». Además, ha añadido que los sistemas de IA «utilizan entradas basadas en máquinas y humanos para percibir entornos reales y virtuales, abstraer dichas percepciones en modelos mediante análisis de forma automatizada y utilizar la inferencia de modelos».

El profesor ha citado otras definiciones, como la de la Comisión Electrónica Internacional (IEC); que la concibe como «un sistema de ingeniería que genera resultados tales como contenidos, previsiones, recomendaciones o decisiones para un conjunto dado de objetivos definidos por el ser humano».

La noción de sistema de IA en el presente reglamento, ha explicado el ponente, debe definirse «claramente» y debe ajustarse «estrechamente» a la labor de las organizaciones internacionales que trabajan en IA para «garantizar la seguridad jurídica, facilitar la convergencia internacional y obtener una amplia aceptación», al igual que «proporcionar flexibilidad para adaptarse a la rápida evolución tecnológica» y «no abarcar los sistemas que se basan en reglas definidas únicamente por personas físicas para ejecutar operaciones autónomas».

Ha expuesto a su vez que el Plan de Recuperación, Transformación y Resiliencia del Gobierno de España ofrece «una amplia gama» de usos de la IA, desde «compras online, transporte o asistentes virtuales hasta salud, ciberseguridad o automoción». «Desde un punto de vista técnico, puede hacer procesamientos de audio, imagen y vídeo o procesar lenguaje», ha subrayado.

Problemas y soluciones

Bello ha detallado que los profesionales mencionan que la IA es una tecnología disruptiva «desconocida, con falta de autorregulación, poca participación del sector privado y escasez de un sistema legal adecuado, entre otros».

«Estos sistemas gozan de autonomía, además de que las responsabilidades en la cadena de producción se distribuyen gracias a la IA y las empresas fomentan la monocultura de la IA», ha expuesto el profesor como principales problemas, aunque ha destacado sustancialmente que «el sistema puede seguir aprendiendo del mundo exterior, generar cosas nuevas y, por tanto, no podemos analizar el riesgo total que supone».

Como soluciones, Bello ha explicado que los profesionales citan a la ética como «remedio» para controlar la IA, que llevará a crear, dar forma o cambiar las leyes sobre la IA –ética dura– o a prescribir lo que se debe y no debe hacerse más allá de la normativa existente –ética blanda–-. «Se está usando la ética para algo que no fue concebida, además de que carece de mecanismos para imponer el cumplimiento de estos valores y principios», ha detallado.

Por último, el ponente ha expuesto que la UE ha publicado un «paquete legislativo» para regular la IA con medidas complementarias para sistemas de riesgo limitado o alto riesgo y para prohibir «ir contra valores fundamentales de la Unión Europea y estados miembros», encontrándose estas leyes en aplicación. «En 2023, Estados Unidos estableció una orden donde las empresas que creen IA deben registrar los riesgos existenciales o de seguridad que ha sido muy útil para que no sobrevivan los sistemas de IA más peligrosos, algo que debe servir de ejemplo para el devenir de la UE», ha concluido.



Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button