Tecnologia

María Pérez Ortiz, informática: «En el futuro necesitarás una licencia, como la de armas, para poder descargarte herramientas poderosas de IA»


Estamos viendo un movimiento mundial para concienciar sobre los riesgos de la inteligencia artificial (IA), pero se centra demasiado en los riesgos existenciales. No sabemos si desencadenará un apocalipsis, pero esta perspectiva de ciencia ficción dificulta percibir los peligros actuales, como la concentración de poder y el agravamiento de las desigualdades», advierte María Pérez Ortiz (Córdoba, 1990). «Si hablas de ética, no vas a conseguir sentar a Estados Unidos y a China en la misma mesa», explica.

«Pero hay asuntos concretos más urgentes, como la facilidad con la que los modelos de lenguaje natural, como ChatGPT, pueden ser utilizados por hackers y terroristas; el reconocimiento facial indiscriminado; la pornografía infantil generada con imágenes sintéticas; las aplicaciones que utilizan los chavales para desnudar a sus compañeras; la desinformación… En el Internet oscuro (dark web) puedes pagar por arruinar la reputación de una persona con estas herramientas. Son malas prácticas que ya forman parte del día a día, sin necesidad de que una superinteligencia quiera deshacerse de los humanos».

Considera que «fue un error» abrir estos modelos al público antes de cerciorarse de que fueran seguros. «Es posible que en el futuro tengas que sacarte una licencia antes de poder descargarte una de estas herramientas de IA tan poderosas, como hoy se pide el carné de conducir o una licencia de armas», pronostica esta experta, premiada por la Fundación BBVA y la Sociedad Científica Informática de España (SCIE) por desarrollar aplicaciones pioneras en aprendizaje automático.

Pérez Ortiz es profesora del University College London (UCL), donde dirige el máster de IA e innovación sostenible. «Nuestro objetivo es desarrollar algoritmos positivos y seguros; y que los centros de datos consuman menos energía y agua para refrigerarlos. Ahí es donde Europa, que ha aprobado la primera ley de inteligencia artificial del mundo, puede liderar. Es necesario establecer salvaguardas, pero se invierte mucho más en el desarrollo de la IA que en estándares de seguridad. Y estos modelos exigen tanta capacidad de computación, y es tan cara, que pueden convertirse en un coto de las grandes tecnológicas».


Las claves de mi investigación

1

«Una IA responsable debe incluir transparencia, ética, rendición de cuentas, privacidad, equidad… Analizo los modelos de lenguaje natural para certificar los riesgos de los algoritmos».

2

«Creo modelos predictivos para resolver problemas del mundo real en biomedicina, agricultura, clima, neurociencia… Mi último trabajo detecta cambios en el hielo marino polar con aprendizaje profundo».

3

«Otra de mis líneas de investigación es la creación de gemelos digitales para diseñar estrategias de salud pública que sirvan, por ejemplo, para frenar la propagación de otra pandemia».

4

«La IA, que ya está transformando el mundo, implica oportunidades y abusos; algunos de los cuales ni siquiera podemos imaginar. Por eso también promuevo el debate».



Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button