Tecnologia

Una Inteligencia Artificial descontrolada


Algo está cambiando en la carrera desbocada que lleva la industria de la Inteligencia Artificial (IA). Como si no fuera suficiente con el reguero de cartas abiertas que se han publicado advirtiendo sobre sus riesgos, la última que acabamos de conocer va a hacer historia porque la firman un grupo de ingenieros de compañías líderes en el sector. Y lo que cuentan es bastante preocupante.

Aunque pueda sonar paranoico, mucho de lo relacionado con la IA tiene tintes apocalípticos. No en vano hay expertos en Inteligencia Artificial Generativa (IAG) que predicen que esta puede llegar a superar a la humana en el 2027, o sea pasado mañana, con consecuencias que fácilmente se nos pueden salir de las manos. Un ejemplo sencillo y cercano son las pruebas que demuestran cómo la IA ya puede clonar voces. Si está práctica se extiende, no habrá forma de confiar en nadie que nos llame por teléfono.

Por eso hay gente dentro de las compañías que desarrollan este tipo de tecnologías que están asustados. Once ingenieros de OpenAI, la compañía que va a la cabeza en esta carrera, y dos de Google Deep Mind han querido alertar con su misiva sobre una cultura temeraria que solo se preocupa por los resultados y no sopesa los riesgos. Cada una quiere hacer más inteligente su software Generando IAs superiores que se integren en cualquier aplicación de las que usamos ahora. La pregunta es ¿quién nos asegura que eso será en beneficio de la humanidad?

Tener la certeza de que esas compañías no van a manipular la verdad es algo incierto. ¿Entonces cómo confiar en ellas? Hasta ahora tenemos herramientas para defendernos que nos ayudan a descubrir fakenews o que nos revelan cuándo una fotografía ha sido manipulada, pero esto no va a ocurrir cuando se acceda al siguiente nivel de Inteligencia Artificial y esta supere a la humana. Por ahora las compañías prometen que están cumpliendo con todas las medidas de seguridad, pero quienes están dentro, como esos ingenieros, saben que es muy fácil saltarse las normas. Y van más allá preguntándose qué va a pasar cuando llegue la versión disponible gratuita de cualquiera de esas aplicaciones superinteligentes y cada uno de nosotros pueda hacer con ellas lo que quiera.

Los sistemas de Inteligencia Artificial nacieron sin un código moral que los ayude a distinguir entre el bien y el mal. Ese punto no se debe olvidar en ningún momento porque es un vacío que está ahí desde sus orígenes. Tal parece que los dueños de esas empresas no están siendo conscientes de su responsabilidad con la humanidad. Y lo curioso es que compañías como OpenAI nacieron sin ánimo de lucro con el objetivo de crear una IA segura y útil, pero algo se torció en el camino.

¿De qué sirve ir a tanta velocidad si se puede perder el control en cualquier momento? Según denuncian los ingenieros, dentro de la industria hay una obsesión por desarrollar nuevos productos a toda velocidad y cualquier reparo que se tenga y se manifieste se convierte en un palo en la rueda que frena el ritmo. Con tal de cumplir con la fecha de lanzamiento, los directivos evitan mirar a los lados y no quieren plantearse ahora los problemas que pueden llegar a presentarse.

En esta industria se necesita un entorno más abierto a la crítica, que esté atento a posibles escenarios y que no castigue al que los señala. Los gobiernos tendrían que ser informados con antelación sobre los nuevos desarrollos para poder redactar leyes actualizadas que regulen estos programas y protejan a los ciudadanos.

En ese sentido, la Unión Europea ha ido un paso por delante de Estados Unidos y ha emitido una Ley de Inteligencia Artificial, que garantiza la seguridad y el respeto de los derechos fundamentales al tiempo que impulsa la innovación y las pymes. Los riesgos que entraña la IA para la democracia, el Estado de derecho y la sostenibilidad medioambiental bien merecen que se fijen obligaciones en función de sus riesgos potenciales y su nivel de impacto.

Por no hablar del impacto en el ser humano. Ni los expertos están completamente seguros de sus advertencias ni los que creen que la IA solo trae beneficios pueden certificarlo. Mientras tanto, sin certezas sobre ese futuro, lo que obliga es a seguir adelante, con responsabilidad. Los beneficios que nos esperan pueden ser gigantescos, de hecho ya se están viendo en el mundo de la ciencia. Pero no podemos jugar sin reglas porque entonces reinaría el caos.





Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button