Elon Musk asegura que hay una probabilidad del 20% de que la IA destruya la humanidad, pero es un riesgo que debemos asumir

Elon Musk ha alertado en numerosas ocasiones del riesgo de que la IA se vuelva en contra de los humanos. El CEO de Tesla y SpaceX ha avisado del peligro que supone que esta tecnología caiga en malas manos mientras anuncia Grok, su nueva inteligencia artificial generativa sin los límites políticamente correctos de ChatGPT.

El multimillonario ha participado en un seminario en el Abundance Summit en el que ha analizado el estado actual de la inteligencia artificial y cómo podrá evolucionar. Elon Musk ha dado un paso más allá en las advertencias después de evaluar los riesgos de las herramientas disponibles hoy en día. 

Musk está bastante convencido de que vale la pena correr el riesgo de una posible rebelión de la IA, incluso si la probabilidad fuese de casi 1 entre 5

“Creo que hay alguna posibilidad de que acabe con la humanidad. Estoy de acuerdo con Geoff Hinton y es alrededor del 10 o 20%”, ha explicado según recoge Business Insider.

El escenario no es tan apocalíptico como parece. El CEO de Tesla ha añadido que es bastante probable que la IA trabaje de la mano con los humanos y no contra ellos, aunque no ha revelado la base sobre la que ha realizado el cálculo del riesgo.

¿Qué control podría tener la IA en el futuro?

Las herramientas de inteligencia artificial se integran en la mayoría de los dispositivos, desde rutas más optimizadas en Google Maps o editar imágenes hasta realizar acciones simples con Siri. 

El verdadero riesgo para la humanidad llegaría cuando la IA tuviese poder para tomar decisiones, algo que se espera conseguir en los próximos años.

Si la IA se utiliza para gestionar recursos en épocas de crisis, la seguridad nacional o la política internacional, las consecuencias pueden ser devastadoras. 

La probabilidad de que la inteligencia artificial tome el control de la humanidad o provoque un evento como crear un arma biológica, un ciberataque a gran escala o una guerra nuclear aumenta exponencialmente.

Roman Yampolskiy, investigador de seguridad de la IA, ha asegurado a Business Insider que Elon Musk no se equivoca al afirmar que esta tecnología podría suponer un riesgo para la humanidad. Yampolskiy incluso opina que está siendo demasiado optimista con dicho porcentaje.

La (p)doom es la nueva estadística que está arrasando en Silicon Valley y que calcula el riesgo de un desastre global originado por la IA. 

Algunos expertos en tecnología estiman que la probabilidad de que tome el control es entre el 5 y el 50%, ha informado The New York Times. Yamploskiy ha asegurado que en el peor de los casos podría ser del 99,999999%.

Descubre más sobre Claudia Pacheco, autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *