Tecnologia

cómo roban identidad con inteligencia artificial


Filas que dan vuelta a la esquina de personas que esperan que les escaneen su iris a cambio de unas pocas criptomonedas.

Esta realidad, que fue y sigue siendo noticia, abre demasiados interrogantes, y uno de ellos desvela a los expertos en ciberseguridad: ¿cuánto tiempo más la biometría seguirá siendo un elemento eficaz para cuidar los activos digitales?

Biometría e inteligencia artificial

“Con la irrupción de la Inteligencia Artificial (IA) pueden vulnerarse distintos tipos de autenticación y autorización por biometrías, esto incluye la biometría facial”, advierte a iProUP Félix Lauzem, gerente de Red Team de NeoSecure by SEK.

Es que con el avance de las deepfakes creadas por IA y su alto nivel de realismo, “la confiabilidad de las soluciones de autenticación pueden no tener la capacidad suficiente para verificar si se trata de una persona (humana) o de un elemento falso creado por una máquina”, añade Lauzem.

“La IA complica la ciberseguridad al permitir ciberataques más sofisticados. Estos pueden incluir herramientas de piratería automatizadas que se adaptan a las defensas de seguridad, deepfakes que manipulan audio y vídeo para hacerse pasar por individuos”, detalla a iProUP Pablo Gagliardo, vicepresidente Noventiq Latinoamérica.

Pero todavía hay más según la mirada de este especialista: “La IA también puede analizar grandes cantidades de datos para identificar vulnerabilidades con mayor rapidez que sus homólogos humanos”.


El escaneo de iris sigue siendo el método biométrico más eficaz

El punto es que esta nueva tecnología facilita el trabajo de los delincuentes. “Se están produciendo cada vez ataques más sofisticados, preparados con IA generativa“, sostiene a iProUP Jesús Alonso Murillo, Chief Information Security Officer (CISO) de Prosegur global.

“Cualquiera, sin muchos conocimientos previos, puede realizar ataques sofisticados con patrones avanzados, que pueden comprometer la seguridad. Además, la privacidad es otro patrón a tener en cuenta”, completa.

Hernando Castiglioni, director de Ingeniería para Fortinet Sudamérica Este, asegura a iProUP que “cualquier tipo de dato siempre puede estar sujeto a vulnerabilidades o fugas. Los datos biométricos no dejan de ser piezas de información que pueden caer en manos equivocadas”.

Asimismo, “muchos sistemas de autorización biométrica pueden ser vulnerados aprovechando espacios para engañar la autorización, ya sea con la reproducción de voz como el reconocimiento facial, entre otros”, detalla.

Biometría: ¿pueden hackear mi voz?

¿Audios con la voz de Messi? ¿Es la voz del 10 de la Selección Argentina? No, es nuevamente la IA haciendo de las suyas. Entonces, qué pasa con lo que se proyectaba como el poder administrar los dispositivos a partir de nuestras palabras.

¿La imitación de voces de la IA puede hacer vulnerables a los modelos de ingreso por dictado de voz? “¡Sin duda que sí!”, afirma Lauzem.


Los expertos aseguran que es posible clonar la voz con inteligencia artificial para impersonar a las víctimas

“Los mecanismos de aprendizaje de la IA están evolucionando de manera desenfrenada, aprendiendo a partir de inserciones de datos, ya sean de texto, audio o video. Cada vez se nota más cuán cerca están sus resultados de la realidad humana, creando voces y entonaciones precisas“, explica el gerente de NeoSecure by SEK.

Diversos casos, a partir de estas manipulaciones de voces, “ya se están utilizando para la práctica de fraudes y estafas, y esto también puede permitir la evasión de sistemas que utilizan la autenticación por voz”, suma este experto.

El avance de estos trucos para saltear los mecanismos de ciberseguridad obliga a los expertos a pensar todo el tiempo cómo robustecer los ingresos.

“El complemento perfecto para estos mecanismos es el multifactor de autenticación vía token, SMS o app y llevar todo a un modelo de acceso Zero Trust”, dice a iProUP Martín Medina, Business Development Manager en BGH Tech Partner.

“La IA podría utilizarse para analizar, procesar y utilizar los datos biométricos con un fin no lícito”, asegura a iProUP Gustavo Pontoriero, Cybersecurity Lead de Nubiral. En este sentido, detalla:

  • Huellas dactilares: la IA podría utilizarse para crear falsificaciones o eludir controles de los sistemas de gestión.
  • Reconocimiento facial: podría ser usada para crear técnicas de generación de imágenes falsas o el robo de las imágenes / patrones del sistema que las alberga para así engañar a los sistemas de reconocimiento facial.
  • Reconocimiento de iris: de todos modos, aún es uno de los métodos biométricos más seguros, por tal razón son más utilizados en aeropuertos o en entidades bancarias por su baja tasa de falsos positivos y su efectividad

Cibertataques con inteligencia artificial: cómo defenderse

Para contrarrestar los desafíos de ciberseguridad impulsados por la IA, “las empresas pueden utilizar esta misma tecnología e integrarla en sus sistemas de inteligencia de amenazas para la detección temprana y el análisis predictivo”, indica Gagliardo.


Los expertos advierten que la IA permite a gente sin conocimiento técnico realizar ataques avanzados

“Los mecanismos de respuesta automatizada permiten actuar rápidamente contra las amenazas, mientras que la seguridad biométrica mejorada con autenticación adaptativa mejora la defensa contra la suplantación biométrica”, cuenta el líder de Noventiq Latinoamérica.

Además, remara Gagliardo, “las simulaciones de formación mejoradas con IA ayudan a crear una mano de obra consciente de la seguridad, y la descentralización de las aplicaciones de IA mediante técnicas como el aprendizaje federado reduce los riesgos de los datos centralizados, reforzando así las medidas de ciberseguridad en varios frentes”.

“La biometría es una tecnología prácticamente infalible en lo que a seguridad de operaciones se refiere, especialmente en el terreno de la banca digital. Pero no cualquier tipo de biometría puede llegar a detectar identidades falsas a partir de inteligencia artificial”, indica a iProUP Marcelo Fondacaro, CCO de Veritran.

En la actualidad, “la mayoría de las entidades financieras utiliza biometría 2D, que presenta muchas debilidades en términos de protección y puede ser vulnerada”, cuenta Fondacaro.

“La biometría 3D, en cambio, es la que brinda una mayor capa de seguridad y la recomendada para el sistema financiero, ya que es capaz de validar la identidad de una persona y realizar una prueba de vida de manera sencilla y en apenas segundos, volviéndola prácticamente infalible y sin sacrificar la experiencia de usuario”.

Por último, Gastón Vargas, SOC Analyst de Sparkfound, resalta que “los usuarios son responsables de su propia información por lo que deben de cuidar sus datos biométricos eligiendo donde utilizarlos y en donde no exponerlos”.



Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button