Tecnologia

Nuevas modalidades de estafas con IA amenazan retiros de AFP y Gratificaciones | deepfake | smishing | phishing | TECNOLOGIA


De acuerdo con el Centro de Operaciones de Seguridad de Appgate, los fraudes aumentaron 74% en el mundo por el uso indebido de la Inteligencia Artificial. En el caso de Perú, en lo que va de 2024, los fraudes (25,896) crecieron 7% en comparación con el mismo período de 2023, así lo comentó Diego Vences, especialista en Business Analytics de MoneyGram International.

Hoy, el phishing es el ciberataque más prevalente y popular: Perú registró un aumento del 240% en ataques de phishing si se compara el primer semestre con el 2023.

La mayoría de los fraudes financieros se realizan mediante ataques de , en WhatsApp y SMS.

Al respecto, Fabio Assolini, director del Equipo Global de Investigación y Análisis (GReAT) para América Latina en Kaspersky, el aumento de los fraudes se debe a varias razones: la aparición de herramientas de IA, un mayor número o de personas conectadas y más servicios financieros accesibles a través de plataformas móviles, entre otros.

Para Diego Vences, los se han disparado por la inserción de formas más sofisticadas de , la cual tendría un crecimiento exponencial en los siguientes años gracias a la digitalización.

LEA TAMBIÉN: El troyano bancario de origen peruano que roba desde teléfonos Android, ¿cómo identificarlo?

Modalidades de estafas creadas con IA

La Inteligencia Artificial está detrás de la sofisticación de los fraudes en el mundo. “El avance de la IA a nivel mundial potenciaría el desarrollo de nuevos softwares que sofisticarían este tipo de ataques. Por ejemplo, en la Bahía de San Francisco (cerca de Silicon Valley) ya hay softwares que facilitan al usuario el concretar sus ataques sin necesidad de ser especialistas en o desarrollo de softwares”, explicó el especialista en Business Analytics de MoneyGram International.

Asimismo, alertó que estos softwares maliciosos no tardarían en llegar a Perú. Entonces, ¿cuáles son las nuevas modalidades de estafas creadas con IA? El especialista detalló las cuatro más importantes, que son las siguientes:

  • : Suplantación de voz y video. Ejemplo más conocido por relevancia y daños colaterales –presidente Zelensky pidiendo a las tropas ucranianas que se rindan ante las rusas.
  • Voice Cloning en fraude de Bancos: Se replica la voz del familiar o de persona de relevancia para convencer a las víctimas de hacer envío de dinero o revelar información confidencial al criminal.
  • Correos de Phishing mejorados por AI: Emails con contexto legítimo y estilo de escritura para convencer al receptor del email de revelar información confidencial al delincuente.
  • Fraude de “identidad sintética “o Frankenstein ID”: Se mezcla la realidad con la ficción.
Voice Cloning en fraude de Bancos: Se replica la voz del familiar o de persona de relevancia para convencer a las víctimas de hacer envió de dinero o revelar información confidencial al criminal. (Foto: Difusión)

Voice Cloning en fraude de Bancos: Se replica la voz del familiar o de persona de relevancia para convencer a las víctimas de hacer envió de dinero o revelar información confidencial al criminal. (Foto: Difusión)

LEA TAMBIÉN: Las bandas cibercriminales más temidas en Perú y las empresas que fueron sus víctimas

¿Retiros de AFP y gratificaciones de julio en riesgo?

Tras aprobarse el séptimo retiro de AFP, los ciberdelincuentes ya pusieron el “anzuelo” a los peruanos para vaciar sus fondos a través de falsos mensajes de texto, una modalidad de estafa conocida como .

Muchos han reportado mensajes, los cuales incluyen textos engañosos como: “Felicidades, el depósito de tu AFP ha sido aprobado. Para hacer el retiro, ingrese aquí”.

Al hacer clic en el hipervínculo, los usuarios son redirigidos a un sitio que imita el portal de un banco y solicita datos personales, que son capturados por delincuentes.

Para Diego Vences, de MoneyGram International, el uso inadecuado de la IA puede aumentar loa , especialmente en estas fechas de y las gratificaciones de julio. “La IA, cuando es utilizada por ciberdelincuentes, puede amplificar la sofisticación y efectividad de sus ataques”.

Sin embargo, sostuvo que es difícil cuantificar los montos adicionales en riesgo debido a la variedad en los métodos de ataque, además depende del nivel de respuesta de las instituciones financieras y la concientización del público.

En tanto, Fredy Linares, experto en ciberseguridad y docente de la UP, consideró que el uso inadecuado de la IA no aumentará los fraudes en los retiros de AFP porque “existe un canal oficial donde se hacen las solicitudes de retiro”. Pero, sí advirtió vulnerabilidad en fechas en el pago de las gratificaciones en julio por el aumento de transacciones de dinero.

Tras aprobarse el séptimo retiro de AFP, los ciberdelincuentes ya pusieron el “anzuelo” a los peruanos para vaciar sus fondos a través de falsos mensajes de texto, una modalidad de estafa conocida como Smishing. (Foto: Difusión)

Tras aprobarse el séptimo retiro de AFP, los ciberdelincuentes ya pusieron el “anzuelo” a los peruanos para vaciar sus fondos a través de falsos mensajes de texto, una modalidad de estafa conocida como Smishing. (Foto: Difusión)

LEA TAMBIÉN: Nuevas modalidades de fraude en micro y grandes empresas: ¿cómo evitar ser víctima?

Estafas con IA aumentarán la cantidad de fraudes en los retiros de AFP

¿Quedó atrás el phishing y ahora hay nuevas estafas más sofisticadas con IA? Para Elvis Rivera, gerente de ingeniería de sistemas de Fortinet, los cibercriminales siguen usando las mismas técnicas de o smishing, solo que esta vez es más fácil crear herramientas de fraude en menor tiempo por la que otorga la IA”.

En esa línea, señaló que la facilidad y rapidez con la que se generarán herramientas de estafas con IA van a incrementar la cantidad de fraudes en el contexto de retiros de AFP y las gratificaciones para este año, incluso serán mayores a años anteriores.

Para Fabio Assolini, todos los mensajes de phishing y fraudulentos bloqueados por nuestros productos son creados por ciberdelincuentes que emplean herramientas de IA, aunque no los diferenciamos.

“Es difícil determinar cuántos de ellos son creados utilizando IA y cuántos aún son realizados de forma manual. Pero, algo de lo que estamos seguros es que cuando los gobiernos ofrecen ayuda financiera, aumenta el número de ciberataques. Vimos la misma situación durante la pandemia, explicó el experto de Kaspersky.

LEA TAMBIÉN: Deepfake: el lado oscuro de la IA generativa y sus nuevas víctimas

¿Qué medidas debemos tomar para no caer en estafas con IA?

Diego Vences, especialista en Business Analytics, compartió medidas tecnológicas para que las personas no sufran los nuevos métodos de estafas creados con IA, que son las siguientes:

  • Multi-factor Autenticación (MFA): la regla se basa en utilizar múltiples formas de autoidentificarse (contraseñas, data biométrica y apps de autoidentificación).
  • Herramientas de AI y Machine Learning: crear sistemas de AI para la detección de Fraude puede ser útil para identificar red flags o actividad sospechosa en tiempo real. Docu-serie: Ashley Madison en Netflix muy buen ejemplo.
  • Monitoreo de transacciones bancarias: los bancos hoy en día implementan monitoreo automatizado de transacciones para ver señales de fraude.
  • Verificación Biométrica: como reconocimiento facial combinando detección en vivo para asegurar que la persona está realizando acciones fiscalmente presentes y no usando una entidad AI.

LEA TAMBIÉN: Empresas peruanas pagan a “hackers” para que no filtren información

SOBRE EL AUTOR

Periodista digital con foco en carreras del futuro, tecnología, startups e internacionalización de empresas. Exredactor de Economía en Diario El Gobierno. Desde el 2023 es parte de Gestión.

Comienza a destacar en el mundo empresarial recibiendo las noticias más exclusivas del día en tu bandeja Aquí. Si aún no tienes una cuenta, Regístrate gratis y sé parte de nuestra comunidad.



Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button