Tecnologia

Así usaron la inteligencia artificial para suplantar a Verónica Alcocer en una estafa en redes sociales


Hace poco, Verónica Alcocer, primera dama de la Nación, acudió a sus redes sociales para denunciar que cibercriminales habían usado una inteligencia artificial generativa para suplantar su voz e imagen y así generar un video falso (deep fake).

De acuerdo con la denuncia de la primera dama de Colombia, ciberdelincuentes robaron su imagen para impulsar una estafa que está circulando en redes sociales.

“¡No caigan en esa estafa! Hago un llamado a usar las herramientas digitales con ética y responsabilidad, sin dañar o engañar a los demás”, escribió la primera dama a través de su cuenta en X (antes Twitter)

Verónica Alcocer denuncia una estafa en donde suplantan su identidad | Foto: Cuenta de X de Verónica Alcocer

En qué consiste la ciberestafa en la que se suplantó a Verónica Alcocer

En Facebook circula un videoclip en el que supuestamente la primera dama promociona una “estrategia de trading única” que podría mejorar la economía de las personas que deseen aplicarla.

En el video falso, la IA que está suplantando a Alcocer afirma que existe una oportunidad para “hacerse rico, cambiar la vida y mejorar la economía de Colombia”.

“Me llamo Verónica Alcocer y hoy quiero hablarte de una chica maravillosa llamada Ángela Pérez. Ángela ha desarrollado una estrategia de trading única que puede cambiar tu vida”, relata la inteligencia artificial que está suplantando la identidad de la primera dama.

Verónica Alcocer, primera damaNicolás asegura que Christian Daes financiaba lo que él denomina una “campaña paralela” a su favor y agrega que ella tiene cuotas políticas. | Foto: Presidencia

Adicionalmente, en el video se indica que para poder participar en la supuesta estrategia que promete una riqueza abundante es necesario hacer una inversión de $ 208.000. Adicionalmente, la IA que suplantó a Verónica Alcocer afirma que se trata de un método que tiene un 100 % de éxito.

Debido a que están apareciendo nuevos casos de videos falsos en donde se suplanta la identidad de una figura reconocida, cada vez cobra mayor importancia el que las personas comprendan cómo se ejecutan estos timos.

Por ese motivo, SEMANA consultó a expertos en ciberseguriad para conocer cómo los cibercriminales desarrollan las estafas con deep fakes y qué medidas pueden tomar las personas para protegerse de esa clase de engaños en redes sociales u otras plataformas digitales.

¿Cómo se ejecutó la ciberestafa con IA para suplantar a Verónica Alcocer?

David López, vicepresidente de ventas para Latinoamérica / US de Appgate, le explicó a SEMANA que los ciberdelincuentes utilizan programas de inteligencia artificial y aprendizaje automático para aprender y copiar los gestos y patrones de una persona a través de videos y archivos públicos.

Posteriormente, acuden a un software para imitar la voz, gestos del rostro y movimientos corporales de la persona a suplantar, esto con el objetivo de engañar o estafar a otras personas.

A su turno, Martina López, especialista en seguridad informática de ESET Latinoamérica le indicó a SEMANA que una vez se ha producido el video, los estafadores difunden ese contenido estratégicamente a través de redes sociales, correos electrónicos y sitios web falsos, para engañar a los usuarios y convencerlos de la legitimidad del mensaje, como fue el caso de la primera dama colombiana promoviendo una estafa de inversión.

“La capacidad de los deepfakes para engañar visualmente, combinada con tácticas de distribución viral, amplifica el alcance y la efectividad de la estafa, aumentando la probabilidad de que las víctimas caigan en la trampa”, agregó la experta

Cada vez se hace más estrecha la interacción entre humanos e inteligencias artificiales. | Foto: Ilustración generada por IA Bing Image Creator

De esta manera, los cibercriminales aprovechan estas herramientas para aumentar la credibilidad de los engaños, mejorar la efectividad de los ataques y diseñar estrategias de deepfake, para robar información de los usuarios o saquear cuentas bancarias.

¿Qué necesitan los cibercriminales para generar estos timos con IA?

De acuerdo con Martina López, inicialmente necesitan acceder a una gran cantidad de datos de la víctima, incluyendo imágenes y videos, así como grabaciones de su voz. Dichos datos suelen obtenerse de diversas fuentes en línea, como redes sociales o archivos públicos.

Además, se requiere una o varias herramientas para la generación de contenido. Estas, por la democratización de la inteligencia artificial que se ha dado en los últimos años, están disponibles en la web, ya de manera gratuita o pagas, dependiendo de la sofisticación y calidad del contenido final deseado.

Por último, una vez que se ha generado el contenido falso, los estafadores requieren una infraestructura de distribución para difundirlo ampliamente. Esto puede incluir el uso de cuentas falsas en redes sociales, sitios web fraudulentos o correos electrónicos de phishing para alcanzar a un gran número de personas y engañarlas para que interactúen con el contenido falso.

Por su parte, David López recalcó que cibercrimen se ha convertido en una estrategia rentable y masiva para aquellos que encuentran en él y en la falta de infraestructuras efectivas de seguridad una valiosa oportunidad. Con la popularización de distintas herramientas de inteligencia artificial generativa, las estafas masivas que solían llevarse a cabo mediante mensajes de texto o correos electrónicos (phishing) han evolucionado.

¿Cómo las personas pueden detectar estas estafas?

Según López, detectar las estafas de deepfake puede ser desafiante, pero hay algunas señales que las personas pueden buscar para protegerse.

Primero, es importante prestar atención a cualquier inconsistencia en el video o audio, como movimientos faciales poco naturales, sincronización labial deficiente o errores en la voz que no coinciden con la persona que se suplanta.

Además, la experta en ciberseguridad recomendó verificar la fuente del contenido. Si el video o audio proviene de una fuente no confiable o desconocida, es recomendable ser cauteloso.

Otra estrategia es acudir a otros medios de verificación, como buscar otras grabaciones auténticas de la persona en cuestión y compararlas con el contenido sospechoso.

¿Existen programas de ciberseguridad que ayuden a identificar estas estafas?

Martina López recalcó que en este momento las compañías propietarias de redes sociales, como Facebook, Twitter y YouTube, están invirtiendo recursos significativos en la investigación y desarrollo de herramientas para identificar y eliminar contenido manipulado de sus plataformas.

Dichas herramientas suelen basarse en algoritmos de aprendizaje automático que analizan el contenido en busca de señales de manipulación, como anomalías en los patrones de movimiento o edición digital.

Sin embargo, dada la naturaleza en constante evolución de estas amenazas, la detección y mitigación efectivas requieren una combinación de tecnología avanzada, colaboración entre diferentes partes interesadas y conciencia pública sobre los riesgos asociados.

¿Ante quién puede acudir una persona que fue estafada?

David López señaló que las personas afectadas por un deep fake que haya conducido a una estafa pueden acudir a las autoridades policiales y judiciales correspondientes. A su vez, indicó que se debe notificar a los prestadores de servicios involucrados, tales como bancos, redes sociales u otro tipo de entidad que tenga algún tipo de compromiso con la incidencia.

¿Qué debe hacer una persona cuya imagen está siendo usada para crear una estafa?

López precisó que una persona que sea víctima de una suplantación de identidad, debe reportarlo inmediatamente a las autoridades locales y a la plataforma donde esté siendo reproducido este material, para que sea bajado y reportado.

Adicionalmente, es muy importante que todas las entidades que puedan verse involucradas en la estafa, ya sean bancos, marcas de redes sociales, sean notificadas para que se tomen las medidas correspondientes.



Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button