Estafas con Inteligencia Artificial

Los delincuentes también han modernizado sus tácticas y ahora "clonan" voces e imágenes para engañar a sus víctimas. Si recibe una llamada de algún familiar o amigo "en apuros", verifique antes de realizar cualquier transacción monetaria, porque podría tratarse de una estafa con Inteligencia Artificial.


Detectar que hay algo raro en una voz o una imagen conocida puede salvarle de caer en trampas elaboradas con Inteligencia Artificial (IA) para estafar.

Un ejemplo es lo ocurrido a un empresario que recibió una llamada, supuestamente de su socio, solicitando una transferencia urgente de dinero. La voz era idéntica a la de su compañero de negocios, por lo que hizo la transacción, pero luego descubrió que el audio fue generado con IA.

En Guatemala también han habido casos en los que se ha utilizado esta tecnología para crear mensajes automáticos que imitan el estilo de comunicación de empresas. Los delincuentes utilizan chatbots falsos para responder mensajes y convencen a las personas de proporcionar información bancaria.

Según la Asociación Bancaria de Guatemala (ABG), además usan llamadas telefónicas, mensajes de texto y correos electrónicos, así como perfiles en redes sociales y páginas de Internet que imitan las de bancos y empresas para robar información personal.

Otro ejemplo es el de un usuario de redes sociales que recibió el mensaje de un "amigo" que necesitaba dinero urgentemente. El perfil del amigo parecía real, tenía fotos y publicaciones recientes, pero era una cuenta falsa creada con IA, explica la información compartida por la ABG.

Vicente Raúl Pérez Bámaca, encargado de la Fiscalía contra Delitos Transnacionales del Ministerio Público (MP), aconseja contactar a la persona que supuestamente lo está llamando antes de hacer cualquier transferencia.

“Por lo regular las personas lo hacen al revés, luego de depositar el dinero, contactan a la persona que supuestamente se los pidió, y se percatan que cometieron un grave error”, afirma Pérez.

Pese a las advertencias, muchas personas han caído en estafas, por lo que la ABG recomienda contactar de inmediato a su banco para reportar el fraude y bloquear las cuentas. Luego denunciar ante el MP o la Policía Nacional Civil, informar a la empresa o red social de donde surgió el fraude, y compartir la experiencia con amigos y familiares para alertarlos.

Ante los retos que representa la IA, los bancos están adoptando tecnologías avanzadas de detección de fraude, como la verificación biométrica, algoritmos de detección de “deepfakes” y el análisis de patrones de fraude en tiempo real.

Además, se están reforzando las campañas de concientización sobre estos riesgos. Pero los bancos también utilizan la IA para mejorar la seguridad y la experiencia del cliente al hacer uso de sus servicios.

Aunque el Ministerio Público informa que no ha recibido una denuncia directa sobre el uso de Inteligencia Artificial para estafar, los investigadores han establecido que ha sido empleada en gran cantidad de casos.

Pérez Bámaca refiere que desde 2023, se identificaron cerca de 16 modalidades para cometer estafas mediante la Tecnología de la Información y la Comunicación. “Las más comunes son el envío de una encomienda, la estafa en la que comunican a la víctima que ganó un carro y dinero en efectivo, así como duplicar el SIM telefónico”, refiere.

El fiscal recomienda a la población aprender sobre tecnología, pues no saber los convierte en vulnerables, y no utilizarla les priva de oportunidades.

“El año pasado a una persona le duplicaron el SIM y en siete horas movieron cerca de Q500 mil a otras cuentas, era una estructura de 12 personas, y resolver el caso fue un éxito para la fiscalía, el MP y para la víctima que recuperó su dinero”, relata.

ACCIONES PREVENTIVAS

  • Desconfíe de la precisión y la urgencia.
  • No comparta información personal ni códigos.
  • Verifique directamente con la persona o institución si recibe un mensaje sospechoso.
  • Realícele a la persona que lo contactó alguna pregunta específica, como el cumpleaños de otro miembro de la familia, o tengan alguna palabra clave.
  • No haga clic en enlaces o mensajes que no sean de fuentes oficiales.
  • Active medidas de seguridad adicionales, como la autenticación en dos pasos.