Los adultos mayores están siendo cada vez más el blanco de estafadores que emplean inteligencia artificial para llevar a cabo fraudes mediante diversas técnicas, como la clonación de voz, la ingeniería social y las estafas de impostores. Los datos recopilados en los últimos siete años muestran que las personas mayores de 70 años pierden más dinero debido al fraude cada año, lo que resalta la vulnerabilidad de esta población ante la evolución del cibercrimen.
A partir de los datos incluidos en el informe de amenazas de otoño de 2024 de Visa y los informes del Consumer Sentinel de la FTC de 2017-2024, identificamos varias tendencias preocupantes en las estafas en línea dirigidas a los adultos mayores y cómo la IA está transformando este panorama.
Hallazgos clave
1 de cada 5 personas perdió dinero por fraude en 2023
Las personas mayores de 70 años perdieron 2.5 veces más por incidente que el promedio
Las pérdidas promedio en este grupo han aumentado un 35% desde 2017
Las estafas de impostores son las más frecuentes y han aumentado un 145% desde 2017
El monto perdido por incidente crece cada año, y las pérdidas sufridas por los mayores de 70 años están aumentando más rápido que en otros grupos. Aunque las personas entre 20 y 39 años reportaron más incidentes en general, la cantidad perdida por incidente en los mayores de 70 años superó los $1,100 y alcanzó los $1,450 en las personas mayores de 80 años.
Este incremento del 35% en las pérdidas promedio de los mayores de 70 años contrasta con la relativa estabilidad de otros grupos.
Estafas en la era de la clonación de voz con IA
El tipo de fraude más común reportado en 2023 fueron las estafas de impostores.
Las estafas de impostores han sido frecuentes durante años. Una de las más comunes consiste en que el estafador envía un mensaje de texto a la víctima, haciéndose pasar por un amigo o familiar, y diciendo que está en problemas y necesita dinero.
El número de estafas de impostores ha crecido un 145% y ha costado a los estadounidenses $10,400 millones desde 2017.
Con los avances recientes en IA, los estafadores ahora pueden enviar mensajes de voz que son indistinguibles de los de los familiares de la víctima. Esta nueva capacidad de clonación de voz es un avance en el uso de deepfakes para extorsionar a víctimas desprevenidas. Una voz puede ser clonada a partir de una muestra de solo tres segundos y utilizada para engañar a amigos y familiares, haciéndoles creer que la persona está en peligro y necesita dinero.
Estas estafas son especialmente efectivas cuando se dirigen a los adultos mayores con la voz clonada de un nieto angustiado, logrando extraer grandes sumas de dinero y generando, además, un fuerte impacto psicológico.
Cómo proteger a los adultos mayores de estafas impulsadas por IA
La mejor manera de proteger a tus seres queridos mayores es asegurarte de que se sientan apoyados y sepan que pueden pedir ayuda. Esto es una de las estrategias más simples y efectivas para mantenerlos seguros. Si saben que cuentan con apoyo, es más probable que pidan ayuda y que puedas brindarles pequeñas lecciones frecuentes para mejorar su alfabetización digital.
La comunicación regular sobre tácticas de estafa les ayuda a reconocer señales de alerta.
Tener una “palabra de seguridad” familiar es una estrategia muy efectiva para prevenir estafas de impostores. Se trata de una palabra secreta que solo la familia conoce y que se usa para verificar la identidad de un ser querido que solicita ayuda.
Hablar abiertamente sobre los tipos de estafas más comunes y mantenerse informado sobre las tendencias actuales en el sitio web de consejos para consumidores de la FTC. También puedes reportar cualquier actividad sospechosa en el portal de denuncias de fraude de la FTC.