Los ciberdelincuentes amplían sus tácticas con cada avance tecnológico, de modo que su actividad delictiva puede mantenerse operativa a pesar de las advertencias y signos de alerta. Ahora, la inteligencia artificial ha abierto las puertas para la “clonación” de voces, un arma que los estafadores ya están usando a su favor.

Un reel de Instagram o TikTok son suficientes para que un cibercriminal, a través de aplicaciones especializadas, pueda clonar la voz de cualquier persona, de manera fácil y convincente, para enviar mensajes de voz con una gran similitud a la original.

Una vez que han generado la voz clonada, los estafadores suelen contactar a familiares, amigos y personas cercanas a la víctima, para enviarles mensajes que tienen que ver con su bienestar y constituyen una urgencia. Entre las excusas más populares se encuentran accidentes de tráfico, robos, pérdida del celular o la billetera o ayuda para viajar desde el extranjero.

Para evitar ser víctima de este tipo de estafas, se recomienda establecer una palabra secreta de seguridad con familiares y amigos, precisamente para corroborar la identidad en caso de recibir una llamada sospechosa.

Con información de El Pitazo

¿Qué opinas de esto?