La Policía de Misiones advirtió sobre una nueva modalidad de estafa en la que los delincuentes utilizan inteligencia artificial (IA) para clonar voces y engañar a sus víctimas.
Mediante este método, los estafadores simulan emergencias y solicitan dinero de manera urgente.
Esta técnica, que inicialmente se popularizó en videos humorísticos donde se imitaban rostros y voces de famosos, ahora se usa con fines delictivos.
Los delincuentes graban la voz de una persona y, a través de software de IA, la replican para llamar a familiares o amigos, haciéndose pasar por ella. En la mayoría de los casos, inventan una situación de emergencia para presionar a la víctima y lograr que transfiera dinero sin verificar la información.
Recomendaciones para evitar ser víctima de esta estafa:
✔ Verificar la identidad: Hacer preguntas específicas que solo la persona real pueda responder.
✔ Usar una palabra clave: Establecer con la familia una frase de seguridad para casos de emergencia.
✔ Cortar y confirmar: Si la situación genera dudas, finalizar la llamada y comunicarse directamente con el supuesto afectado.
Las autoridades instan a la población a mantenerse alerta y denunciar cualquier intento de estafa llamando al 911 o acudiendo a la comisaría más cercana.
Leé más: Puerto Iguazú | Una motociclista perdió la vida tras colisión contra otra moto
Fuente: (Eldopolis)