Ciberdelincuentes explotan la clonación de voz

Utilizando fragmentos de grabaciones reales extraídas de redes sociales como Instagram y TikTok, crean conversaciones falsas que pueden ser tan convincentes que las víctimas caen en la trampa. Te decimos cómo evitar ser víctima de estafa

Aquínoticias Staff

Con la creciente sofisticación de los ataques de ingeniería social, los ciberdelincuentes han encontrado en la clonación de voz una herramienta poderosa. Utilizando fragmentos de grabaciones reales extraídas de redes sociales como Instagram y TikTok, crean conversaciones falsas que pueden ser tan convincentes que las víctimas caen en la trampa. Este fenómeno está creciendo a un ritmo alarmante y pone en riesgo tanto a individuos como a empresas.

Según la Comisión Federal de Comercio de los EE. UU., solo en 2023, el país perdió 2,700 millones de dólares debido a estafas de este tipo. En el Reino Unido, el 25% de los adultos afirmó haber sido víctima de una estafa de clonación de voz mediante inteligencia artificial, un número sorprendente considerando que casi la mitad de los encuestados desconocían la existencia de tales fraudes.

El FBI también emitió alertas sobre los peligros de estas estafas, destacando las devastadoras consecuencias financieras y el daño potencial a la reputación y los datos personales. ESET, líder en detección de amenazas, recomienda a las personas mantenerse alertas a cualquier mensaje inesperado, devolver llamadas a números conocidos y establecer “frases seguras” con amigos y familiares para verificar la identidad de quien llama. Además, la autenticación multifactor es una medida clave para proteger cuentas y sistemas personales.

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *