Tu voz podría ser tu mayor vulnerabilidad

La tecnología de inteligencia artificial está impulsando un aumento en las estafas de voz en línea, con solo tres segundos de audio necesarios para clonar la voz de una persona, según McAfee.

McAfee encuestó a 7054 personas de siete países y descubrió que una cuarta parte de los adultos había experimentado previamente algún tipo de estafa de voz de IA, con 1 de cada 10 dirigido personalmente y el 15 % diciendo que le sucedió a alguien que conocen. El 77% de las víctimas dijeron que habían perdido dinero como resultado.

Además, los investigadores de seguridad de McAfee Labs han revelado sus conocimientos y análisis a partir de un estudio en profundidad de la tecnología de clonación de voz de IA y el uso de los ciberdelincuentes.

Los estafadores están usando tecnología de IA para clonar voces

La voz de cada persona es única, el equivalente hablado de una huella dactilar biométrica, razón por la cual escuchar hablar a alguien es una forma tan ampliamente aceptada de generar confianza.

Pero con el 53% de los adultos compartiendo sus datos de voz en línea al menos una vez a la semana (a través de las redes sociales, notas de voz y más) y el 49% haciéndolo hasta 10 veces a la semana, clonar cómo suena alguien ahora es una herramienta poderosa en el arsenal de un ciberdelincuente.

Con el aumento de la popularidad y la adopción de herramientas de inteligencia artificial , es más fácil que nunca manipular imágenes, videos y, quizás lo más inquietante, las voces de amigos y familiares.

La investigación de McAfee revela que los estafadores están usando tecnología de IA para clonar voces y luego enviar un mensaje de voz falso o llamar a los contactos de la víctima fingiendo estar angustiados, y con el 70% de los adultos que no están seguros de poder identificar la versión clonada de la real, no es así. Sorprende que esta técnica esté cobrando impulso.

El 45 % de los encuestados dijo que respondería a un mensaje de voz o a una nota de voz que pretendiera ser de un amigo o ser querido que necesitara dinero, especialmente si pensaban que la solicitud procedía de su pareja o cónyuge (40 %), uno de los padres (31 %), o niño (20%).

El costo de caer en una estafa de voz de IA

Para los padres de 50 años o más, es más probable que este grupo responda a un niño con un 41 %. Los mensajes con mayor probabilidad de obtener una respuesta fueron aquellos que afirmaban que el remitente había estado involucrado en un incidente automovilístico (48%), le habían robado (47%), había perdido su teléfono o billetera (43%) o necesitaba ayuda mientras viajaba al extranjero (41). %).

Pero el costo de caer en una estafa de voz de IA puede ser significativo, con más de un tercio de las personas que perdieron dinero diciendo que les había costado más de $ 1,000, mientras que el 7% fue engañado con entre $ 5,000 y $ 15,000.

La encuesta también encontró que el aumento de las falsificaciones profundas y la desinformación ha llevado a las personas a ser más cautelosas con lo que ven en línea, y el 32 % de los adultos dicen que ahora confían menos que nunca en las redes sociales.

“La inteligencia artificial brinda oportunidades increíbles, pero con cualquier tecnología siempre existe la posibilidad de que se use maliciosamente en las manos equivocadas. Esto es lo que estamos viendo hoy con el acceso y la facilidad de uso de las herramientas de IA que ayudan a los ciberdelincuentes a escalar sus esfuerzos de maneras cada vez más convincentes”, dijo Steve Grobman , McAfee CTO.

Clonación de voz simplificada

Como parte de la revisión y evaluación de McAfee de esta nueva tendencia, los investigadores de McAfee dedicaron tres semanas a investigar la accesibilidad, la facilidad de uso y la eficacia de las herramientas de clonación de voz de IA, y el equipo encontró más de una docena disponibles gratuitamente en Internet.

Hay disponibles herramientas gratuitas y de pago, y muchas requieren solo un nivel básico de experiencia y conocimientos para usarlas. En un caso, solo tres segundos de audio fueron suficientes para producir una coincidencia del 85 %, pero con más inversión y esfuerzo, es posible aumentar la precisión.

Al entrenar los modelos de datos, los investigadores de McAfee pudieron lograr una coincidencia de voz del 95 % basada en solo una pequeña cantidad de archivos de audio.

Cuanto más preciso sea el clon, más posibilidades tiene un ciberdelincuente de engañar a alguien para que entregue su dinero o tome otra acción solicitada. Con estos engaños basados ​​en la explotación de las vulnerabilidades emocionales inherentes a las relaciones cercanas, un estafador podría ganar miles de dólares en solo unas pocas horas.

La evolución de la tecnología de clonación de voz

“Las herramientas avanzadas de inteligencia artificial están cambiando el juego para los ciberdelincuentes. Ahora, con muy poco esfuerzo, pueden clonar la voz de una persona y engañar a un contacto cercano para que envíe dinero”, dijo Grobman.

“Es importante mantenerse alerta y tomar medidas proactivas para mantenerlo a usted y a sus seres queridos a salvo. Si recibe una llamada de su cónyuge o un miembro de la familia en apuros y pidiendo dinero, verifique a la persona que llama: use una palabra clave previamente acordada o haga una pregunta que solo ellos puedan saber. Los servicios de protección de identidad y privacidad también ayudarán a limitar la huella digital de la información personal que un delincuente puede usar para desarrollar una narrativa convincente al crear un clon de voz”, concluyó Grobman.

Usando las herramientas de clonación que encontraron, los investigadores de McAfee descubrieron que no tenían problemas para replicar acentos de todo el mundo, ya fueran de EE. UU., Reino Unido, India o Australia, pero las voces más distintivas eran más difíciles de copiar.

Por ejemplo, la voz de una persona que habla con un ritmo, ritmo o estilo inusual requiere más esfuerzo para clonar con precisión y, como resultado, es menos probable que sea un objetivo.

Sin embargo, el sentimiento predominante entre el equipo de investigación fue que la inteligencia artificial ya había cambiado el juego para los ciberdelincuentes. La barrera de entrada nunca ha sido más baja, lo que significa que nunca ha sido tan fácil cometer delitos cibernéticos.

Protección de clonación de voz AI

  • Establezca una ‘palabra clave’ verbal con niños, familiares o amigos cercanos de confianza que solo ellos puedan conocer. Haga un plan para pedirlo siempre si llaman, envían mensajes de texto o correos electrónicos para pedir ayuda, especialmente si son mayores o más vulnerables.
  • Siempre cuestiona la fuente . Si se trata de una llamada, mensaje de texto o correo electrónico de un remitente desconocido, o incluso si es de un número que reconoce, deténgase, haga una pausa y piense. ¿Eso realmente suena como ellos? ¿Te pedirían esto? Cuelgue y llame directamente a la persona o intente verificar la información antes de responder y, por supuesto, antes de enviar dinero.
  • Piensa antes de hacer clic y compartir . ¿Quién está en tu red social? ¿Realmente los conoces y confías en ellos? Sea considerado con los amigos y las conexiones que tiene en línea. Cuanto más amplias sean tus conexiones y más compartas, mayor será el riesgo al que te expondrás al clonar tu identidad con fines maliciosos.
  • Los servicios de monitoreo de identidad pueden ayudar a garantizar que su información de identificación personal no sea accesible o notificarle si su información privada llega a la Dark Web . Toma el control de tus datos personales para evitar que un ciberdelincuente pueda hacerse pasar por ti.

0 Votes: 0 Upvotes, 0 Downvotes (0 Points)

Loading Next Post...
Follow
Search Trending
Popular Now
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...

Cart
Cart updating

ShopYour cart is currently is empty. You could visit our shop and start shopping.