
La tecnología de inteligencia artificial está impulsando un aumento en las estafas de voz en línea, con solo tres segundos de audio necesarios para clonar la voz de una persona, según McAfee.
McAfee encuestó a 7054 personas de siete países y descubrió que una cuarta parte de los adultos había experimentado previamente algún tipo de estafa de voz de IA, con 1 de cada 10 dirigido personalmente y el 15 % diciendo que le sucedió a alguien que conocen. El 77% de las víctimas dijeron que habían perdido dinero como resultado.
Además, los investigadores de seguridad de McAfee Labs han revelado sus conocimientos y análisis a partir de un estudio en profundidad de la tecnología de clonación de voz de IA y el uso de los ciberdelincuentes.
La voz de cada persona es única, el equivalente hablado de una huella dactilar biométrica, razón por la cual escuchar hablar a alguien es una forma tan ampliamente aceptada de generar confianza.
Pero con el 53% de los adultos compartiendo sus datos de voz en línea al menos una vez a la semana (a través de las redes sociales, notas de voz y más) y el 49% haciéndolo hasta 10 veces a la semana, clonar cómo suena alguien ahora es una herramienta poderosa en el arsenal de un ciberdelincuente.
Con el aumento de la popularidad y la adopción de herramientas de inteligencia artificial , es más fácil que nunca manipular imágenes, videos y, quizás lo más inquietante, las voces de amigos y familiares.
La investigación de McAfee revela que los estafadores están usando tecnología de IA para clonar voces y luego enviar un mensaje de voz falso o llamar a los contactos de la víctima fingiendo estar angustiados, y con el 70% de los adultos que no están seguros de poder identificar la versión clonada de la real, no es así. Sorprende que esta técnica esté cobrando impulso.
El 45 % de los encuestados dijo que respondería a un mensaje de voz o a una nota de voz que pretendiera ser de un amigo o ser querido que necesitara dinero, especialmente si pensaban que la solicitud procedía de su pareja o cónyuge (40 %), uno de los padres (31 %), o niño (20%).
Para los padres de 50 años o más, es más probable que este grupo responda a un niño con un 41 %. Los mensajes con mayor probabilidad de obtener una respuesta fueron aquellos que afirmaban que el remitente había estado involucrado en un incidente automovilístico (48%), le habían robado (47%), había perdido su teléfono o billetera (43%) o necesitaba ayuda mientras viajaba al extranjero (41). %).
Pero el costo de caer en una estafa de voz de IA puede ser significativo, con más de un tercio de las personas que perdieron dinero diciendo que les había costado más de $ 1,000, mientras que el 7% fue engañado con entre $ 5,000 y $ 15,000.
La encuesta también encontró que el aumento de las falsificaciones profundas y la desinformación ha llevado a las personas a ser más cautelosas con lo que ven en línea, y el 32 % de los adultos dicen que ahora confían menos que nunca en las redes sociales.
“La inteligencia artificial brinda oportunidades increíbles, pero con cualquier tecnología siempre existe la posibilidad de que se use maliciosamente en las manos equivocadas. Esto es lo que estamos viendo hoy con el acceso y la facilidad de uso de las herramientas de IA que ayudan a los ciberdelincuentes a escalar sus esfuerzos de maneras cada vez más convincentes”, dijo Steve Grobman , McAfee CTO.
Como parte de la revisión y evaluación de McAfee de esta nueva tendencia, los investigadores de McAfee dedicaron tres semanas a investigar la accesibilidad, la facilidad de uso y la eficacia de las herramientas de clonación de voz de IA, y el equipo encontró más de una docena disponibles gratuitamente en Internet.
Hay disponibles herramientas gratuitas y de pago, y muchas requieren solo un nivel básico de experiencia y conocimientos para usarlas. En un caso, solo tres segundos de audio fueron suficientes para producir una coincidencia del 85 %, pero con más inversión y esfuerzo, es posible aumentar la precisión.
Al entrenar los modelos de datos, los investigadores de McAfee pudieron lograr una coincidencia de voz del 95 % basada en solo una pequeña cantidad de archivos de audio.
Cuanto más preciso sea el clon, más posibilidades tiene un ciberdelincuente de engañar a alguien para que entregue su dinero o tome otra acción solicitada. Con estos engaños basados en la explotación de las vulnerabilidades emocionales inherentes a las relaciones cercanas, un estafador podría ganar miles de dólares en solo unas pocas horas.
“Las herramientas avanzadas de inteligencia artificial están cambiando el juego para los ciberdelincuentes. Ahora, con muy poco esfuerzo, pueden clonar la voz de una persona y engañar a un contacto cercano para que envíe dinero”, dijo Grobman.
“Es importante mantenerse alerta y tomar medidas proactivas para mantenerlo a usted y a sus seres queridos a salvo. Si recibe una llamada de su cónyuge o un miembro de la familia en apuros y pidiendo dinero, verifique a la persona que llama: use una palabra clave previamente acordada o haga una pregunta que solo ellos puedan saber. Los servicios de protección de identidad y privacidad también ayudarán a limitar la huella digital de la información personal que un delincuente puede usar para desarrollar una narrativa convincente al crear un clon de voz”, concluyó Grobman.
Usando las herramientas de clonación que encontraron, los investigadores de McAfee descubrieron que no tenían problemas para replicar acentos de todo el mundo, ya fueran de EE. UU., Reino Unido, India o Australia, pero las voces más distintivas eran más difíciles de copiar.
Por ejemplo, la voz de una persona que habla con un ritmo, ritmo o estilo inusual requiere más esfuerzo para clonar con precisión y, como resultado, es menos probable que sea un objetivo.
Sin embargo, el sentimiento predominante entre el equipo de investigación fue que la inteligencia artificial ya había cambiado el juego para los ciberdelincuentes. La barrera de entrada nunca ha sido más baja, lo que significa que nunca ha sido tan fácil cometer delitos cibernéticos.
frenify: Thank you for your kind words! We’re glad you enjoyed the post. Stay tuned for more content – we’ve got plenty more coming your way.
frenify: I really enjoyed reading this. The content is informative, and the layout makes it so easy to follow. Looking forward to more posts like this! Keep up the great work!