Comienzan a crecer de forma alarmante las estafas con IA clonando rostros y voces.

¡Alarmante! Estafas con IA clonando voces y rostros ¿Qué sigue?

No podemos negar que la inteligencia artificial es una herramienta que puede ser considerablemente poderosa para ayudarnos en muchos ámbitos, tanto personal como laboral. Aunque también es un arma de doble filo, no únicamente por la cantidad de puestos de trabajo que se perderán y los que ya se están perdiendo. También tenemos que preocuparnos por otra cosita: las estafas con IA clonando voces y rostros es algo que está creciendo de forma alarmante.

Ya teníamos que “aguantar” las estafas telefónicas ilegales usando VoIP, varios de criptocomercio en teléfonos móviles y podríamos seguir todo el día con las tendencias de 2022 que parecen no querer parar en este 2023. Incluso, con la creciente popularidad de la IA, las estafas también están evolucionando y volviéndose más complejas. Lo que las vuelve difíciles de detectar hasta que es demasiado tarde.

Estafas con IA clonando voces y rostros

Al tratarse de una herramienta tan poderosa y que brinda semejante cantidad de opciones, lo que nos permite usarla para casi todo. Es evidente, que como ya ha demostrado el ser humano, también se puede usar con malas intenciones. En este caso, un hombre de China recibió una videollamada por WeChat de su mujer.

Resulta, que su esposa pidió que le transfiriera 3.600 euros porque tuvo un accidente de coche y necesitaba solucionar la situación rápidamente antes de que pasara a mayores. El problema en este caso es que, efectivamente, no se trataba de su mujer.

A pesar de que la llamada se hizo desde otra cuneta, simplemente se puso una excusa por no poder utilizar su teléfono. Sin embargo, como se trata de una situación bastante poco común (por ahora) el hombre cayó en la trampa. Después de todo, en la misma videollamada se veía el rostro de su mujer gesticulando y hablando con el mismo tono de voz de siempre ¿Por qué tendría que dudar? El problema es que se trataba de una inteligencia artificial.

Todo parece indicar que los estafadores se encontraban vigilando de cerca a la pareja, sabían cuáles eran sus rutinas. Pero lo más grave del asunto, es el hecho de que la mujer de este hombre, tiene un canal en una red social que trata de cocina y es bastante popular. Lo que significa que los estafadores lograron entrenar una IA con su rostro y voz con cientos de horas de vídeo.

Las estafas con inteligencia artificial no paran de crecer

Y no lo harán próximamente. Lo podemos ver en The Washington Post, en donde muestran varios casos que pasaron últimamente. Según los datos proporcionados por FTC, en el año 2022 esta clase de estafas aumento de forma considerable, con casi 40.000 denuncias de gente que fue estafada de esta manera, simulando la voz de otra persona. Gracias a los enormes avances de esta tecnología, lo único que podemos esperar es que sigan en aumento.

La situación se pone peor cuando vemos que una inteligencia artificial es capaz de imitar la voz de una persona con una pequeña muestra de audio. Y si, no hacen falta horas y horas de audio para poder imitar la voz, así que termina siendo demasiado fácil. Este software puede analizar aquello que hace que su voz sea distinta a otras, analizando su edad, género, acento, etc. Con una enorme base de datos a su disposición, puede encontrar otras voces similares y crear patrones que le permiten imitar la voz de cualquier persona.

Gracias a esta tecnología, un estafador puede tomar nuestra voz. Quizás de alguna de nuestras redes sociales, cuando subimos un vídeo en una fiesta con amigos, cuando compartimos una historia en Instagram y, si tenemos un canal en alguna red social compartiendo contenido sobre lo que sea, entonces este estafador tendría las cosas mucho más fáciles.

Pero la situación empeora aún más cuando realizando una pequeña búsqueda en Google. Nos encontramos con demasiados servicios que ofrecen la posibilidad de imitar la voz de cualquier persona o pasar texto a voz justamente con estas voces. Y para bien o para mal, el costo de estos servicios no es caro, estamos hablando de que algunos cuestan menos de 7 euros al mes.

Las alarmas ya están encendidas

Para que nos demos cuenta de la magnitud de este problema, podemos ver que las mismas autoridades chinas ya están preocupadas por la situación de una manera alarmante.  Incluso, están enviando mensajes a sus ciudadanos a través de sus redes sociales para que tengan cuidado con su información biométrica y que, si es posible, no se compartan vídeos, imágenes y audios a través de las redes sociales.

Incluso, muchos streamers están sufriendo el uso de esta tecnología. No son precisamente pocos los estafadores que clona los rostros de figuras reconocidas para vender productos falsos en internet.

Por ahora, no lo pueden frenar las estafas con IA clonando voces y rostros

Estamos hablando de que lograr frenar esta clase de problemas no es precisamente algo fácil, ni posible en la actualidad. Los expertos en la materia, aseguran que los tribunales, reguladores y las fuerzas de la ley, en términos generales, no cuentan con los recursos necesarios para poder hacerle frente a esta situación que no para de crecer.

A esto, debemos sumar el hecho de que lograr identificar al estafador no es una tarea sencilla, especialmente porque muchas de estas llamadas se realizan desde diferentes partes del mundo con tecnología que permite disfrazar la ubicación original.

Lo único que se podría hacer (por ahora) es lo mismo que está haciendo China con una ley que regula dichas tecnologías de IA generativas. Muchas herramientas de IA como ChatGPT ya se encuentran censuradas en el país asiático. Sin embargo, se puede acceder a estas de forma ilegal y, convengamos que los malos actores no tienen muchos inconvenientes en hacerlo.

Por lo tanto, esta clase de restricciones no son precisamente efectivas, tampoco convenientes. Un estafador puede acceder a esta tecnología si realmente lo desea. Sin embargo, un ciudadano común y corriente, al quedarse fuera de estos avances y no poder estar actualizado (usándolo, leyendo, aprendiendo cómo funciona, etc.) automáticamente, se vuelve más vulnerable que nunca.


Deja un comentario