31 de julio de 2023
El "deepfake de voz" es la utilización de la Inteligencia Artificial con fines ilícitos. Por medio de la imitación de voces de personas conocidas, ahora también se pueden cometer engaños. Consejos para prevenir este tipo de hechos.
Escribe: Lucas Moyano (*)
Especial para EL TIEMPO
Estamos siendo testigos de avances tecnológicos donde la Inteligencia Artificial está cambiando el mundo. Y esos avances están impactando en todos los ámbitos de nuestra vida, ya sean laborales, educativos, de salud, justicia, en las formas de comunicación, en las finanzas y en cuestiones comerciales, por nombrar sólo algunos de esos aspectos.
Las aplicaciones "chatGPT", "Bard", "Dall-E" y "Stable Diffusion" son algunos ejemplos de inteligencias artificiales que se han puesto de moda en los últimos meses y que muestran al mundo su poder y capacidad.
Cuando nos referimos a Inteligencia Artificial, resumidamente podemos afirmar que se trata de una tecnología de aprendizaje automático. Y esa tecnología del aprendizaje la usamos en nuestro día a día. Tal vez, sin darnos cuenta, como puede ser el caso cuando mediante un buscador realizamos una averiguación en Internet, cuando utilizamos una plataforma para comprar productos o con un servicio de streaming, para ver alguna película o serie. También, cuando utilizamos un servicio de movilidad para efectuar un traslado.
En ese contexto, era una cuestión de tiempo que a alguien con malas intenciones se le ocurriera utilizar la Inteligencia Artificial para llevar a cabo fraudes. Y así ha aparecido la imitación de voz. Algo que es sólo el comienzo de los delitos que se asoman en el futuro inmediato, donde la tecnología va a seguir cambiando la comisión de los mismos.
De esta manera, la vieja metodología del "cuento del tío" logra su actualización mediante las nuevas herramientas que le aporta la tecnología, que ahora permite fácilmente suplantar la identidad de una persona para realizar estafas telefónicas.
¿Cómo es la modalidad de engaño? Un estafador llama desde un número desconocido, se hace pasar por alguien de nuestro entorno -un familiar o amigo- y mediante la excusa de estar sufriendo una necesidad económica, un accidente automovilístico, una urgencia o encontrarse secuestrado convence a la víctima de que le envíe dinero para atender esa emergencia.
Hasta aquí es el viejo cuento de siempre; pero en esta oportunidad la trampa ahora logra mayor veracidad gracias a la utilización de herramientas de Inteligencia Artificial que permiten replicar la voz de cualquier persona, lo que hace que el delincuente logre rápidamente su objetivo.
La clonación de voz por Inteligencia Artificial funciona mediante un software que analiza los aspectos que hacen que una voz sea única: el acento, la edad, el género.
Luego, realiza la búsqueda de esa voz en una base de datos hasta encontrar patrones similares y los replica; teniendo en cuenta que tan sólo 30 segundos de un audio son suficientes para lograr esa clonación.
Es frecuente que compartamos pormenores de nuestra vida cotidiana en redes sociales. De allí pueden obtenerse también los datos de audio necesarios para realizar una copia de nuestra voz.
Estas amenazas de riesgo no son sólo para los usuarios individuales, sino que también alcanzan a empresas, bancos y financieras. Y van creciendo un 900% anualmente, según datos recientes dados a conocer desde el Foro Económico Mundial.
(*) Fiscal a cargo de la UFI 22 de Azul y especialista en delitos informáticos.
Seis amigas de Azul (Agus Rodríguez, Corina Begbeder, Ale, Natalia Bourdette, Agus Sánchez y Lorena Triviño) armaron el árbol de Navidad de la Plaza San Martín. Tomaron la iniciativa después de observar el árbol de 2024, decidiendo actuar en lugar de criticar.
8 de diciembre de 2025
8 de diciembre de 2025
8 de diciembre de 2025
Tras denuncias de los damnificados, un joven fue identificado como el probable autor de tiros efectuados en una vivienda del Barrio Del Carmen. En tanto, luego de una discusión con su pareja a otro le fue incautado un revólver. Además, buscan a los autores de un robo que sufrió, en cercanías de la Costanera, un varón de 23 años.
8 de diciembre de 2025
8 de diciembre de 2025
7 de diciembre de 2025
7 de diciembre de 2025
7 de diciembre de 2025
6 de diciembre de 2025
6 de diciembre de 2025
5 de diciembre de 2025
5 de diciembre de 2025
5 de diciembre de 2025
5 de diciembre de 2025