Mochis NoticiasCienciaLos peligros de la clonación de voz y cómo combatirlo
Mochis NoticiasCienciaLos peligros de la clonación de voz y cómo combatirlo
Ciencia

Los peligros de la clonación de voz y cómo combatirlo

Los peligros de la clonación de voz y cómo combatirlo

Crédito: BoliviaInteligente/Unsplash.


El rápido desarrollo de la inteligencia artificial (IA) ha traído beneficios y riesgos.

Una tendencia preocupante es el uso indebido de la clonación de voces. En segundos, los estafadores pueden clonar una voz y engañar a las personas haciéndoles creer que un amigo o familiar necesita dinero con urgencia.

Los medios de comunicación, incluida CNN, advierten que este tipo de estafas tienen el potencial de afectar a millones de personas.

Dado que la tecnología facilita que los delincuentes invadan nuestros espacios personales, ser cautelosos con su uso es más importante que nunca.

¿Qué es la clonación de voz?

El auge de la IA ha creado posibilidades para la generación de imágenes, texto, voz y aprendizaje automático.

Si bien la IA ofrece muchos beneficios, también proporciona a los estafadores nuevos métodos para explotar a las personas por dinero.

Es posible que haya oído hablar de los «deepfakes», en los que se utiliza la IA para crear imágenes, vídeos e incluso audio falsos, en los que a menudo participan celebridades o políticos.

La clonación de voz, un tipo de tecnología deepfake, crea una réplica digital de la voz de una persona capturando sus patrones de habla, acento y respiración a partir de breves muestras de audio.

Una vez que se captura el patrón de voz, un generador de voz con IA puede convertir el texto ingresado en un habla muy realista que se asemeja a la voz de la persona objetivo.

Con tecnología avanzada, la clonación de voz se puede lograr con sólo una muestra de audio de tres segundos.

Mientras que una simple frase como «hola, ¿hay alguien ahí?» puede conducir a una estafa de clonación de voz, una conversación más larga ayuda a los estafadores a capturar más detalles vocales. Por lo tanto, es mejor mantener las llamadas breves hasta que esté seguro de la identidad de la persona que llama.

La clonación de voz tiene aplicaciones valiosas en el entretenimiento y la atención médica: permite el trabajo de voz remoto para los artistas (incluso después de la muerte) y ayuda a las personas con discapacidades del habla.

Sin embargo, plantea serias preocupaciones sobre la privacidad y la seguridad, y destaca la necesidad de salvaguardias.

Cómo lo están explotando los delincuentes

Los ciberdelincuentes aprovechan la tecnología de clonación de voz para hacerse pasar por celebridades, autoridades o gente corriente con fines de fraude.

Crean urgencia, se ganan la confianza de la víctima y exigen dinero a través de tarjetas de regalo, transferencias bancarias o criptomonedas.

El proceso comienza recopilando muestras de audio de fuentes como YouTube y TikTok.

A continuación, la tecnología analiza el audio para generar nuevas grabaciones.

Una vez clonada la voz, se puede utilizar en comunicaciones engañosas, a menudo acompañadas de un identificador de llamadas falso para parecer digno de confianza.

Muchos casos de estafa de clonación de voz han aparecido en los titulares.

Por ejemplo, unos delincuentes clonaron la voz del director de una empresa en los Emiratos Árabes Unidos para orquestar un robo de 51 millones de dólares australianos.

Un empresario de Mumbai ha sido víctima de una estafa de clonación de voz que implica una llamada falsa de la Embajada de la India en Dubai.

Recientemente, en Australia, los estafadores emplearon un clon de voz del primer ministro de Queensland, Steven Miles, para intentar engañar a la gente para que invirtiera en Bitcoin.

Los adolescentes y los niños también son el objetivo. En una estafa de secuestro en Estados Unidos, se clonó la voz de una joven y se manipuló a sus padres para que cumplieran con las demandas.

Solo se necesitan unos segundos de audio para que la IA clone la voz de alguien.

¿Qué tan extendido está?

Investigaciones recientes muestran que el 28% de los adultos en el Reino Unido se enfrentaron a estafas de clonación de voz el año pasado, y el 46% desconocía la existencia de este tipo de estafa.

Pone de relieve una importante laguna de conocimiento, que deja a millones de personas en riesgo de fraude.

En 2022, casi 240.000 australianos informaron haber sido víctimas de estafas de clonación de voz, lo que les provocó pérdidas financieras de 568 millones de dólares australianos.

Cómo las personas y las organizaciones pueden protegerse contra esto

Los riesgos que plantea la clonación de voces requieren una respuesta multidisciplinar.

Las personas y las organizaciones pueden implementar diversas medidas para protegerse contra el uso indebido de la tecnología de clonación de voz.

En primer lugar, las campañas de educación y concientización pública pueden ayudar a proteger a las personas y organizaciones y mitigar este tipo de fraude.

La colaboración público-privada puede proporcionar información clara y opciones de consentimiento para la clonación de voz.

En segundo lugar, las personas y las organizaciones deberían buscar el uso de seguridad biométrica con detección de vida, que es una nueva tecnología que puede reconocer y verificar una voz en vivo en lugar de una falsa. Y las organizaciones que utilizan reconocimiento de voz deberían considerar adoptar la autenticación multifactor.

En tercer lugar, mejorar la capacidad de investigación contra la clonación de voces es otra medida crucial para la aplicación de la ley.

Por último, se necesitan regulaciones precisas y actualizadas para que los países gestionen los riesgos asociados.

Las autoridades australianas reconocen los beneficios potenciales de la IA.

Sin embargo, las preocupaciones sobre el «lado oscuro» de esta tecnología han llevado a llamados a investigar el uso criminal de «inteligencia artificial para atacar a las víctimas».

También hay llamados a posibles estrategias de intervención que las fuerzas del orden puedan utilizar para combatir este problema.

Dichos esfuerzos deberían conectarse con el Plan Nacional general de lucha contra el delito cibernético, que se centra en estrategias proactivas, reactivas y restaurativas.

Ese plan nacional establece un deber de diligencia para los proveedores de servicios, reflejado en la nueva legislación del gobierno australiano para salvaguardar al público y a las pequeñas empresas.

La legislación apunta a nuevas obligaciones para prevenir, detectar, informar y desbaratar las estafas.

Esto se aplicará a organizaciones reguladas como empresas de telecomunicaciones, bancos y proveedores de plataformas digitales. El objetivo es proteger a los clientes previniendo, detectando, informando y desbaratando las estafas cibernéticas que implican fraude.

Reducción de riesgos

Dado que el delito cibernético le cuesta a la economía australiana alrededor de 42 mil millones de dólares australianos, la concientización pública y fuertes salvaguardias son esenciales.

Países como Australia están reconociendo el riesgo creciente. La eficacia de las medidas contra la clonación de voz y otros fraudes depende de su idoneidad, coste, viabilidad y cumplimiento normativo.

Todas las partes interesadas (gobierno, ciudadanos y fuerzas del orden) deben permanecer alerta y aumentar la conciencia pública para reducir el riesgo de victimización.

Escrito por Leo SF Lin, Duane Aslett, Geberew Tulu Mekonnen y Mladen Zecevic, The Conversation.


Source link

Hi, I’m Conchita Garcia

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *