sábado, 02 agosto, 2025
sábado, 02 agosto, 2025

Sandro, el nieto «influencer» de Fidel Castro que agita las redes en Cuba

El horóscopo de hoy, sábado 2 de agosto de 2025: predicciones diarias con la Luna en Escorpio, favorable para Capricornio

Vida en pareja: cómo acercarte más y reconectar con la persona que amas | BIENESTAR

La Switch 2 dispara los ingresos trimestrales de Nintendo

Qué es la enfermedad de Lyme, la condición que el cantante Justin Timberlake reveló que padece | BIENESTAR

El horóscopo del mes de agosto de 2025: tensiones familiares, conflictos e imprevistos

El horóscopo de hoy, viernes 1 de agosto de 2025: predicciones diarias con la Luna en Escorpio, favorable para Virgo

Congreso de El Salvador controlado por Bukele discute la reelección presidencial indefinida

Caetano Veloso y Maria Bethânia presentan un nuevo disco: un viaje musical que recorre seis décadas del Brasil | Música | Caetano & Bethânia | LUCES

“Es como si tuviéramos la fórmula de TikTok: te mostramos una cosa mientras te contamos otra, así el mensaje llega” | Kevin Johansen | Liniers | Música | LUCES


En el mundo tecnológico actual han surgido soluciones para combatir los deepfakes, vídeos falsos o voces sintéticas que la inteligencia artificial (IA) generativa ha expandido entre los usuarios, con el objetivo de prevenir estafas de todo tipo.

 

«Soy yo. (…) Tuve un accidente». Al otro lado de la línea, Laurel escucha la voz de su madre, Debby Bodkin, quien le explica que está en el hospital. La joven tiene el reflejo de colgar y llamar a Debby quien, en realidad, está en su oficina, a salvo.

 

Afortunadamente, Laurel estaba en casa de su abuela, Ruthy, de 93 años, cuando ocurrió la llamada con la que supuestamente intentaban estafar a la anciana.

 

«Hay intentos a diario», explicó a la AFP Debby, que vive en el estado de California (oeste). «La IA puede ser muy peligrosa», aseguró.

 

Popularizados en las redes sociales a través de la utilización de personalidades famosas, a veces con fines de desinformación, los deepfakes también son explotados por el crimen organizado.

 

A principios de febrero, la policía de Hong Kong reveló que un empleado de una corporación multinacional había sido convencido de transferir unos 25 millones de dólares estadounidenses a estafadores que organizaron una videoconferencia con avatares de inteligencia artificial realistas de varios de sus colegas.

 

Un estudio publicado en febrero por la startup iBoom, especializada en identificación, muestra que solo el 0,1% de los estadounidenses y británicos examinados fueron capaces de identificar correctamente una imagen o un vídeo falso.

 

Hace menos de una década, «sólo había una herramienta» para generar voz mediante IA, llamada Lyrebird, explicó Vijay Balasubramaniyan, director de Pindrop Security, especialista en autenticación de voces. «Hoy hay 490.», resaltó.

 

La llegada de la IA generativa cambió las reglas del juego.

 

«Antes, se necesitaban 20 horas (de grabación) para recrear tu voz. Hoy, son solo cinco segundos», explicó el ejecutivo.

 

Varios proveedores de servicios informáticos ofrecen a las empresas la posibilidad de detectar falsificadores de IA en tiempo real, ya sea en audio o video, como son los casos de Reality Defender o Intel.

 

Este último utiliza para el reconocimiento los cambios en el color de los vasos sanguíneos faciales (fotopletismografía) en su herramienta FakeCatcher, mientras que Pindrop descompone cada segundo de audio en 8.000 fragmentos y los compara con las características de una voz humana real.

 

«Es como en cualquier empresa de ciberseguridad: hay que mantenerse actualizado», afirmó Nicos Vekiarides, director ejecutivo de la empresa Attestiv. Señaló que al principio se podían apreciar imágenes de personas con manos de seis dedos, pero con el progreso de la tecnología es cada vez más difícil distinguirlos a simple vista.

 

– Como el spam –

 

Algunas publicaciones científicas ya pusieron en perspectiva la eficacia de estos sistemas de detección, pero varios estudios universitarios también destacaron las altas tasas de identificación.

 

Para Vijay Balasubramaniyan, en algún momento todas las empresas necesitarán equiparse con software de identificación de contenido de IA.

 

Más allá de los sectores financiero y de seguros, tradicionalmente víctimas de fraudes, «esto se está convirtiendo en una amenaza global para la ciberseguridad», advirtió Nicos Vekiarides.

 

Según él, «cualquier empresa puede ver su reputación empañada por un deepfake o ser blanco de estos sofisticados ataques».

 

Y para Balasubramaniyan el aumento del teletrabajo incrementa aún más los riesgos de robo de identidad.

 

Y el espectro podría extenderse al público en general, bajo la amenaza de llamadas manipuladas, particularmente dirigidas a los ancianos.

 

En enero, el fabricante chino Honor presentó su nuevo teléfono inteligente, el Magic7, que puede detectar e informar, en tiempo real, si la otra parte está usando IA durante una videollamada.

 

A finales de 2024, la startup británica Surf Security lanzó un navegador web, por ahora destinado solamente a empresas, capaz de alertar a los usuarios cuando una voz o un vídeo hayan sido generados a través de la IA.

 





Source link