Un jurado declara culpables a Instagram y YouTube en un histórico juicio por adicción a las redes sociales

El chavismo marcha en Caracas para exigir el fin de las sanciones en medio de acercamiento con EE.UU.

Sube a 34 el número de militares colombianos muertos en el accidente de un avión Hércules

Primera ministra nipona dice que quiere mejorar diálogo con Pekín en su reunión con Trump

Xiaomi presenta nuevos modelos de IA en su apuesta por los agentes inteligentes

La princesa heredera de Noruega habla por primera vez sobre sus vínculos con Epstein

Infidelidad | Cómo afrontarla? ¿Es posible perdonar? | Guía de pareja | Alejandra Baigorria | Mario Irivarren | Said Palao | Onelia Molina

México reporta 189.830 repatriados desde el retorno de Trump a la Casa Blanca

Un título de béisbol desata la felicidad que los venezolanos habían reprimido durante años

Padrino López, el militar incondicional a Maduro removido en la era de Delcy Rodríguez


Desde la ola de inteligencia artificial generativa que se instaló en nuestra actualidad hace pocos años, suelen popularizarse algunas variantes para el trabajo o entretenimiento. Una de ellas es la creación imágenes generadas con IA al estilo del Studio Ghibli, utilizando herramientas como “Images for ChatGPT” de OpenAI.

Mira: ¿Cómo puede ayudar la tecnología y la IA a combatir el robo y la extorsión?

Esta tendencia no solo trae momentos amenos, también conlleva una gran vulnerabilidad para los usuarios que decidan sumarse. Según expertos en ciberseguridad, compartir información personal, incluidas fotos, requiere precaución y un análisis cuidadoso.

“Debemos entender que al subir nuestras fotos a este tipo de plata formas o herramientas, nosotros no tenemos idea a dónde irán a parar dichas imágenes. Es una realidad que quedan almacenadas en servidores de terceros, los cuales pueden ser comprometidos por ciberdelincuentes y utilizados para la falsificación de identidades”, explica a este Diario María Isabel Manjarrez, investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky.

La falsificación de identidades es quizás lo más preocupante. Las imágenes pueden ser utilizadas para engañar sistemas de reconocimiento facial, una tecnología cada vez más usada para acceder a diferentes servicios, sobre todo los financieros.

“En la emoción por participar en un ‘trend’, no se preguntan ¿Están almacenando las fotos? ¿Las usan para entrenar algoritmos de IA? ¿Las comparten con terceros? ¿Qué uso darán a mis fotografías?”, añade la especialista en ciberseguridad.

Un ejemplo de la función de ChatGPT que transforma una foto en un animé dibujado al estilo del estudio Ghibli.

Un ejemplo de la función de ChatGPT que transforma una foto en un animé dibujado al estilo del estudio Ghibli.

Ciberdelincuentes pueden extraer rasgos faciales, características particulares y otros datos biométricos a partir de una simple foto y utilizarlos para suplantación de identidad o para crear perfiles detallados de los usuarios.

Como menciona Manjarrez, existen varios riesgos al compartir fotos personales en aplicaciones de generación de anime u otros filtros con ayuda de la inteligencia artificial:

· Uso indebido de la imagen: algunas aplicaciones pueden conservar las imágenes y usarlas para entrenar modelos de IA sin el consentimiento explícito del usuario.

· Privacidad comprometida: si la aplicación no tiene medidas de seguridad robustas, los datos pueden ser filtrados o vendidos a terceros. Las imágenes pueden ser alteradas con tecnología de IA para crear contenido falso que podría dañar la reputación del usuario.

· Robo de identidad: si una aplicación maliciosa obtiene una imagen de alta calidad, podría ser utilizada para suplantación de identidad en redes sociales o incluso en servicios financieros.

Esta vulnerabilidad puede afectar a cualquier usuario, incluso hasta celebridades, figuras públicas o líderes de instituciones importantes. Imágenes de ellos ya han sido utilizadas sin su consentimiento para la creación de deepfakes con contenido falso, publicitario o explícito.



Source link