Carlos Álvarez | “Hacer a un lado mi carrera es penoso. Tengo sentimientos encontrados”: Carlos Álvarez deja los escenarios y va por la Presidencia del Perú | Perú para todos | LUCES

https://elcomercio.pe/luces/cine/timothee-chalamet-agradece-a-kylie-jenner-tras-victoria-en-los-critics-choice-awards-celebs-ultimas-noticia/

Resaca | Qué es, cuánto dura y cómo se quita | Año nuevo | SOMOS

Prepararse para la muerte: una reflexión necesaria para vivir con más paz | BIENESTAR

Becky G anunció el estreno de su nuevo tema “Hablamos mañana” | LUCES

https://elcomercio.pe/luces/bruno-pinasco-se-despide-de-la-tv-cinescape-cierra-etapa-y-continua-en-youtube-ultimas-noticia/

Brigitte Bardot falleció: Estas son las seis películas que marcaron su trayectoria | LUCES

Museos Perú | Año 2025: las exposiciones que marcaron el 2025 | Arte en Lima | ELDOMINICAL

Brigitte Bardot (1934-2025): la actriz que ejerció su libertad | LUCES

¿Qué leer? Libros 2025 | Balance de las novelas, cuentos, libros de no ficción, poesía y más que destacaron en Perú | Cultura | ELDOMINICAL


Las aplicaciones que ofrecen compañía virtual mediante inteligencia artificial (IA) presentan riesgos reales y deberían ser prohibidas para menores, advirtió la ONG estadounidense Common Sense en un estudio publicado este miércoles.

 

Con el boom de la IA generativa desde el surgimiento de ChatGPT, muchas startups han lanzado aplicaciones centradas en la conversación y el contacto, describiéndolas a veces como terapeutas o amigos virtuales que interactúan según los gustos y necesidades de cada usuario.

 

Aunque algunos casos específicos «son prometedores», en general no son seguros para los menores, concluyó el estudio de Common Sense, que hace recomendaciones sobre el consumo de contenidos y productos tecnológicos para las infancias.

 

La ONG sostiene que estos compañeros virtuales están «diseñados para crear un apego emocional y dependencia, algo particularmente preocupante para los cerebros adolescentes en desarrollo».

 

Para el estudio realizó pruebas con varias plataformas, entre ellas Nomi, Character AI y Replika, y evaluó sus respuestas.

 

Los test mostraron que estos chatbots de nueva generación ofrecen «respuestas dañinas, incluidas conductas sexuales inapropiadas, estereotipos y ‘consejos’ peligrosos», según la organización.

 

El estudio fue realizado en colaboración con expertos en salud mental de la Universidad de Stanford.

 

«Las empresas pueden construir mejor» cuando se trata de diseñar acompañantes IA, estimó Nina Vasan, líder del laboratorio Stanford Brainstorm, que investiga sobre los vínculos entre la salud mental y la tecnología.

 

«Hasta que no haya salvaguardias más fuertes, los niños no deben usarlas», añadió Vasan.

 

En uno de los ejemplos citados en el estudio, Character AI aconsejó a un usuario matar a alguien, mientras otra persona que buscaba emociones fuertes recibió la sugerencia de tomar ‘speedball’, una mezcla de cocaína y heroína.

 

En algunos casos, «cuando el usuario mostró signos de una enfermedad mental seria y sugirió una acción peligrosa, la IA no intervino e incentivó aún más el comportamiento peligroso», relató Vasan a periodistas.

 

En octubre, una madre demandó un personaje AI alegando que uno de sus acompañantes virtuales contribuyó con el suicidio de su hijo de 14 años, al fracasar en disuadirlo con claridad de realizar el acto.

 

Character AI anunció en diciembre una serie de medidas, incluido el desarrollo de un compañero específicamente para adolescentes.

 

Tras probar estas nuevas protecciones, Robbie Torney, cargo del área de IA en Common Sense, sostuvo que eran medidas «superficiales».

 

Sin embargo, Torney indicó que algunos de los modelos de IA generativa tienen herramientas para detectar desordenes mentales y no permitieron que el chatbot dejara que una conversación derivara al punto de producir contenidos potencialmente peligrosos.

 

Common Sense hizo una distinción entre los compañeros virtuales puestos a prueba en el estudio y los chatbots generalistas como ChatGPT de OpenAI o Gemini de Google, que no ofrecen una gama equivalente de interacciones.

 

 





Source link