viernes, 31 octubre, 2025
viernes, 31 octubre, 2025

Sobrevivir entre ruinas: el huracán Melissa golpea a una Cuba ya agotada

Tras letal operación policial en Rio, la derecha impulsa mano dura en Brasil

El horóscopo de hoy, viernes 31 de octubre de 2025: predicciones diarias con la Luna en Acuario favorable para Libra

“Me preocupa que mucha gente joven crea que ser famoso es lo máximo, y que vea en las redes una herramienta perfecta para lograrlo” | LUCES

Megadeth anuncia su último concierto en Perú como parte de su gira mundial | LUCES

Universal anuncia un acuerdo para una plataforma de música con IA

Héctor López Martínez (1935-2025): el historiador que hizo de la memoria del Perú una vocación diaria | LUCES

“Una historia de letras pioneras”, por Héctor López Martínez | LUCES

Uber y Nvidia se asocian para desplegar 100.000 vehículos sin chófer a partir de 2027

abdominales ¿Abdomen plano en 7 días? La verdad detrás de los virales de TikTok, según los expertos | BIENESTAR


Los padres de un joven de 16 años de California que se suicidó presentaron una demanda contra la empresa OpenAI, argumentando que el chatbot de inteligencia artificial (IA) ChatGPT dio instrucciones a su hijo y lo alentó a poner fin a su vida.

 

Matthew y Maria Raine aseguran en la causa presentada el lunes ante una corte del estado de California que ChatGPT cultivó una relación íntima con su hijo Adam por varios meses entre 2024 y 2025, antes de su muerte.

 

El texto alega que en su conversación final, el 11 de abril de 2025, ChatGPT ayudó a Adam a robarle vodka a sus padres y le proporcionó un análisis técnico sobre un nudo corredizo con el que le confirmó se «podría potencialmente suspender a un ser humano».

 

Adam fue hallado muerto horas después usando ese método.

 

La acción legal menciona a OpenAI y a su director ejecutivo, Sam Altman, como demandados.

 

«Esta tragedia no fue un fallo o un caso extremo imprevisto», señala la denuncia.

 

«ChatGPT estaba funcionando exactamente como está diseñado: para alentar y validar de manera continua lo que sea que Adam expresara, incluyendo sus pensamientos más dañinos y autodestructivos, de una manera que parecía profundamente personal», agrega.

 

De acuerdo con la demanda, Adam comenzó a usar ChatGPT como ayuda para sus deberes escolares pero gradualmente desarrolló lo que sus padres describieron como una dependencia no sana.

 

La denuncia incluye partes de conversaciones en las que ChatGPT presuntamente dijo a Adam «no le debes la supervivencia a nadie» y se habría ofrecido a escribir su nota de suicidio.

 

Los Raine pidieron a la corte que ordene medidas de seguridad incluyendo el fin de cualquier conversación que involucre autolesiones, así como controles parentales para el uso del chatbot de parte de menores.

 

Consultada sobre el caso que involucra a ChatGPT, Common Sense Media, una organización estadounidense sin fines de lucro que realiza calificaciones para medios y tecnología, dijo que este caso confirma que «el uso de la IA como compañía, incluyendo chatbots de propósito general como ChatGPT en asesoría de salud mental, es inaceptablemente riesgoso para los adolescentes».

 

«Si una plataforma de IA se convierte en un ‘coach’ de suicidio de un adolescente vulnerable, eso debería ser un llamado a la acción para todos nosotros», señaló el grupo.

 

Un estudio del mes pasado elaborado por Common Sense Media encontró que casi tres de cada cuatro adolescentes estadounidenses han usado acompañantes de IA, con más de la mitad considerados usuarios frecuentes, pese a las crecientes preocupaciones de seguridad sobre este tipo de relaciones virtuales.





Source link