Meta prepara un suministro masivo de energía nuclear para impulsar centros de datos de IA

Las nuevas funciones de inteligencia artificial de Gmail lo convierten en un asistente personal

“ChatGPT es el mejor amigo de mi hijo”: qué ganan y qué pierden los niños al crecer con la IA como nueva compañera: qué ganan y qué pierden los niños al crecer con la IA como nueva compañera | SOMOS

Ashwagandha, el milenario secreto de la India que promete desde ayudarte a dormir mejor hasta reducir la ansiedad | SOMOS

“Quizá elegimos el espacio del fútbol para ser otra persona más feliz”: Miguel Villegas, autor de “Pienso en Tri” | LUCES

Ficciones a la orilla del mar: recomendaciones de libros para el verano de José Carlos Yrigoyen | Qué leer | ELDOMINICAL

Diana Quijano: “Si pudiera retroceder el tiempo, volvería a antes de mi diagnóstico de cáncer de mama. Fue muy traumático” | LUCES

Mickey Rourke en el hoyo: ¿Cómo pasó de actuar en “Iron Man 2” y “The Wrestler” a perder su casa? | LUCES

Carlos Álvarez | “Hacer a un lado mi carrera es penoso. Tengo sentimientos encontrados”: Carlos Álvarez deja los escenarios y va por la Presidencia del Perú | Perú para todos | LUCES

https://elcomercio.pe/luces/cine/timothee-chalamet-agradece-a-kylie-jenner-tras-victoria-en-los-critics-choice-awards-celebs-ultimas-noticia/


Investigadores, ejecutivos de la tecnología, políticos y ganadores del premio Nobel hicieron un llamado conjunto el lunes para establecer un marco regulatorio que fije límites en el uso de la inteligencia artificial (IA).

 

Más de 200 figuras prominentes, incluidos 10 laureados con el Nobel y científicos que trabajan en gigantes de la IA como Anthropic, Google DeepMind, Microsoft y OpenAI, firmaron una carta publicada al inicio de la sesión de la Asamblea General de las Naciones Unidas en Nueva York.

 

«La IA tiene un potencial inmenso para avanzar en el bienestar humano, pero su trayectoria actual presenta peligros sin precedentes», dicen en el texto.

 

Las líneas rojas de la IA serían prohibiciones internacionales acordadas sobre usos considerados demasiado riesgosos bajo cualquier circunstancia, según los firmantes.

 

Los ejemplos dados incluían confiar en sistemas de IA para comandar arsenales nucleares o cualquier tipo de sistema autónomo de armas letales.

 

Plantean además líneas rojas sobre permitir que la IA se utilice para vigilancia masiva, puntuación social, ciberataques o suplantación de personas.

 

Instaron a los gobiernos a tener líneas rojas sobre la IA establecidas para finales del próximo año, dado el ritmo al que avanza la tecnología con el fin de prevenir efectos devastadores para la humanidad.

 

En la misiva también exigen una colaboración entre líderes mundiales para llegar a «acuerdos internacionales sobre líneas rojas para la IA».

 

«La IA podría pronto superar con creces las capacidades humanas y escalar riesgos como pandemias diseñadas, desinformación generalizada, manipulación (…) y violaciones sistemáticas de los derechos humanos», afirman.

 





Source link