Meta prepara un suministro masivo de energía nuclear para impulsar centros de datos de IA

Las nuevas funciones de inteligencia artificial de Gmail lo convierten en un asistente personal

“ChatGPT es el mejor amigo de mi hijo”: qué ganan y qué pierden los niños al crecer con la IA como nueva compañera: qué ganan y qué pierden los niños al crecer con la IA como nueva compañera | SOMOS

Ashwagandha, el milenario secreto de la India que promete desde ayudarte a dormir mejor hasta reducir la ansiedad | SOMOS

“Quizá elegimos el espacio del fútbol para ser otra persona más feliz”: Miguel Villegas, autor de “Pienso en Tri” | LUCES

Ficciones a la orilla del mar: recomendaciones de libros para el verano de José Carlos Yrigoyen | Qué leer | ELDOMINICAL

Diana Quijano: “Si pudiera retroceder el tiempo, volvería a antes de mi diagnóstico de cáncer de mama. Fue muy traumático” | LUCES

Mickey Rourke en el hoyo: ¿Cómo pasó de actuar en “Iron Man 2” y “The Wrestler” a perder su casa? | LUCES

Carlos Álvarez | “Hacer a un lado mi carrera es penoso. Tengo sentimientos encontrados”: Carlos Álvarez deja los escenarios y va por la Presidencia del Perú | Perú para todos | LUCES

https://elcomercio.pe/luces/cine/timothee-chalamet-agradece-a-kylie-jenner-tras-victoria-en-los-critics-choice-awards-celebs-ultimas-noticia/


Microsoft anunció el lunes que su plataforma de almacenamiento en la nube albergará tecnología de la empresa de inteligencia artificial de Elon Musk, xAI, días después de la polémica generada por la referencia de uno de sus modelos a un «genocidio blanco» en Sudáfrica.

 

Musk dijo en un evento de Microsoft que sus programas «aspiran a la verdad con mínimos errores», pero agregó que «siempre se cometerán algunos errores».

 

El chatbot Grok, de xAI, generó polémica por afirmar que en Sudáfrica hubo opresión hacia la población blanca.

 

En una conversación grabada con el consejero delegado de Microsoft, Satya Nadella, Musk dijo que xAI siempre sería transparente a la hora de reconocer errores de sus modelos de IA Grok.

 

«Es increíblemente importante que los modelos de IA se basen en la realidad», afirmó el magnate de Tesla.

 

Recientemente se descubrió que el último modelo del líder del sector, OpenAI, daba respuestas demasiado aduladoras hacia el usuario. La empresa salió de inmediato al paso y dijo que estaba introduciendo cambios para revertir esta situación.

 

Las respuestas proporcionadas por Grok hicieron saltar las alarmas, ya que reflejaban una teoría de la conspiración compartida a menudo por Musk en sus publicaciones en X, la red social del magnate de Tesla.

 

La empresa aseguró que el problema de estas respuesta fue culpa de una «modificación no autorizada» de Grok que le permitió dar respuestas que «violaban las políticas internas y los valores fundamentales de xAI».





Source link