Meta prepara un suministro masivo de energía nuclear para impulsar centros de datos de IA

Las nuevas funciones de inteligencia artificial de Gmail lo convierten en un asistente personal

“ChatGPT es el mejor amigo de mi hijo”: qué ganan y qué pierden los niños al crecer con la IA como nueva compañera: qué ganan y qué pierden los niños al crecer con la IA como nueva compañera | SOMOS

Ashwagandha, el milenario secreto de la India que promete desde ayudarte a dormir mejor hasta reducir la ansiedad | SOMOS

“Quizá elegimos el espacio del fútbol para ser otra persona más feliz”: Miguel Villegas, autor de “Pienso en Tri” | LUCES

Ficciones a la orilla del mar: recomendaciones de libros para el verano de José Carlos Yrigoyen | Qué leer | ELDOMINICAL

Diana Quijano: “Si pudiera retroceder el tiempo, volvería a antes de mi diagnóstico de cáncer de mama. Fue muy traumático” | LUCES

Mickey Rourke en el hoyo: ¿Cómo pasó de actuar en “Iron Man 2” y “The Wrestler” a perder su casa? | LUCES

Carlos Álvarez | “Hacer a un lado mi carrera es penoso. Tengo sentimientos encontrados”: Carlos Álvarez deja los escenarios y va por la Presidencia del Perú | Perú para todos | LUCES

https://elcomercio.pe/luces/cine/timothee-chalamet-agradece-a-kylie-jenner-tras-victoria-en-los-critics-choice-awards-celebs-ultimas-noticia/



Un estudio de la Universidad Aalto (Finlandia), que se publica en la revista ‘AI and Ethics’, concluye que la IA generativa cumple las tres condiciones filosóficas del libre albedrío.

En concreto, se refiere a la capacidad de tener voluntad dirigida a un objetivo, tomar decisiones sinceras y tener control sobre sus acciones. La IA generativa se especializa en crear contenido nuevo y original, como texto, imágenes, música, audio y video, a partir de datos previamente aprendidos.

MIRA: Microsoft amplía el soporte de las aplicaciones de Office en Windows 10 hasta el año 2028

Basándose en el concepto de libre albedrío funcional, tal como se explica en las teorías de los filósofos Daniel Dennett y Christian List, el estudio examinó dos agentes de IA generativos impulsados por grandes modelos de lenguaje (LLM): el agente Voyager de Minecraft y los drones asesinos ficticios ‘Spitenik’ con la función cognitiva de los vehículos aéreos no tripulados actuales.

“Ambos parecen cumplir las tres condiciones del libre albedrío: para la última generación de agentes de IA, debemos asumir que poseen libre albedrío si queremos comprender su funcionamiento y predecir su comportamiento”, puntualiza Frank Martela, filósofo e investigador en psicología, que trabaja como profesor adjunto en la Universidad Aalto de Finlandia. El experto, añade que estos casos prácticos son ampliamente aplicables a los agentes generativos actualmente disponibles que utilizan LLM.

Este desarrollo lleva a un punto crítico en la historia de la humanidad, ya que otorga a la IA mayor poder y libertad, potencialmente en situaciones de vida o muerte. Ya sea un bot de autoayuda, un coche autónomo o un dron asesino, la responsabilidad moral podría trasladarse del desarrollador de IA al propio agente de IA.

La posesión del libre albedrío es una de las condiciones clave para la responsabilidad moral. “Si bien no es una condición suficiente, es un paso más hacia la responsabilidad moral de la IA por sus acciones”, añade Martela. Por consiguiente, las cuestiones sobre cómo “criamos” la tecnología de IA se han vuelto reales y apremiantes. “La IA no tiene una brújula moral a menos que esté programada para tenerla. Pero cuanta más libertad se le dé, más necesario será dotarla de una brújula moral desde el principio. Solo así podrá tomar las decisiones correctas”, incide Martela.

La reciente retirada de la última actualización de ChatGPT debido a posibles tendencias aduladoras es una señal de alerta que indica que es necesario abordar cuestiones éticas más profundas. “La IA se acerca cada vez más a la adultez, y cada vez más debe tomar decisiones en los complejos problemas morales del mundo adulto. Al instruir a la IA para que se comporte de cierta manera, los desarrolladores también le transmiten sus propias convicciones morales. Necesitamos asegurarnos de que quienes desarrollan la IA tengan suficientes conocimientos de filosofía moral para poder enseñarles a tomar las decisiones correctas en situaciones difíciles”, concluye Martela.



Source link