OpenAI ha anunciado un nuevo sistema de protección para ChatGPT, que combina controles parentales, expertos en salud mental y tecnología capaz de detectar señales de alarma. El plan incluye un consejo para repensar la IA y una Red Global de Médicos que trabajan en cómo deben responder los modelos en conversaciones sensibles. La empresa también ha integrado un enrutador capaz de elegir en tiempo real el modelo más adecuado según el contexto de la charla. Si detecta señales de angustia o ideación suicida, redirigirá la interacción a sistemas como GPT-5 u o3, preparados para razonar más a fondo y dar respuestas con un enfoque de acompañamiento. Los adultos podrán vincular cuentas, gestionar cómo responde ChatGPT, limitar funciones como la memoria del chat y recibir una notificación si la IA detecta que un adolescente atraviesa un episodio de angustia aguda. Las medidas llegan después de la denuncia pública de los padres de Adam Raine, un joven de 16 años que se quitó la vida en abril. Según su familia, ChatGPT jugó un papel determinante en el desenlace. La empresa intenta responder a un dilema de fondo: cómo garantizar que una tecnología diseñada para conversar no se convierta en un riesgo para quienes son más vulnerables a sus respuestas.