Minuto a Minuto

Ciencia y Tecnología Instagram lanza nueva función, ¿de qué trata?
La nueva función de Instagram busca que los usuarios muestren "la vida tal y como sucede"
Nacional Alumno apuñala a maestro en Tabasco durante actividad en favor de la paz
La Secretaría de Educación de Tabasco confirmó que un maestro fue herido por un alumno y dio a conocer su estado de salud
Deportes Washington no exigirá fianzas para entrar a EE.UU. a quienes tengan boletos del Mundial 2026
Washington eximirá de las fianzas de visado a los aficionados que hayan adquirido entradas para la Copa Mundial de la FIFA 2026
Ciencia y Tecnología Neandertales trataban caries usando herramientas de piedra hace 60 mil años
Un estudio liderado por la Academia de Ciencias de Rusia detalló la manera en que neandertales trataban las caries hace 60 mil años
Economía y Finanzas Senado de EE.UU. aprueba al candidato de Trump, Kevin Warsh, como nuevo presidente de la Fed
El economista Kevin Warsh se convirtió en el décimoséptimo presidente de la Fed, y sustituye en el cargo a Jerome Powell
OpenAI actúa tras suicidio de joven que utilizaba ChatGPT; realizará esta acción
Imagen de archivo. EFE/EPA/ETIENNE LAURENT

La tecnológica OpenAI, matriz de ChatGPT, anunció que lanzará controles parentales en su conocido ‘chatbot’ después de que hayan aumentado las acusaciones de padres apuntando a que el famoso asistente de inteligencia artificial (IA) contribuyó a las autolesiones o al suicidio de sus hijos.

“Estos pasos son solo el comienzo (…) Seguiremos aprendiendo y reforzando nuestro enfoque, guiados por expertos, con el objetivo de que ChatGPT sea lo más útil posible”, detalló la empresa sin vincular la nueva implementación con las demandas que ha recibido.

Entre otras, la de los padres de un joven de 16 años que se quitó la vida tras meses de interactuar con ChatGPT y quienes se querellaron en California contra OpenAI y su dueño, Sam Altman, argumentando que el ‘chatbot’, bajo el modelo GPT-4o, no aplicó medidas de seguridad pese a quedar claras las intenciones suicidas del joven.

La empresa aceptó entonces que su asistente de IA comete fallos en casos “sensibles” y prometió cambios tras recibir la demanda.

Las medidas anunciadas, que se aplicarán desde el próximo mes pero sin fecha exacta aún, permitirán a los progenitores vincular su cuenta con las de sus hijos -pudiendo revisar cómo responde ChatGPT a sus peticiones- y que, entre otras funciones, reciban una notificación cuando el sistema detecte que los menores están pasando por algún problema de inestabilidad emocional aparentemente preocupante.

Además, OpenAI, que ha sido ampliamente criticada porque el modelo GPT-5 era excesivamente halagador y poco crítico, dijo que dirigirá las conversaciones con signos de “estrés agudo” a un modelo del mencionado ChatGPT especializado en razonamientos provisto por directrices de seguridad más específicas y estrictas.

En julio, senadores estadounidenses escribieron una carta a la compañía exigiendo información sobre sus iniciativas para prevenir las autolesiones y el suicidio, después de constatarse registros de respuestas delirantes en situaciones límite.

El grupo de defensa Common Sense Media declaró en abril que los adolescentes menores de 18 años no deberían poder usar aplicaciones conversacionales de IA porque representan “riesgos inaceptables”.

Y es que también ha aumentado la preocupación por el apego emocional que los usuarios generan con ChatGPT, lo que en algunos casos resulta en episodios de dependencia y aislamiento familiar.

Con información de EFE