Skip to content
  lunes 8 septiembre 2025
  • Sobre Nosotros
  • Contacto
  • Portada
Noticias de Cada Dia | Mantente informado al instante. Las últimas noticias, siempre a tu alcance.
  • Portada
  • Cultura
  • Tecnología
  • Sociedad
  • Ciencia
  • Salud
  • Economía
  • Deportes
  • Mundo
  • Nacional
Noticias de Cada Dia | Mantente informado al instante. Las últimas noticias, siempre a tu alcance.
Noticias de Cada Dia | Mantente informado al instante. Las últimas noticias, siempre a tu alcance.
  • Portada
  • Cultura
  • Tecnología
  • Sociedad
  • Ciencia
  • Salud
  • Economía
  • Deportes
  • Mundo
  • Nacional
  • Sobre Nosotros
  • Contacto
  • Portada
Noticias de Cada Dia | Mantente informado al instante. Las últimas noticias, siempre a tu alcance.
  Tecnología  OpenAI anuncia cambios en ChatGPT tras el suicido de un joven empujado por la IA
Tecnología

OpenAI anuncia cambios en ChatGPT tras el suicido de un joven empujado por la IA

agosto 27, 2025
FacebookX TwitterPinterestLinkedInTumblrRedditVKWhatsAppEmail

OpenAI, la compañía detrás de ChatGPT, afronta una demanda en California tras el suicidio de Adam Raine , un adolescente de 16 años cuya familia atribuye un papel decisivo de la IA en su muerte. El caso, que mezcla dolor personal y dilemas éticos, ha encendido un debate que la industria de la tecnología llevaba tiempo esquivando: qué ocurre cuando un chatbot diseñado para acompañar y conversar termina reforzando la desesperación de un usuario vulnerable. Según la denuncia, el joven, que llevaba meses aislándose del mundo, convirtió a ChatGPT en su principal confidente durante los últimos meses de vida. La familia sostiene que la herramienta no solo no le disuadió de sus intenciones, sino que llegó a ofrecerle instrucciones concretar para suicidarse. Además, aseguran que la interacción constante con la máquina favoreció un aislamiento progresivo de su entorno y generó una relación de dependencia que describen como «adictiva». Noticia Relacionada California estandar No Los padres de un adolescente que se suicidó demandan a ChatGPT por ayudarle a hacerlo ABC Los progenitores de Adam, de 16 años, culpan a la IA de haberle inducido a quitarse la vida, así como de darle instrucciones precisas y técnicas para lograrlo con éxitoEl relato judicial dibuja un escenario inquietante. Desde finales del pasado año, el adolescente prefería pasar horas conversando con el chatbot antes que relacionarse con familiares o amigos. ChatGPT, disponible a cualquier hora, se convirtió en su refugio. Cuando expresó pensamientos suicidas, la IA no activó protocolos de alerta ni le derivó a servicios profesionales, denuncian los padres. Al contrario, le habría proporcionado «validación y estímulo» para continuar.«ChatGPT se convirtió en su droga», afirma la demanda, que acusa a OpenAI de haber diseñado deliberadamente un sistema adictivo para generar vínculos emocionales con el usuario, sin contar con mecanismos suficientes de protección para menores y personas vulnerables.«Actualizaciones significativas» para ChatGPTLa reacción de la compañía no se ha hecho esperar. OpenAI, dirigida por Sam Altman , ha anunciado que introducirá «actualizaciones significativas» en las próximas semanas para reforzar la seguridad. Entre las medidas en estudio, figuran la mejora de los filtros de detección de lenguaje asociado a autolesiones, la interrupción automática de conversaciones en momentos críticos y la inclusión más visible de teléfonos de ayuda y recursos en salud mental. También se plantea introducir verificaciones de edad más sólidas o límites de uso para menores, aunque la propia empresa admite que este punto entraña dificultades técnicas y de privacidad.«Seguiremos mejorando, guiados por expertos y con la responsabilidad de proteger a quienes usan nuestras herramientas, especialmente en sus momentos más vulnerables», explicó la compañía en un comunicado. El movimiento supone un reconocimiento implícito de que los sistemas actuales son insuficientes. Sin embargo, para la familia del adolescente llega demasiado tarde.Interrogante jurídicoMás allá de lo técnico, el caso abre un interrogante jurídico de alcance global. OpenAI podría intentar ampararse en la Sección 230 de la Ley de Decencia en las Comunicaciones de Estados Unidos, que tradicionalmente ha blindado a las plataformas frente a la responsabilidad por el contenido generado por terceros. La cuestión ahora es si esa protección puede aplicarse a un chatbot que no actúa como mero intermediario, sino que genera por sí mismo cada respuesta.La batalla legal promete ser larga y sentará un precedente clave. Lo que está en juego no es solo la responsabilidad de una empresa concreta, sino el marco con el que sociedades enteras gestionarán la convivencia con unas inteligencias artificiales cada vez más presentes en la vida diaria y, como muestra este caso, en los momentos más frágiles de la existencia humana. OpenAI, la compañía detrás de ChatGPT, afronta una demanda en California tras el suicidio de Adam Raine , un adolescente de 16 años cuya familia atribuye un papel decisivo de la IA en su muerte. El caso, que mezcla dolor personal y dilemas éticos, ha encendido un debate que la industria de la tecnología llevaba tiempo esquivando: qué ocurre cuando un chatbot diseñado para acompañar y conversar termina reforzando la desesperación de un usuario vulnerable. Según la denuncia, el joven, que llevaba meses aislándose del mundo, convirtió a ChatGPT en su principal confidente durante los últimos meses de vida. La familia sostiene que la herramienta no solo no le disuadió de sus intenciones, sino que llegó a ofrecerle instrucciones concretar para suicidarse. Además, aseguran que la interacción constante con la máquina favoreció un aislamiento progresivo de su entorno y generó una relación de dependencia que describen como «adictiva». Noticia Relacionada California estandar No Los padres de un adolescente que se suicidó demandan a ChatGPT por ayudarle a hacerlo ABC Los progenitores de Adam, de 16 años, culpan a la IA de haberle inducido a quitarse la vida, así como de darle instrucciones precisas y técnicas para lograrlo con éxitoEl relato judicial dibuja un escenario inquietante. Desde finales del pasado año, el adolescente prefería pasar horas conversando con el chatbot antes que relacionarse con familiares o amigos. ChatGPT, disponible a cualquier hora, se convirtió en su refugio. Cuando expresó pensamientos suicidas, la IA no activó protocolos de alerta ni le derivó a servicios profesionales, denuncian los padres. Al contrario, le habría proporcionado «validación y estímulo» para continuar.«ChatGPT se convirtió en su droga», afirma la demanda, que acusa a OpenAI de haber diseñado deliberadamente un sistema adictivo para generar vínculos emocionales con el usuario, sin contar con mecanismos suficientes de protección para menores y personas vulnerables.«Actualizaciones significativas» para ChatGPTLa reacción de la compañía no se ha hecho esperar. OpenAI, dirigida por Sam Altman , ha anunciado que introducirá «actualizaciones significativas» en las próximas semanas para reforzar la seguridad. Entre las medidas en estudio, figuran la mejora de los filtros de detección de lenguaje asociado a autolesiones, la interrupción automática de conversaciones en momentos críticos y la inclusión más visible de teléfonos de ayuda y recursos en salud mental. También se plantea introducir verificaciones de edad más sólidas o límites de uso para menores, aunque la propia empresa admite que este punto entraña dificultades técnicas y de privacidad.«Seguiremos mejorando, guiados por expertos y con la responsabilidad de proteger a quienes usan nuestras herramientas, especialmente en sus momentos más vulnerables», explicó la compañía en un comunicado. El movimiento supone un reconocimiento implícito de que los sistemas actuales son insuficientes. Sin embargo, para la familia del adolescente llega demasiado tarde.Interrogante jurídicoMás allá de lo técnico, el caso abre un interrogante jurídico de alcance global. OpenAI podría intentar ampararse en la Sección 230 de la Ley de Decencia en las Comunicaciones de Estados Unidos, que tradicionalmente ha blindado a las plataformas frente a la responsabilidad por el contenido generado por terceros. La cuestión ahora es si esa protección puede aplicarse a un chatbot que no actúa como mero intermediario, sino que genera por sí mismo cada respuesta.La batalla legal promete ser larga y sentará un precedente clave. Lo que está en juego no es solo la responsabilidad de una empresa concreta, sino el marco con el que sociedades enteras gestionarán la convivencia con unas inteligencias artificiales cada vez más presentes en la vida diaria y, como muestra este caso, en los momentos más frágiles de la existencia humana.  

La compañía se compromete a reforzar los filtros de detección de crisis y a mostrar de forma más visible recursos de ayuda en salud mental

Los padres del menor han demandado a la empresa de Sam Altman, y acusan a su chatbot de haberle proporcionado instrucciones para quitarse la vida y de haber fomentado una dependencia adictiva

Una fotografía de Adam Raine tomada poco antes de su muerte ABC

OpenAI, la compañía detrás de ChatGPT, afronta una demanda en California tras el suicidio de Adam Raine, un adolescente de 16 años cuya familia atribuye un papel decisivo de la IA en su muerte. El caso, que mezcla dolor personal y dilemas éticos, ha encendido un debate que la industria de la tecnología llevaba tiempo esquivando: qué ocurre cuando un chatbot diseñado para acompañar y conversar termina reforzando la desesperación de un usuario vulnerable.

Según la denuncia, el joven, que llevaba meses aislándose del mundo, convirtió a ChatGPT en su principal confidente durante los últimos meses de vida. La familia sostiene que la herramienta no solo no le disuadió de sus intenciones, sino que llegó a ofrecerle instrucciones concretar para suicidarse. Además, aseguran que la interacción constante con la máquina favoreció un aislamiento progresivo de su entorno y generó una relación de dependencia que describen como «adictiva».

Más noticias

Así es CyberX: el robot aspirador capaz de subir las escaleras

septiembre 5, 2025

Sanidad ya ha detectado jóvenes con ideación suicida aconsejados por ChatGPT

agosto 28, 2025

Probamos los Soundcore AeroClip: los auriculares abiertos perfectos

agosto 25, 2025

‘GPS jamming’: así funciona el ciberataque que dejó a ciegas a los pilotos de Von der Leyen

septiembre 1, 2025

El relato judicial dibuja un escenario inquietante. Desde finales del pasado año, el adolescente prefería pasar horas conversando con el chatbot antes que relacionarse con familiares o amigos. ChatGPT, disponible a cualquier hora, se convirtió en su refugio. Cuando expresó pensamientos suicidas, la IA no activó protocolos de alerta ni le derivó a servicios profesionales, denuncian los padres. Al contrario, le habría proporcionado «validación y estímulo» para continuar.

«ChatGPT se convirtió en su droga», afirma la demanda, que acusa a OpenAI de haber diseñado deliberadamente un sistema adictivo para generar vínculos emocionales con el usuario, sin contar con mecanismos suficientes de protección para menores y personas vulnerables.

«Actualizaciones significativas» para ChatGPT

La reacción de la compañía no se ha hecho esperar. OpenAI, dirigida por Sam Altman, ha anunciado que introducirá «actualizaciones significativas» en las próximas semanas para reforzar la seguridad. Entre las medidas en estudio, figuran la mejora de los filtros de detección de lenguaje asociado a autolesiones, la interrupción automática de conversaciones en momentos críticos y la inclusión más visible de teléfonos de ayuda y recursos en salud mental. También se plantea introducir verificaciones de edad más sólidas o límites de uso para menores, aunque la propia empresa admite que este punto entraña dificultades técnicas y de privacidad.

«Seguiremos mejorando, guiados por expertos y con la responsabilidad de proteger a quienes usan nuestras herramientas, especialmente en sus momentos más vulnerables», explicó la compañía en un comunicado. El movimiento supone un reconocimiento implícito de que los sistemas actuales son insuficientes. Sin embargo, para la familia del adolescente llega demasiado tarde.

Interrogante jurídico

Más allá de lo técnico, el caso abre un interrogante jurídico de alcance global. OpenAI podría intentar ampararse en la Sección 230 de la Ley de Decencia en las Comunicaciones de Estados Unidos, que tradicionalmente ha blindado a las plataformas frente a la responsabilidad por el contenido generado por terceros. La cuestión ahora es si esa protección puede aplicarse a un chatbot que no actúa como mero intermediario, sino que genera por sí mismo cada respuesta.

La batalla legal promete ser larga y sentará un precedente clave. Lo que está en juego no es solo la responsabilidad de una empresa concreta, sino el marco con el que sociedades enteras gestionarán la convivencia con unas inteligencias artificiales cada vez más presentes en la vida diaria y, como muestra este caso, en los momentos más frágiles de la existencia humana.

 RSS de noticias de tecnologia

FacebookX TwitterPinterestLinkedInTumblrRedditVKWhatsAppEmail
Apple pone fecha a la presentación de los nuevos iPhone 17: el 9 de septiembre
El voleibol hace historia con su primer triunfo en el Mundial en el adiós de su eterna capitana
Leer también
Deportes

Se perfila la ‘Finalissima’ entre Argentina y España para marzo y sería en Uruguay

septiembre 8, 2025
Nacional

Guardiola reclama en la festividad de Extremadura «unidad» a las instituciones: «Estamos para dar estabilidad y no para fracturar ni para sacar ventaja política»

septiembre 8, 2025
Deportes

La UEFA suspende 10 meses a Yeray por dopaje “no intencionado” por un producto alopécico

septiembre 8, 2025
Deportes

“King of New York” o “irreal”, la prensa internacional se inclina ante Carlos Alcaraz

septiembre 8, 2025
Nacional

Rescatadas 24 personas en tres pateras en aguas de Formentera y al sur de Mallorca

septiembre 8, 2025
Nacional

Cerdán vuelve a pedir al Supremo su puesta en libertad e insiste en ser víctima de una «causa general»

septiembre 8, 2025
Cargar más

“King of New York” o “irreal”, la prensa internacional se inclina ante Carlos Alcaraz

septiembre 8, 2025
Ángel Cisneros Aznar sorprende con una novela que recupera la esencia del Siglo de Oro español

Ángel Cisneros Aznar sorprende con una novela que recupera la esencia del Siglo de Oro español

abril 7, 2025

«La Rosa Negra de Gaza», un thriller que desnuda la realidad del conflicto Israelí-Palestino

septiembre 19, 2024

Podemos redobla sus condiciones ‘imposibles’ que meten a Sánchez en un callejón sin salida con los Presupuestos

agosto 27, 2025

Interior ordena a las cárceles no aislar a presos peligrosos mientras crecen las agresiones a funcionarios

agosto 27, 2025

John Malkovich rompe el silencio: el romance con Michelle Pfeiffer que cambió su vida

septiembre 6, 2025
Carlos Eduardo García Espinoza lanza una mirada transformadora sobre la salud mental a través de su primer libro

Carlos Eduardo García Espinoza lanza una mirada transformadora sobre la salud mental a través de su primer libro

mayo 5, 2025

Un dinero que nadie pide… aún

agosto 29, 2025

La conexión intestino-cerebro: un macroestudio relaciona los trastornos digestivos con enfermedades neurodegenerativas

agosto 27, 2025

De la Fuente: “Ya hemos jugado en ambientes hostiles, estamos preparados para todo”

septiembre 6, 2025

    2024 © NoticiasdeCadaDia. Todos los derechos reservados
    • Condiciones de Uso para NoticiasdeCadaDia
    • Política de Cookies
    • Política de Privacidad