TECNO&VIRAL

El alarmante estudio de Open AI sobre los signos de crisis psicótica de miles de usuarios de ChatGPT

El gigante de la inteligencia artificial, OpenAI publicó recientemente un estudio alarmante sobre el uso de sus servicios. La empresa del famoso ChatGPT, que tiene 800 millones de usuarios por semana según su director ejecutivo, Sam Altman, reveló que más de un millón de personas podrían estar manifestando signos de crisis mental o psicótica tras mantener conversaciones intensas con el chatbot.

El estudio realizado con la ayuda de casi 300 profesionales, incluyendo médicos y psicólogos, detectó señales claras de posible intención o planificación suicida en los mensajes. De hecho, los profesionales de la salud mental ya habían alertado sobre un fenómeno preocupante: varias personas terminaron hospitalizadas, divorciadas o, peor aún, muertas después de esas charlas intensas con la IA.

El preocupante estudio sobre el uso de Chat GPT

Según los resultados, unos 1,2 millones de personas podrían estar enviando mensajes con indicadores de esta crisis cada semana. OpenAI especificó las proporciones: aproximadamente el 0,07% de los usuarios activos por semana (y el 0,01% de los mensajes) muestran posibles señales de emergencias de salud mental relacionadas con la psicosis.

Los expertos de Open AI, analizan mejores para que la experiencia de los usuarios de ChatGPT sea mejor.

La dependencia emocional también preocupa, y mucho. El informe detalla que el 0,15% de los usuarios activos en una semana (y el 0,03% de los mensajes) reflejan posibles niveles altos de apego emocional a la herramienta.

Ante este panorama complicado, la empresa está trabajando en una actualización para que el chatbot pueda reconocer mejor los indicadores de angustia y guiar a la gente hacia ayuda real en el mundo. Para esto, OpenAI no dudó en consultar a especialistas.

Contrataron a 170 expertos en salud mental con experiencia clínica, seleccionados de un grupo de 300 profesionales activos en 60 países. Estos expertos están ayudando a mejorar el enfoque de la inteligencia artificial, analizando contenido y redactando respuestas adecuadas para temas delicados.

Los resultados iniciales de la versión mejorada son un alivio. Los expertos descubrieron que el nuevo modelo mejoró sustancialmente en comparación con GPT-4o, logrando una reducción de entre el 39% y el 52% en las respuestas no deseadas en todas las categorías.

​El gigante de la inteligencia artificial, OpenAI publicó recientemente un estudio alarmante sobre el uso de sus servicios. La empresa del famoso ChatGPT, que tiene 800 millones de usuarios por semana según su director ejecutivo, Sam Altman, reveló que más de un millón de personas podrían estar manifestando signos de crisis mental o psicótica tras mantener conversaciones intensas con el chatbot.El estudio realizado con la ayuda de casi 300 profesionales, incluyendo médicos y psicólogos, detectó señales claras de posible intención o planificación suicida en los mensajes. De hecho, los profesionales de la salud mental ya habían alertado sobre un fenómeno preocupante: varias personas terminaron hospitalizadas, divorciadas o, peor aún, muertas después de esas charlas intensas con la IA.El preocupante estudio sobre el uso de Chat GPTSegún los resultados, unos 1,2 millones de personas podrían estar enviando mensajes con indicadores de esta crisis cada semana. OpenAI especificó las proporciones: aproximadamente el 0,07% de los usuarios activos por semana (y el 0,01% de los mensajes) muestran posibles señales de emergencias de salud mental relacionadas con la psicosis.La dependencia emocional también preocupa, y mucho. El informe detalla que el 0,15% de los usuarios activos en una semana (y el 0,03% de los mensajes) reflejan posibles niveles altos de apego emocional a la herramienta.Ante este panorama complicado, la empresa está trabajando en una actualización para que el chatbot pueda reconocer mejor los indicadores de angustia y guiar a la gente hacia ayuda real en el mundo. Para esto, OpenAI no dudó en consultar a especialistas. Contrataron a 170 expertos en salud mental con experiencia clínica, seleccionados de un grupo de 300 profesionales activos en 60 países. Estos expertos están ayudando a mejorar el enfoque de la inteligencia artificial, analizando contenido y redactando respuestas adecuadas para temas delicados.Los resultados iniciales de la versión mejorada son un alivio. Los expertos descubrieron que el nuevo modelo mejoró sustancialmente en comparación con GPT-4o, logrando una reducción de entre el 39% y el 52% en las respuestas no deseadas en todas las categorías.  La Voz