OpenAI ha publicado nuevas estimaciones sobre la cantidad de usuarios de ChatGPT que experimentan posibles signos de emergencias de salud mental, incluidas manía, psicosis o pensamientos suicidas.

La compañía dijo que alrededor del 0,07% de los usuarios activos de ChatGPT en una semana determinada mostraron tales signos, y agregó que su chatbot de inteligencia artificial (IA) reconoce y responde a estas conversaciones sensibles.

Aunque OpenAI sostiene que estos casos son «extremadamente raros», los críticos dicen que incluso un pequeño porcentaje puede representar cientos de miles de personas, ya que ChatGPT alcanzó recientemente los 800 millones de usuarios activos semanales, según su jefe Sam Altman.

A medida que se intensifica el escrutinio, la compañía dijo que ha creado una red de expertos en todo el mundo para asesorarla.

Estos expertos incluyen a más de 170 psiquiatras, psicólogos y médicos de atención primaria que han ejercido en 60 países, dijo la compañía.

Diseñaron una serie de respuestas en ChatGPT para animar a los usuarios a buscar ayuda en el mundo real, según OpenAI.

Pero la descripción general de los datos de la compañía llamó la atención entre algunos profesionales de la salud mental.

«Aunque el 0,07% parece un porcentaje pequeño, en el nivel de una población con cientos de millones de usuarios, en realidad puede representar un número de personas», dijo el Dr. Jason Nagata, profesor que estudia el uso de la tecnología entre adultos jóvenes en la Universidad de California, San Francisco.

«La IA puede ampliar el acceso al apoyo a la salud mental y, de alguna manera, apoyar la salud mental, pero debemos ser conscientes de sus limitaciones», añadió el Dr. Nagata.

La compañía también estima que el 0,15% de los usuarios de ChatGPT tienen conversaciones que incluyen «indicadores explícitos de planificación o posible intención suicida».

OpenAI dijo que las actualizaciones recientes de su chatbot están diseñadas para «responder de forma segura y empática a posibles signos de delirio o manía» y detectar «señales indirectas de autolesión o riesgo de suicidio».

ChatGPT también ha sido capacitado para redirigir conversaciones confidenciales «de otros modelos a modelos más seguros» abriéndolas en una nueva ventana.

En respuesta a las preguntas de la BBC sobre las críticas al número de personas potencialmente afectadas, OpenAI dijo que este pequeño porcentaje de usuarios representa un número significativo de personas y señaló que se estaba tomando los cambios en serio.

Los cambios se producen cuando OpenAI enfrenta un creciente escrutinio legal sobre cómo ChatGPT interactúa con los usuarios.

En una de las demandas más destacadas presentadas recientemente contra OpenAI, una pareja de California demandó a la empresa por la muerte de su hijo adolescente, alegando que ChatGPT lo animó a suicidarse en abril.

La demanda fue presentada por los padres de Adam Raine, de 16 años, y fue la primera acción legal que acusa a OpenAI de muerte por negligencia.

En otro caso, el sospechoso de un asesinato-suicidio en agosto en Greenwich, Connecticut, publicó horas de sus conversaciones con ChatGPT, que parecieron alimentar los delirios del presunto perpetrador.

Cada vez más usuarios sufren psicosis de IA porque “los chatbots crean la ilusión de la realidad”, dijo el profesor Robin Feldman, director del Instituto de Derecho e Innovación de IA de la Facultad de Derecho de la Universidad de California. «Es una ilusión poderosa».

Dijo que OpenAI merecía crédito por «compartir estadísticas y por sus esfuerzos para mejorar el problema», pero añadió: «la empresa puede mostrar todo tipo de advertencias en la pantalla, pero una persona en riesgo mental puede no ser capaz de prestar atención a esas advertencias».

Enlace de origen