Operai dice que capacitará al ChatPPT para identificar signos de angustia mental porque un juicio se realiza de que un adolescente que se suicidó este año se basó en el chatbot para obtener consejos.

ChatGPT recibirá capacitación para detectar y responder a la intención suicida, incluso en largas conversaciones que podrían permitir a los usuarios aflojar sus garantías y proporcionar respuestas dañinas, la compañía de tecnología dijo el martes.

El mismo día, Operai y su director gerente Sam Altman fueron procesados ​​por los padres de Adam Raine, de 16 años, para decir que ChatGPT lo había ayudado a planificar su muerte.

«Estamos extendiendo nuestras más profundas simpatías a la familia Raine durante este período difícil y revisamos el archivo», dijo el portavoz de Operai a la BBC.

Según el juicio observado por la BBC, el estudiante californiano se suicidó en abril después de haber discutido el suicidio con el chatbot de inteligencia artificial (IA) durante meses. Sus padres alegan que el chatbot ha validado los pensamientos suicidas de su hijo y ha dado información detallada sobre los medios para herirse.

A medida que se desarrolla el uso de la IA, algunos usuarios han recurrido a los chatbots para obtener asesoramiento y entrenamiento de vida, así como cosas como escribir y codificar, dijo OpenAi en la publicación del blog, que no trata directamente con la prueba.

«A veces nos encontramos con personas con angustia mental y emocional grave», agregó.

«Sin embargo, los casos desgarradores recientes de personas que usan ChatGPT en medio de las crisis agudas pesan en gran medida sobre nosotros, y creemos que es importante compartir más ahora».

La compañía basada en San Francisco también ha enumerado las protecciones existentes integradas en su chatbot, así como los cambios planificados.

Entre ellos, la compañía dijo que presentaría nuevos cheques para que los padres tengan el uso del uso de sus hijos de ChatGPT.

Enlace de origen