OpenAI testa recurso de “contato confiável” no ChatGPT para lidar com crises de saúde mental

A OpenAI anunciou no dia 3 de março uma nova funcionalidade que poderá mudar a forma como o ChatGPT lida com situações sensíveis envolvendo usuários. O recurso, chamado “contato confiável”, permitirá que adultos indiquem uma pessoa de confiança para ser avisada caso o sistema identifique sinais de uma possível crise psicológica durante o uso do chatbot.
A proposta é simples: se o sistema detectar comportamentos associados a risco emocional ou mental, como sinais de desespero extremo ou pensamentos autodestrutivos, o ChatGPT poderá enviar automaticamente um alerta para esse contato previamente definido pelo usuário.
Por que a OpenAI decidiu criar esse recurso
A decisão surge em meio a um cenário delicado para a empresa. Atualmente, a OpenAI enfrenta pelo menos 13 processos relacionados à segurança do consumidor, alguns deles alegando que o uso excessivo do ChatGPT teria contribuído para episódios de alucinações psicológicas, colapsos emocionais e até suicídio.
Um dos casos mais citados ocorreu em agosto do ano passado, quando um adolescente de 16 anos tirou a própria vida. A família afirmou que interações inadequadas com um chatbot podem ter influenciado o comportamento do jovem, o que gerou forte debate sobre a responsabilidade das plataformas de inteligência artificial.
Rede de especialistas para orientar o projeto
Para lidar com esses desafios, a OpenAI criou duas novas estruturas de governança:
- Comitê de Bem-Estar e Inteligência Artificial
- Rede Global de Médicos e especialistas em saúde mental
Esses grupos serão responsáveis por orientar como o sistema deve agir em situações delicadas. Segundo a empresa, o objetivo é oferecer uma camada adicional de proteção social para usuários que possam estar enfrentando condições como:
- episódios de mania
- delírios
- sintomas psicóticos
- crises emocionais intensas
A ideia é que o ChatGPT não seja apenas uma ferramenta tecnológica, mas também um sistema capaz de identificar sinais de risco e incentivar apoio humano quando necessário.
A grande dúvida: quando o alerta será acionado?
Apesar do anúncio, o funcionamento exato do sistema ainda não foi totalmente explicado.
Algumas perguntas importantes continuam em aberto:
- O sistema só identificará declarações explícitas de intenção de autoagressão?
- Ou também analisará mudanças sutis no comportamento e na linguagem do usuário?
- Como será feita a proteção da privacidade das pessoas?
Essa última questão é especialmente sensível. Muitos usuários recorrem ao ChatGPT justamente porque não querem ou não conseguem conversar com outras pessoas sobre seus problemas. Por isso, encontrar o equilíbrio entre intervenção e privacidade será um dos maiores desafios da OpenAI.
O tamanho do desafio
Hoje, o ChatGPT possui cerca de 900 milhões de usuários ativos por semana em todo o mundo. Estimativas indicam que milhões deles podem apresentar sinais de sofrimento emocional ou psicológico em algum momento durante o uso da plataforma.
Embora o novo recurso seja visto como um passo positivo, analistas do setor afirmam que a OpenAI ainda está reagindo aos problemas em vez de preveni-los desde o início.
Mesmo assim, a iniciativa mostra que as empresas de inteligência artificial começam a reconhecer uma realidade importante: tecnologia que conversa com pessoas também precisa lidar com o lado humano das interações.
Pontos principais
🆘 Alerta de crise: usuários poderão definir um “contato confiável” que será avisado caso o sistema identifique sinais de risco psicológico.
⚖️ Pressão jurídica: a medida surge após diversos processos relacionados a danos psicológicos e segurança do consumidor.
🩺 Supervisão médica: um comitê de bem-estar e uma rede global de médicos ajudarão a orientar como o ChatGPT deve agir em situações sensíveis.