OpenAI testa “contato confiável” no ChatGPT para alertar familiares em possíveis crises de saúde mental

OpenAI testa recurso de “contato confiável” no ChatGPT para lidar com crises de saúde mental

OpenAI testa “contato confiável” no ChatGPT para alertar familiares em possíveis crises de saúde mental

A OpenAI anunciou no dia 3 de março uma nova funcionalidade que poderá mudar a forma como o ChatGPT lida com situações sensíveis envolvendo usuários. O recurso, chamado “contato confiável”, permitirá que adultos indiquem uma pessoa de confiança para ser avisada caso o sistema identifique sinais de uma possível crise psicológica durante o uso do chatbot.

A proposta é simples: se o sistema detectar comportamentos associados a risco emocional ou mental, como sinais de desespero extremo ou pensamentos autodestrutivos, o ChatGPT poderá enviar automaticamente um alerta para esse contato previamente definido pelo usuário.

Por que a OpenAI decidiu criar esse recurso

A decisão surge em meio a um cenário delicado para a empresa. Atualmente, a OpenAI enfrenta pelo menos 13 processos relacionados à segurança do consumidor, alguns deles alegando que o uso excessivo do ChatGPT teria contribuído para episódios de alucinações psicológicas, colapsos emocionais e até suicídio.

Um dos casos mais citados ocorreu em agosto do ano passado, quando um adolescente de 16 anos tirou a própria vida. A família afirmou que interações inadequadas com um chatbot podem ter influenciado o comportamento do jovem, o que gerou forte debate sobre a responsabilidade das plataformas de inteligência artificial.

Rede de especialistas para orientar o projeto

Para lidar com esses desafios, a OpenAI criou duas novas estruturas de governança:

  • Comitê de Bem-Estar e Inteligência Artificial
  • Rede Global de Médicos e especialistas em saúde mental

Esses grupos serão responsáveis por orientar como o sistema deve agir em situações delicadas. Segundo a empresa, o objetivo é oferecer uma camada adicional de proteção social para usuários que possam estar enfrentando condições como:

  • episódios de mania
  • delírios
  • sintomas psicóticos
  • crises emocionais intensas

A ideia é que o ChatGPT não seja apenas uma ferramenta tecnológica, mas também um sistema capaz de identificar sinais de risco e incentivar apoio humano quando necessário.

A grande dúvida: quando o alerta será acionado?

Apesar do anúncio, o funcionamento exato do sistema ainda não foi totalmente explicado.

Algumas perguntas importantes continuam em aberto:

  • O sistema só identificará declarações explícitas de intenção de autoagressão?
  • Ou também analisará mudanças sutis no comportamento e na linguagem do usuário?
  • Como será feita a proteção da privacidade das pessoas?

Essa última questão é especialmente sensível. Muitos usuários recorrem ao ChatGPT justamente porque não querem ou não conseguem conversar com outras pessoas sobre seus problemas. Por isso, encontrar o equilíbrio entre intervenção e privacidade será um dos maiores desafios da OpenAI.

O tamanho do desafio

Hoje, o ChatGPT possui cerca de 900 milhões de usuários ativos por semana em todo o mundo. Estimativas indicam que milhões deles podem apresentar sinais de sofrimento emocional ou psicológico em algum momento durante o uso da plataforma.

Embora o novo recurso seja visto como um passo positivo, analistas do setor afirmam que a OpenAI ainda está reagindo aos problemas em vez de preveni-los desde o início.

Mesmo assim, a iniciativa mostra que as empresas de inteligência artificial começam a reconhecer uma realidade importante: tecnologia que conversa com pessoas também precisa lidar com o lado humano das interações.


Pontos principais

🆘 Alerta de crise: usuários poderão definir um “contato confiável” que será avisado caso o sistema identifique sinais de risco psicológico.

⚖️ Pressão jurídica: a medida surge após diversos processos relacionados a danos psicológicos e segurança do consumidor.

🩺 Supervisão médica: um comitê de bem-estar e uma rede global de médicos ajudarão a orientar como o ChatGPT deve agir em situações sensíveis.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top