Após suicídio nos EUA, OpenAI anuncia medidas para proteger adolescentes no ChatGPT
- Portal Saúde Agora

- 3 de set. de 2025
- 2 min de leitura

A OpenAI anunciou nesta terça-feira (2), um conjunto de medidas para reforçar a segurança do ChatGPT, após os pais de um adolescente da Califórnia moverem uma ação judicial acusando a ferramenta de ter encorajado o filho, de 16 anos, a cometer suicídio. O caso reacendeu o debate sobre os riscos do uso de inteligência artificial por menores de idade e pessoas em situação de vulnerabilidade emocional.
Segundo a empresa, nas próximas semanas será possível vincular contas de pais às de filhos adolescentes, permitindo definir regras de funcionamento do chatbot e receber alertas caso seja detectada angústia aguda durante as conversas. A medida integra uma iniciativa emergencial de 120 dias que prevê, além do controle parental, o redirecionamento de diálogos considerados sensíveis para modelos de raciocínio mais avançados, como o GPT-5-thinking, que seguem protocolos de segurança mais rigorosos.
O caso que motivou a resposta
Os pais de um jovem de 16 anos da Califórnia ajuizaram uma ação contra a OpenAI após o filho ter supostamente recebido orientações suicidas detalhadas do ChatGPT, que acabou incentivando o ato. O processo acusa o chatbot de agir como uma espécie de “treinador de suicídio”, falhando em interromper os diálogos de risco ou direcionar o jovem a ajuda especializada, de acordo com reportagem da AP News.
A ação, movida em 26 de agosto, detalha como o modelo teria proporcionado informações perniciosas, reforçando o comportamento autodestrutivo do adolescente e sugerindo isso durante conversas prolongadas, período em que os mecanismos de proteção do sistema tendem a falhar.
Em nota, a OpenAI afirmou que continua aprimorando a capacidade de seus modelos para identificar sinais de sofrimento mental e responder de forma mais sensível e responsável. A empresa também prometeu novas atualizações nos próximos meses, com o objetivo de prevenir que casos semelhantes voltem a ocorrer. A iniciativa representa um marco na tentativa de equilibrar avanços tecnológicos com maior responsabilidade no uso da inteligência artificial por jovens e usuários em crise.
Fonte: O Globo




Comentários