conversa chocante veio à tona – Times de Todos

Um adolescente britânico de 16 anos, Luca Cella Walker, faleceu em 4 de maio do ano passado depois de se dirigir a uma estação ferroviária, onde tirou a própria vida. O caso voltou a ganhar destaque após um inquérito judicial realizado em Winchester revelar que, na noite anterior, o jovem havia questionado o ChatGPT sobre o “método mais eficaz” para morrer numa linha de comboio.

Segundo a investigação, Luca conseguiu contornar os mecanismos de segurança do chatbot ao alegar que precisava das informações para um “trabalho de investigação”, permitindo que a conversa continuasse. Apesar de o ChatGPT ter sugerido que procurasse ajuda junto de organizações especializadas, o jovem ignorou os avisos.

O agente Garry Knight, da Polícia Britânica de Transportes, descreveu o episódio como “arrepiante e perturbador”: “Ele estava no ChatGPT por volta das 00h30 a pedir conselhos sobre como cometer suicídio na linha férrea. O sistema indica que se deve procurar organizações de apoio, mas o Luca ignorou essas recomendações, e a conversa prosseguiu.”

O médico-legista Christopher Wilkinson alertou para os riscos crescentes do uso de tecnologias de inteligência artificial em situações de vulnerabilidade emocional, reconhecendo, porém, que o alcance dessas plataformas é limitado. A família de Luca descreveu-o como “bondoso e sensível” e disse não ter percebido a dimensão do seu sofrimento psicológico, que classificaram como uma “batalha invisível”. O ambiente escolar também foi apontado como fator potencial de stress emocional.

Em nota, a OpenAI informou que reforçou os mecanismos do ChatGPT para detetar sinais de sofrimento e encaminhar os utilizadores para apoio especializado, procurando “acalmar conversas e orientar para serviços de saúde mental no mundo real”. A empresa destacou ainda o trabalho conjunto com profissionais de saúde mental para aprimorar respostas em situações delicadas.

O caso reacendeu discussões sobre os limites e responsabilidades das plataformas de inteligência artificial, especialmente quando acessadas por menores ou pessoas em risco psicológico.

Deixe um comentário