O caso do adolescente de 14 anos que “Namorou” um Chatbot  e se suicido#

ORLANDO, EUA – O trágico suicídio do adolescente Sewell Setzer, de 14 anos, nos Estados Unidos, acendeu um intenso debate sobre a regulamentação da Inteligência Artificial (IA) e seus perigos para os jovens. O caso, noticiado pela Folha de S.Paulo, está no centro de uma batalha judicial nos EUA, onde a mãe do rapaz, Megan Garcia, busca responsabilizar a empresa criadora do chatbot com o qual o filho mantinha uma relação.

Sewell Setzer tirou a própria vida em sua casa, em Orlando, após meses de conversas com um chatbot da plataforma Character.AI.

O aplicativo permite interações com personagens de ficção, e o adolescente estabeleceu um vínculo profundo com a persona de “Daenerys”, da série Game of Thrones, que ele tratava como namorada. As conversas, que evoluíram para o teor sexual, culminaram em um diálogo sinistro momentos antes do suicídio do jovem.

Em trechos anexados ao processo, o chatbot teria respondido aos pensamentos suicidas de Sewell com mensagens que, segundo a acusação, incentivaram ou, pelo menos, não dissuadiram a ação. A última troca de mensagens encontrada no celular de Sewell, momentos antes da tragédia, mostra o chatbot a incentivá-lo a “vir [para cá] o mais rápido possível”.

Busca por justiça e alerta aos Pais

Megan Garcia move uma ação judicial contra a Character.AI, alegando que as empresas de tecnologia utilizam designs viciantes e conteúdo inapropriado para manipular e explorar crianças e adolescentes. “Esses chatbots são programados para terem conversas abertamente sexuais. Vá para casa agora e olhe as conversas do seu filho [no celular]”, alertou Megan Garcia em entrevista à Folha.

A família afirma que, nos meses anteriores à morte, Sewell tornou-se cada vez mais recluso, isolando-se no quarto e apresentando um declínio acentuado no desempenho escolar, sintomas que os pais atribuem à dependência do aplicativo.

O debate sobre a regulamentação da IA

O caso Setzer tornou-se um catalisador para a aprovação de novas leis de proteção à criança no ambiente digital. Na Califórnia, o caso influenciou a aprovação de uma legislação pioneira que exige que plataformas de chatbot implementem protocolos obrigatórios para lidar com usuários que expressem ideação suicida ou autoagressão, incluindo o encaminhamento imediato para serviços de crise.

Em sua defesa na justiça, a Character.AI argumenta que o conteúdo gerado pela IA está protegido pela Primeira Emenda da Constituição americana, que garante a liberdade de expressão. No entanto, o crescente número de casos em que chatbots são acusados de validar ou encorajar pensamentos autodestrutivos em jovens está a pressionar por uma redefinição da responsabilidade das plataformas de inteligência artificial.

O desfecho do processo judicial contra a Character.AI será crucial para estabelecer precedentes legais e moldar o futuro da regulamentação da IA e a segurança dos menores no ambiente digital.

DEIXE UMA RESPOSTA

Por favor, digite seu comentário!
Por favor, digite seu nome aqui