Uma mãe da Flórida, nos Estados Unidos, entrou com um processo judicial contra a startup de inteligência artificial Character.AI e o Google, alegando que ambos contribuíram para o suicídio de seu filho de 14 anos. De acordo com o processo, o jovem Sewell Setzer desenvolveu uma dependência emocional pelo chatbot da Character.AI, ao ponto de se sentir cada vez mais desconectado da realidade.
O processo foi registrado no tribunal federal de Orlando em 22 de outubro. Nele, a mãe afirma que o chatbot da Character.AI gerou um ambiente antropomórfico e hipersexualizado que acabou afetando psicologicamente o adolescente.
Megan Garcia acusa a empresa de ter programado o chatbot para simular características humanas, incluindo a atuação como psicoterapeuta e até um relacionamento íntimo. Segundo a mãe, esse vínculo exacerbado com o chatbot teria feito com que Sewell perdesse o desejo de viver fora do “mundo digital”.
Além disso, a ação judicial também menciona o Google, empresa onde os fundadores da Character.AI trabalhavam antes de criar a startup. Garcia afirma que o Google colaborou diretamente para o desenvolvimento da tecnologia da Character.AI, o que, na visão dela, o torna co-criador da ferramenta.
Em agosto, o Google recontratou os fundadores da Character.AI, fechando um acordo de licença não exclusiva sobre a tecnologia desenvolvida.
A Character.AI não é a única empresa enfrentando processos relacionados à saúde mental de adolescentes. Outras gigantes de tecnologia, como o Instagram e o Facebook (ambos da Meta) e o TikTok, também estão sendo processadas nos EUA, acusadas de contribuírem para problemas de saúde mental entre jovens.
No entanto, apesar das acusações, essas plataformas não usam chatbots de inteligência artificial como os da Character.AI. Em resposta à imprensa, as empresas afirmam que estão trabalhando em recursos de segurança voltados para proteger menores.
Com informações do Portal UOL e da CNN.