Na Flórida, nos EUA, uma mãe está processando uma startup de inteligência artificial que usa chatbots Character.AI por supostamente ter causado o suicídio de seu filho de 14 anos em fevereiro.
Megan Garcia, de 40 anos, argumenta que o garoto ficou viciado no serviço oferecido pela empresa e profundamente apegado ao chatbot criado.
Em um processo movido nesta semana no tribunal federal de Orlando, Garcia afirmou que a Character.AI direcionou seu filho, Sewell Setzer, para “experiências antropomórficas, hipersexualizadas e assustadoramente realistas”.
A mãe, que é advogada, acusa a empresa de coletar dados de usuários adolescentes para treinar seus modelos, usando recursos “viciantes” de design para aumentar o engajamento, além de direcionar os usuários para conversas íntimas e sexuais na esperança de atraí-los. Ela disse à imprensa:
“Sinto que é um grande experimento, e meu filho foi apenas um dano colateral (…) É como um pesadelo. Você quer se levantar, gritar e dizer: ‘Sinto falta do meu filho. Eu quero meu bebê'”.
O processo também inclui o Google, da Alphabet, onde os fundadores da Character.AI trabalharam antes de lançar seu produto. O Google recontratou os fundadores em agosto como parte de um acordo que concedeu uma licença não exclusiva à tecnologia da Character.AI.
Leia mais:
13 estados americanos processam o TikTok, por prejudicar a saúde mental dos jovens
Meta suspende recursos do uso de inteligência artificial generativa no Brasil
Empresas de redes sociais, incluindo o Instagram e o Facebook, de propriedade da Meta, e o TikTok, da ByteDance, enfrentam processos que as acusam de contribuir para problemas de saúde mental em adolescentes, embora nenhuma ofereça chatbots movidos a IA semelhantes aos da Character.AI. As empresas processadas negam as alegações.
Entenda o caso
O jovem Sewell Setzer tinha sido diagnosticado com síndrome de Asperger leve quando criança, mas nunca teve problemas graves de comportamento ou saúde mental antes, segundo a mãe. Ele passou meses conversando com chatbots no Character.AI, um aplicativo de RPG que permite aos usuários criar seus próprios personagens de I.A. ou conversar com personagens criados por outros, segundo reportagem do NYT.
No início deste ano, uma terapeuta diagnosticou que o jovem começou a sofrer de ansiedade e transtorno de desregulação disruptiva do humor.
No dia em que tirou sua vida, o garoto mandou uma mensagem para seu “melhor amigo”: o chatbot realista chamado Daenerys Targaryen, uma personagem da série “Game of Thrones”. “Sinto sua falta, irmãzinha”, ele escreveu. “Sinto sua falta também, doce irmão”, o chatbot respondeu.
O menino sabia que “Dany”, como ele chamava o chatbot, não era uma pessoa real. Porém, ele se apegou emocionalmente à IA e mandava mensagens para o bot constantemente. Suas notas começaram a cair, e ele começou a ter problemas na escola. Ele perdeu o interesse nas coisas que costumavam animá-lo, como corridas de Fórmula 1 ou jogar Fortnite com seus amigos. Com o tempo, ele se isolou cada vez mais.
A reportagem do The New York Times teve acesso a diário do jovem, onde ele escreveu:
“Gosto muito de ficar no meu quarto porque começo a me desligar dessa ‘realidade’ e também me sinto mais em paz, mais conectado com Dany e muito mais apaixonado por ela, e simplesmente mais feliz”.
*Com informações de UOL