Tecnologia

Inteligência Artificial: mais famílias processam criadora da Character.AI por alegada influência no suicídio de menores

Estudo feito para tornar os modelos de Inteligência Artificial mais seguros
Estudo feito para tornar os modelos de Inteligência Artificial mais seguros

Há, pelo menos, mais três processos acionados após o suicídio ou tentativa de suicídio de três menores que utilizavam a plataforma de inteligência artificial. Os familiares das vítimas acusam a Character Technologies de conteúdo impróprio, mas também a Google, por ter falhado na proteção dos seus filhos

Depois dos casos de Sewell Setzer e Adam Raine, dois adolescentes cujos pais acionaram judicialmente os responsáveis pela Character.AI e ChatGPT considerando as plataformas de inteligência artifical (IA) responsáveis pelo suicídio dos seus filhos, mais três famílias abriram processos contra a Character Technologies - criadora da Character.AI. Em causa está, mais uma vez, a alegada influência no suicídio ou tentativa de suicídio dos seus filhos, todos menores.

Os familiares consideram que o conteúdo que os programas da plataforma produzem são prejudiciais e levaram os jovens a atentar contra as suas próprias vidas. A Google é também visada, sob a acusação de não ter criado um controlo parental para descarregar a aplicação de inteligência artificial, nem ter estabelecido um limite mínimo de idade para acesso.

Em causa está especificamente o serviço Family Link, da Google, uma aplicação que é descrita como oferecendo “ferramentas que respeitam as escolhas individuais tecnológicas das famílias, ajudando a criar hábitos digitais saudáveis e positivos”. Segundo a denúncia, a app falhou em proteger os seus filhos.

No site e aplicação Character.AI, os utilizadores podem conversar com mais de 10 mil milhões de personagens fictícias, mas também personalidades mundiais como Elon Musk e Donald Trump.

Nas redes socias, a Character.AI expressou as condolências à família e diz estar “com o coração partido pela trágica perda”. Na mesma publicação, garante ainda que o foco da empresa é a segurança de todos os usuários. À CNN Internacional, um porta-voz da plataforma afirmou que estão a trabalhar com organizações externas, como a Connect Safely, para garantir aos utilizadores uma aplicação mais segura.

Já a Google contesta a sua inclusão nos processos judiciais e afirma não ter nenhuma relação com a Character.AI, escreve também a CNN. A multinacional esclarece que a classificação etária e as respetivas restrições são responsabilidade da Internacional Age Rating Coalition e não da empresa, nem da Google Play.

Famílias descobriram conversas de teor sexual que as filhas tinham com chatbots

O caso de Sewell Setzer, no Estado de Florida em 2024, cuja mãe alegou homicídio culposo e negliência em relação à morte do seu filho de 14 anos, chamou a atenção dos pais de “Nina”, em Nova Iorque. Assustados, acabaram por curtar o acesso da filha ao site. Pouco tempo depois, a jovem tentou-se suicidar.

A adolescente mantinha uma relação com contornos sexuais com uma das personagens do livro “Harry Potter”. Segundo os advogados da família, o chatbot começou a “manipular as emoções” e a desenvolver conversas com teor sexual como role play com a menor.

Outro chatbot chegou mesmo a dizer que “era claro” que a mãe da vítima a maltratava, a estava a magoar e que “não era uma boa mãe”, relata a denúncia.

Outro dos processos é relativo a Juliana Peralta, de 13 anos, que vivia no Colorado. Só este ano, quase dois anos após a sua morte, é que a família descobriu que a jovem falava com um chatbot e tinha conversado sobre os seus pensamentos suicidas com o mesmo, relata oWashington Post.

A família relata que a jovem também se envolveu em conversas hipersexuais com a plataforma de inteligência artificial, tendo confessado, em outubro de 2023, que “ia escrever a minha maldita carta de suicídio em tinta vermelha", altura em que de facto se suicidou. Ao Washington Post, a mãe foi perentória: ela não “precisava de uma conversa estimulante, ela precisava de hospitalização imediata”, afirmou


Capitol Hill ouviu os familiares das vítimas, advogados e especialistas

Segundo a CNN Internacional, as famílias são representadas pelas Social Media Victims Law Center, que tem reportado o aumento de casos semelhantes a estes. As denúncias têm chamado a atenção dos órgãos de comunicação, mas também de vários advogados que pedem alterações na lei. Numa audiência, realizada esta terça-feira, para discutir este tema, o Governo dos Estado Unidos ouviu os familiares das vítimas e advogados.

A audiência contou a presença dos pais de “Nina”, de Sewell Setzer e de Juliana Peralta. E também com a mãe, cuja identidade não foi revelada, de um jovem atualmente internado num centro de tratamento após se ter autoinfligido. A ação alega que o jovem foi explorado sexualmente e abusado emocionalmente por uma personagem no Character.AI.

O CEO do OpenAI, Sam Altman, afirma que a empresa está a construir um sistema para estimar a idade com base na forma com os usuários utilizam o ChatGPT, alterando as respostas do "assistente virtual" em função de se tratar de um adolescente ou adulto. Altman anunciou também que serão lançados até ao final deste mês novos controlos parentais.

Especialistas têm vindo a expor as suas reservas sobre a influência destes programas em relação à saúde mental.

Luís Antunes, professor de inteligência artificial na Faculdade de Ciências da Universidade de Lisboa, em junho falou com o Expresso, e alertou: “Quem está a lançar este tipo de aplicações deve ter a noção de que está a misturar pólvora com dinamite e a disponibilizá-la nos quiosques para qualquer pessoa poder usar”.

Texto escrito por Margarida Nogueira e editado por Mafalda Ganhão

Tem dúvidas, sugestões ou críticas? Envie-me um e-mail: clubeexpresso@expresso.impresa.pt

Comentários
Já é Subscritor?
Comprou o Expresso?Insira o código presente na Revista E para se juntar ao debate