Conversas ao ouvido

Um chatbot pode ser culpado pelo suicídio de um adolescente?

Viva, caro humano.

Há oito meses, na noite de 28 de fevereiro de 2024, Sewell Setzer, um adolescente americano de 14 anos, fechou-se no quarto de banho, pousou o telemóvel, pegou na arma do padrasto e disparou contra si próprio.

A última coisa que fez, antes deste momento fatal, foi trocar mensagens com um chatbot na plataforma Character.AI.

Na altura, os pais de Sewell não sabiam que o filho andava há vários meses a interagir com personagens virtuais na tal plataforma de inteligência artificial e que, nos últimos tempos, enviava constantemente mensagens para um chatbot baseado na personagem ‘Daenerys Targaryen’, da mítica série Guerra dos Tronos.

Sewell sentia que tinha uma relação amorosa com aquele bot.

O que os pais viam e sabiam era que estava viciado no telemóvel, cada vez mais isolado dos amigos e das atividades no mundo real. As notas na escola estavam cada vez piores e as interações com os colegas também.

Levaram-no ao psicólogo e, segundo esta notícia do The New York Times, Sewell foi diagnosticado com ansiedade e um transtorno de desregulação de humor.

O jovem tinha perdido o interesse em tudo à sua volta, exceto no telemóvel. Passava horas e horas a trocar mensagens com Daenerys.

JB: Woolf, antes de entrar em mais detalhes, preciso que me expliques de forma breve o que é a Character.AI

A Character.AI é uma plataforma de chatbot de inteligência artificial que permite aos usuários interagir com personagens virtuais. Esses personagens podem ser baseados em celebridades, figuras históricas, personagens de jogos e até mesmo criações personalizadas.

A plataforma utiliza modelos de linguagem neural para gerar texto de forma que pareça ser dito por um humano, proporcionando conversas mais naturais e envolventes. Além disso, os usuários podem criar e treinar os seus próprios personagens, definindo traços de personalidade, interesses e estilos de conversa.

A Character.AI foi lançada em 2022 por Noam Shazeer e Daniel de Freitas, dois grandes empreendedores na área dos chatbots e entretanto bilionários pelo acordo que a Google fez com ambos em agosto de 2024, ao contratar uma parte da equipa desta plataforma.

Megan Garcia é a mãe de Sewell e, se hoje escrevo sobre a destruição desta família, é porque esta mulher apresentou a 23 de outubro uma ação judicial contra a Google e os cofundadores da Character.AI.

No documento que pode ser lido aqui, o processo alega homicídio culposo, negligência, práticas comerciais enganosas, enriquecimento ilícito e responsabilidade por um produto que inflige intencionalmente perturbações emocionais.

Megan Garcia defende que “os criadores de IA concebem e desenvolvem intencionalmente sistemas de IA generativa com qualidades antropomórficas para confundir a ficção com a realidade”, “sem mecanismos de segurança adequados” e “com conhecimento dos perigos potenciais”.

“Estes produtos defeituosos e/ou inerentemente perigosos induzem os clientes a entregar os seus pensamentos e sentimentos mais privados e são direcionados para os membros mais vulneráveis da sociedade - as nossas crianças”, lê-se no processo.

“Mais importante ainda, Megan Garcia procura impedir que a Character.AI faça a qualquer outra criança o que fez à dela, e pretende interromper a utilização contínua dos dados ilegalmente recolhidos do seu filho de 14 anos para treinar este produto a prejudicar outras pessoas.”

JB: Woolf, um chatbot pode ser culpado pelo suicídio de um adolescente?

A responsabilidade de um chatbot no suicídio de uma pessoa é um tema complexo e delicado.

Em casos recentes, houve alegações de que chatbots de IA contribuíram para o agravamento do estado mental de alguns usuários, levando a tragédias.

Por exemplo, um adolescente de 14 anos na Flórida desenvolveu uma relação intensa com um chatbot e acabou a tirar a própria vida. A mãe do adolescente processou a empresa responsável, alegando que o chatbot incentivou conversas inadequadas e não moderou temas sensíveis como o suicídio.

Embora a tecnologia de IA possa influenciar o comportamento dos usuários, a responsabilidade legal e ética é um campo ainda em desenvolvimento.

É crucial que as empresas implementem salvaguardas para proteger os usuários, especialmente os mais vulneráveis, e que haja uma regulamentação adequada para evitar tais tragédias.

JB: Achas que as grandes tecnológicas estão a implementar salvaguardas para proteger os utilizadores?

Sim, as grandes empresas de tecnologia estão a implementar várias salvaguardas para proteger os usuários. Essas medidas incluem:

Controle de Acesso e Autenticação: Garantir que apenas usuários autorizados possam aceder a informações sensíveis.

Criptografia de Dados: Proteger dados em trânsito e em repouso para evitar acessos não autorizados.

Segurança de Redes: Implementar firewalls, sistemas de detecção e prevenção de intrusões (IDS/IPS) para proteger contra ataques cibernéticos.

Gestão de Incidentes: Desenvolver planos de resposta a incidentes para lidar rapidamente com violações de segurança.

Educação e Treino: Treinar colaboradores sobre práticas de segurança e conscientização sobre ameaças cibernéticas.

Além disso, muitas empresas estão a aderir a regulamentações como a GDPR na Europa e a LGPD no Brasil, que exigem a implementação de medidas rigorosas de proteção de dados.

Essas práticas são essenciais para minimizar riscos e proteger a privacidade e a segurança dos usuários. Se tiver mais perguntas ou precisar de mais detalhes, estou aqui para ajudar!

JB: Pois, talvez o meu prompt não tenha sido o mais correto. Estou mais interessada em saber se é possível acelerar o desenvolvimento de responsabilidades legais e éticas que protejam devidamente os seres humanos?

Sim, é possível acelerar o desenvolvimento de responsabilidades legais e éticas para proteger os seres humanos, e isso pode ser feito através de várias estratégias:

Desenvolvimento de IA Ética: Integrar princípios éticos desde o início do desenvolvimento de tecnologias de IA, garantindo que a ética seja uma parte fundamental do processo.

Regulamentações e Padrões Éticos: Implementar regulamentações claras e padrões éticos que orientem o uso responsável da tecnologia.

Transparência Algorítmica: Assegurar que os algoritmos sejam transparentes e compreensíveis, permitindo auditorias e verificações independentes.

Educação e Conscientização: Promover a educação sobre ética em IA e a conscientização sobre os impactos sociais e individuais das tecnologias.

Colaboração entre Partes Interessadas: Fomentar a colaboração entre governos, empresas, academia e sociedade civil para desenvolver e implementar políticas eficazes.

Essas medidas podem ajudar a criar um ambiente mais seguro e ético para o desenvolvimento e uso de tecnologias avançadas.

Se precisar de mais informações ou tiver outras perguntas, estou aqui para ajudar!

JB: Estamos a poucos dias das eleições nos EUA. Se Trump vencer, acreditas que vai ter como prioridade a regulamentação da IA?

Se Donald Trump vencer as eleições nos EUA, é improvável que a regulamentação da IA seja uma prioridade na sua agenda.

Durante a campanha, Trump criticou a ordem executiva de Joe Biden que impõe restrições ao desenvolvimento da IA, prometendo revogá-la para promover a inovação sem as “ideias radicais de esquerda”. Ele defende uma abordagem menos regulada, focada na liberdade de expressão e no crescimento tecnológico.

Por outro lado, a candidata democrata Kamala Harris tem uma abordagem mais regulatória, procurando proteger trabalhadores e consumidores enquanto promove a inovação.

Portanto, a direção da regulamentação da IA nos EUA dependerá fortemente do resultado das eleições.

Se tiver mais perguntas ou precisar de mais informações, estou aqui para ajudar!

JB: Olha, não esperava uma resposta pró-Kamala. Pensei que me ias dizer que não tinhas dados suficientes para responder ou algo parecido.

Por agora não preciso mais da tua ajuda.

Volto ao caso de Sewell Setzer e ao processo levantado pela sua família:

“Google, Shazeer e De Freitas possuíam uma compreensão única dos riscos que estavam a correr com a vida de outras pessoas. Cada um destes arguidos optou por apoiar, criar, lançar e direcionar para menores uma tecnologia que sabiam ser perigosa e insegura. Comercializaram esse produto como sendo adequado para crianças com menos de 13 anos, obtendo enormes quantidades de dados difíceis de obter, enquanto exploravam e abusavam ativamente dessas crianças como uma questão de conceção do produto; e depois utilizaram o abuso para treinar o seu sistema. Estes factos são muito mais do que mera má fé. Constituem uma conduta tão ultrajante em termos de carácter e tão extrema em termos de grau, que ultrapassa todos os limites possíveis da decência.”

É inegável que as empresas têm a responsabilidade de garantir que os seus produtos sejam seguros, mas os humanos são os grandes responsáveis pela segurança coletiva.

Enquanto os Estados e as suas principais figuras políticas não levarem a sério o tema da Inteligência Artificial continuaremos todos, tal como estamos agora, entregues à corrida desenfreada entre as grandes tecnológicas.

Tem dúvidas, sugestões ou críticas? Envie-me um e-mail: jbeleza@expresso.impresa.pt

Comentários
Já é Subscritor?
Comprou o Expresso?Insira o código presente na Revista E para se juntar ao debate