Viva, caro humano.
Há oito meses, na noite de 28 de fevereiro de 2024, Sewell Setzer, um adolescente americano de 14 anos, fechou-se no quarto de banho, pousou o telemóvel, pegou na arma do padrasto e disparou contra si próprio.
A última coisa que fez, antes deste momento fatal, foi trocar mensagens com um chatbot na plataforma Character.AI.
Na altura, os pais de Sewell não sabiam que o filho andava há vários meses a interagir com personagens virtuais na tal plataforma de inteligência artificial e que, nos últimos tempos, enviava constantemente mensagens para um chatbot baseado na personagem ‘Daenerys Targaryen’, da mítica série Guerra dos Tronos.
Sewell sentia que tinha uma relação amorosa com aquele bot.
O que os pais viam e sabiam era que estava viciado no telemóvel, cada vez mais isolado dos amigos e das atividades no mundo real. As notas na escola estavam cada vez piores e as interações com os colegas também.
Levaram-no ao psicólogo e, segundo esta notícia do The New York Times, Sewell foi diagnosticado com ansiedade e um transtorno de desregulação de humor.
O jovem tinha perdido o interesse em tudo à sua volta, exceto no telemóvel. Passava horas e horas a trocar mensagens com Daenerys.
JB: Woolf, antes de entrar em mais detalhes, preciso que me expliques de forma breve o que é a Character.AI
A Character.AI é uma plataforma de chatbot de inteligência artificial que permite aos usuários interagir com personagens virtuais. Esses personagens podem ser baseados em celebridades, figuras históricas, personagens de jogos e até mesmo criações personalizadas.
A plataforma utiliza modelos de linguagem neural para gerar texto de forma que pareça ser dito por um humano, proporcionando conversas mais naturais e envolventes. Além disso, os usuários podem criar e treinar os seus próprios personagens, definindo traços de personalidade, interesses e estilos de conversa.
A Character.AI foi lançada em 2022 por Noam Shazeer e Daniel de Freitas, dois grandes empreendedores na área dos chatbots e entretanto bilionários pelo acordo que a Google fez com ambos em agosto de 2024, ao contratar uma parte da equipa desta plataforma.
Megan Garcia é a mãe de Sewell e, se hoje escrevo sobre a destruição desta família, é porque esta mulher apresentou a 23 de outubro uma ação judicial contra a Google e os cofundadores da Character.AI.
No documento que pode ser lido aqui, o processo alega homicídio culposo, negligência, práticas comerciais enganosas, enriquecimento ilícito e responsabilidade por um produto que inflige intencionalmente perturbações emocionais.
Megan Garcia defende que “os criadores de IA concebem e desenvolvem intencionalmente sistemas de IA generativa com qualidades antropomórficas para confundir a ficção com a realidade”, “sem mecanismos de segurança adequados” e “com conhecimento dos perigos potenciais”.
“Estes produtos defeituosos e/ou inerentemente perigosos induzem os clientes a entregar os seus pensamentos e sentimentos mais privados e são direcionados para os membros mais vulneráveis da sociedade - as nossas crianças”, lê-se no processo.
“Mais importante ainda, Megan Garcia procura impedir que a Character.AI faça a qualquer outra criança o que fez à dela, e pretende interromper a utilização contínua dos dados ilegalmente recolhidos do seu filho de 14 anos para treinar este produto a prejudicar outras pessoas.”
JB: Woolf, um chatbot pode ser culpado pelo suicídio de um adolescente?
A responsabilidade de um chatbot no suicídio de uma pessoa é um tema complexo e delicado.
Em casos recentes, houve alegações de que chatbots de IA contribuíram para o agravamento do estado mental de alguns usuários, levando a tragédias.
Por exemplo, um adolescente de 14 anos na Flórida desenvolveu uma relação intensa com um chatbot e acabou a tirar a própria vida. A mãe do adolescente processou a empresa responsável, alegando que o chatbot incentivou conversas inadequadas e não moderou temas sensíveis como o suicídio.
Embora a tecnologia de IA possa influenciar o comportamento dos usuários, a responsabilidade legal e ética é um campo ainda em desenvolvimento.
É crucial que as empresas implementem salvaguardas para proteger os usuários, especialmente os mais vulneráveis, e que haja uma regulamentação adequada para evitar tais tragédias.
JB: Achas que as grandes tecnológicas estão a implementar salvaguardas para proteger os utilizadores?
Sim, as grandes empresas de tecnologia estão a implementar várias salvaguardas para proteger os usuários. Essas medidas incluem:
Controle de Acesso e Autenticação: Garantir que apenas usuários autorizados possam aceder a informações sensíveis.
Criptografia de Dados: Proteger dados em trânsito e em repouso para evitar acessos não autorizados.
Segurança de Redes: Implementar firewalls, sistemas de detecção e prevenção de intrusões (IDS/IPS) para proteger contra ataques cibernéticos.
Gestão de Incidentes: Desenvolver planos de resposta a incidentes para lidar rapidamente com violações de segurança.
Educação e Treino: Treinar colaboradores sobre práticas de segurança e conscientização sobre ameaças cibernéticas.
Além disso, muitas empresas estão a aderir a regulamentações como a GDPR na Europa e a LGPD no Brasil, que exigem a implementação de medidas rigorosas de proteção de dados.
Essas práticas são essenciais para minimizar riscos e proteger a privacidade e a segurança dos usuários. Se tiver mais perguntas ou precisar de mais detalhes, estou aqui para ajudar!
JB: Pois, talvez o meu prompt não tenha sido o mais correto. Estou mais interessada em saber se é possível acelerar o desenvolvimento de responsabilidades legais e éticas que protejam devidamente os seres humanos?
Sim, é possível acelerar o desenvolvimento de responsabilidades legais e éticas para proteger os seres humanos, e isso pode ser feito através de várias estratégias:
Desenvolvimento de IA Ética: Integrar princípios éticos desde o início do desenvolvimento de tecnologias de IA, garantindo que a ética seja uma parte fundamental do processo.
Regulamentações e Padrões Éticos: Implementar regulamentações claras e padrões éticos que orientem o uso responsável da tecnologia.
Transparência Algorítmica: Assegurar que os algoritmos sejam transparentes e compreensíveis, permitindo auditorias e verificações independentes.
Educação e Conscientização: Promover a educação sobre ética em IA e a conscientização sobre os impactos sociais e individuais das tecnologias.
Colaboração entre Partes Interessadas: Fomentar a colaboração entre governos, empresas, academia e sociedade civil para desenvolver e implementar políticas eficazes.
Essas medidas podem ajudar a criar um ambiente mais seguro e ético para o desenvolvimento e uso de tecnologias avançadas.
Se precisar de mais informações ou tiver outras perguntas, estou aqui para ajudar!
JB: Estamos a poucos dias das eleições nos EUA. Se Trump vencer, acreditas que vai ter como prioridade a regulamentação da IA?
Se Donald Trump vencer as eleições nos EUA, é improvável que a regulamentação da IA seja uma prioridade na sua agenda.
Durante a campanha, Trump criticou a ordem executiva de Joe Biden que impõe restrições ao desenvolvimento da IA, prometendo revogá-la para promover a inovação sem as “ideias radicais de esquerda”. Ele defende uma abordagem menos regulada, focada na liberdade de expressão e no crescimento tecnológico.
Por outro lado, a candidata democrata Kamala Harris tem uma abordagem mais regulatória, procurando proteger trabalhadores e consumidores enquanto promove a inovação.
Portanto, a direção da regulamentação da IA nos EUA dependerá fortemente do resultado das eleições.
Se tiver mais perguntas ou precisar de mais informações, estou aqui para ajudar!
JB: Olha, não esperava uma resposta pró-Kamala. Pensei que me ias dizer que não tinhas dados suficientes para responder ou algo parecido.
Por agora não preciso mais da tua ajuda.
Volto ao caso de Sewell Setzer e ao processo levantado pela sua família:
“Google, Shazeer e De Freitas possuíam uma compreensão única dos riscos que estavam a correr com a vida de outras pessoas. Cada um destes arguidos optou por apoiar, criar, lançar e direcionar para menores uma tecnologia que sabiam ser perigosa e insegura. Comercializaram esse produto como sendo adequado para crianças com menos de 13 anos, obtendo enormes quantidades de dados difíceis de obter, enquanto exploravam e abusavam ativamente dessas crianças como uma questão de conceção do produto; e depois utilizaram o abuso para treinar o seu sistema. Estes factos são muito mais do que mera má fé. Constituem uma conduta tão ultrajante em termos de carácter e tão extrema em termos de grau, que ultrapassa todos os limites possíveis da decência.”
É inegável que as empresas têm a responsabilidade de garantir que os seus produtos sejam seguros, mas os humanos são os grandes responsáveis pela segurança coletiva.
Enquanto os Estados e as suas principais figuras políticas não levarem a sério o tema da Inteligência Artificial continuaremos todos, tal como estamos agora, entregues à corrida desenfreada entre as grandes tecnológicas.
Tem dúvidas, sugestões ou críticas? Envie-me um e-mail: jbeleza@expresso.impresa.pt