O Futuro do Futuro

“As nossas crianças, se quiserem aprender sobre o ilustre ditador António Salazar, aprendem segundo um alinhamento definido pela OpenAI”

Paulo Dimas, coordenador do Centro para a Inteligência Artificial Responsável, admite que as autoridades portuguesas poderão ter um raio de ação limitado no caso de surgirem campanhas de desinformação levadas a cabo por agentes de inteligência artificial durante as legislativas de março. “À escala portuguesa, é muito difícil fazer o que quer que seja”, responde o responsável pela área da inovação da Unbabel, alertando ainda para o papel que as grandes plataformas como ChatGPT e Bard podem ter na opinião pública. “As nossas crianças, se quiserem aprender sobre o ditador António Salazar, aprendem segundo um alinhamento que foi definido pela OpenAI”

Portugal vai a eleições a 10 de março, mas desta vez há o risco de não serem só os humanos que determinam as tendências de voto. “Estamos numa era em que a democracia é o principal alvo da Inteligência Artificial”, avisa Paulo Dimas, coordenador do Centro para a Inteligência Artificial Responsável, no podcast Futuro do Futuro.

De súbito, parte da humanidade passou a dispor de ferramentas de inteligência artificial generativa que permitem replicar facilmente vozes e rostos de pessoas conhecidas para passarem informação falsa com o objetivo de influenciar a opinião pública. Lá fora já há casos conhecidos por recorrerem a um “exército” de chatbots, ou agentes de inteligência artificial, que tentam condicionar a opinião pública. E o que podem fazer as autoridades para evitar que as legislativas de março venham a ser condicionadas pela ação dos bots?

Paulo Dimas, vice-presidente da Unbabel, mostrou no podcast Futuro do Futuro o dispositivo Halo que tem vindo a ser usado para facilitar a comunicação de um paciente de ELA
TOMAS ALMEIDA

“À escala portuguesa, é muito difícil fazer o que quer que seja. Por isso é que é muito importante a regulação europeia, porque o mercado europeu é suficientemente grande para que as big tech (as grandes empresas de tecnologias) tenham de ter em conta este tipo de regulação”, analisa Paulo Dimas.

O Centro para a Inteligência Artificial Responsável pretende fazer jus ao nome ao juntar várias startups e centros de investigação no desenvolvimento de produtos que levam para o dia-a-dia alguns dos preceitos éticos que devem orientar os algoritmos na hora de ajudarem os humanos a tomarem decisões. Halo é um dos produtos desenvolvidos no âmbito deste consórcio - e distingue-se por usar inteligência artificial para devolver a capacidade de comunicação a pacientes de Esclerose Lateral Amiotrófica (ELA).

No podcast Futuro do Futuro, Paulo Dimas não só faz uma pequena demonstração de como funciona o Halo, como trouxe o som da voz do primeiro paciente de ELA que usou o Halo para comunicar com a família, em resposta a um dos desafios do Futuro do Futuro.

Foi também para ilustrar o potencial da manipulação da opinião pública que o vice-presidente da Unbabel trouxe para este podcast uma reportagem da CNN, que dá a conhecer um agente digital que imita fielmente um famoso apresentador de TV, apesar de ser apenas uma réplica digital.

Em paralelo com as ferramentas de inteligência artificial que podem ser usadas com objetivos ilegítimos, as grandes empresas tecnológicas têm ainda um papel determinante na hora de disponibilizarem informação ao público.

As nossas crianças, se quiserem aprender sobre o nosso ilustre ditador António Salazar, aprendem segundo um alinhamento que foi definido pela OpenAI”, refere Paulo Dimas, numa alusão, com alguma ironia à mistura, sobre o poder que a Inteligência Artificial já começou a exercer na opinião pública.

Paulo Dimas recorda o pequeno exercício que levou a cabo, nos primeiros meses de 2023, quando decidiu “pedir uma opinião” a uma plataforma de inteligência artificial sobre o ditador que governou Portugal durante o Estado Novo. E a descrição apresentada pelos algoritmos dificilmente deixaria satisfeito quem lutou contra o Estado Novo em prol da instauração de um regime democrático, uma vez que dizia apenas que Salazar “tinha sido uma pessoa muito admirada pelos portugueses porque tinha feito grandes projetos para o desenvolvimento do país”.

Os chatbots são de esquerda ou de direita? À falta de uma linha de orientação consensual, a questão permanece em aberto. Paulo Dimas dá como exemplo o ChatGPT, que tem vindo a ser descrito como anti-Trump. “Como é que uma pessoa pró-Trump, enfim, se reveria num modelo desses?”, acrescenta numa alusão ao debate político que pode surgir em reação ao posicionamento ideológico das diferentes plataformas de inteligência artificial.

Ciente do risco, a própria OpenAI já começou a propor como posicionamento mais adequado para as plataformas de Inteligência Artificial “a Carta dos Direitos Humanos das Nações Unidas, onde diz que todas as pessoas, independentemente da raça, do sexo, da idade, todas as pessoas devem ser tratadas de forma igual, que não deve haver discriminação”, explica Paulo Dimas. À nova tendência que pretende garantir informação sem preconceitos dá-se o nome de “inteligência artificial constitucional” refere ainda o coordenador do Centro para a Inteligência Artificial Responsável.

Precisamente para lutar contra o viés e o preconceito, as maiores plataformas de inteligência artificial já começaram a expurgar os repositórios de dados politicamente incorretos, ao mesmo tempo que aplicam regras que impedem a proliferação do estigma. Mas é um trabalho que ainda não terminou, sublinha Paulo Dimas, dando como exemplo as plataformas de inteligência artificial que deixaram de debitar anedotas sobre pessoas gordas, mas curiosamente continuam a disponibilizar anedotas sobre pessoas muito altas.

A questão presta-se ao debate sobre o que é uma pessoa normal, mas do ponto de vista técnico é a complexa explicabilidade da inteligência artificial que está em causa. Plataformas como Bard, Dall.e, Midjourney ou ChatGPT distinguem-se pela assertividade, mas não facilitam o trabalho de quem quiser saber como é que apuram as respostas. Paulo Dimas pega num caso recente que encontrou numa plataforma de inteligência artificial que apresentava uma biografia factualmente errada do neurocientista António Damásio para ilustrar o problema das “alucinações”.

“Estamos a falar de uma quantidade infindável de parâmetros, de números, que no fundo não são texto. Eles não têm lá dentro deles a dizer, ‘ah, este numerozinho veio ali daquela nota biográfica do professor António Damásio’. Não, ninguém sabe explicar aquele número, que resultou de um treino massivo, através do processamento de centenas de milhares de livros e milhões de palavras que existem na Internet”, informa Paulo Dimas.

É precisamente devido à explicabilidade que, na medicina, se usam outras famílias tecnológicas da Inteligência Artificial na análise de exames de diagnóstico, em detrimento da Inteligência Artificial Generativa. “O médico tem de confiar na inteligência artificial. Tem de poder perceber porque é que a inteligência artificial está a tomar aquela decisão”, refere Paulo Dimas, admitindo que Inteligência Artificial Generativa ainda não é merecedora de confiança dentro do sector da saúde.

Tiago Pereira Santos

Hugo Séneca conversa com mentes brilhantes de diversas áreas sobre o admirável mundo novo que a tecnologia nos reserva. Uma janela aberta para as grandes inovações destes e dos próximos tempos

Tem dúvidas, sugestões ou críticas? Envie-me um e-mail: senecahugo@gmail.com

Comentários
Já é Subscritor?
Comprou o Expresso?Insira o código presente na Revista E para se juntar ao debate