Sociedade

Pode a inteligência artificial aprender regras éticas e morais?

Pode a inteligência artificial aprender regras éticas e morais?

Comissão Europeia aprovou sete princípios que devem nortear o desenvolvimento da IA

Pode a inteligência artificial aprender regras éticas e morais?

Isabel Leiria

Jornalista

A inteligência artificial (IA) não é intrinsecamente boa nem má, não tem vontade própria e como diz Gary Kasparov — o homem que se tornou famoso tanto pelas suas vitórias consecutivas em campeonatos de xadrez, como pela derrota que lhe foi imposta pela primeira vez por um computador — é agnóstica. “Tal como qualquer tecnologia humana, a inteligência artificial pode ser usada para fazer o bem ou o mal”. Da mesma forma que dividir um átomo pode gerar energia para fins benéficos ou servir criar uma bomba devastadora, lembra num texto que escreveu a propósito das discussões tidas no último fórum de Davos, que todos os anos reúne alguns dos mais importantes líderes mundiais.

Ciente dos riscos e de antecipações distópicas do mundo, em que as máquinas passariam a ser usadas pelo homem com os fins mais perversos, a União Europeia aprovou esta semana as primeiras orientações éticas a seguir pelas empresas que desenvolvem sistemas de inteligência artificial. São sete princípios que pretendem garantir que os algoritmos não fazem discriminação com base na idade, raça ou género, ao mesmo tempo que continuam a respeitar as leis relativas à privacidade, proteção dos consumidores e regras ambientais.

Bruxelas quer estar na frente do desenvolvimento de uma IA com elevados padrões éticos e pretende que essa característica seja uma vantagem competitiva das empresas europeias. “Não queremos travar a inovação, mas acrescentar um valor acrescido através de uma abordagem que pensa nas pessoas. Nós é que controlamos”, explicou Maryia Gabriel, comissária europeia para a economia digital, durante a apresentação das novas orientações.

Este é o primeiro esforço multinacional para regular a utilização comercial da IA, ainda que os princípios não sejam vinculativos. Até 2020, será levada a cabo uma experiência-piloto, para que as empresas possam dar o seu feedback.

A ideia, diz a comissária europeia, citada pelo “Financial Times”, é assegurar que os algoritmos não reforçam e exponenciam, a uma escala sem precedentes, os preconceitos que tantas vezes condicionam as escolhas, nomeadamente no recrutamento de pessoas.

Se no historial de dados relativos a contratações prévias inseridos no programa, houver uma maioria de casos de escolha de homens, então não seria surpreendente que o algoritmo assumisse o mesmo comportamento. “Não conseguiremos facilmente conceber máquinas que sejam mais éticas do que nós. A chave é usar a tecnologia para revelar os nossos preconceitos para que possamos nós melhorar e com isso a sociedade”, defende Gary Kasparov no mesmo texto (“Ethical AI requires ethical humans”).

As mesmas questões éticas são colocadas, por exemplo, em relação aos veículos autónomos e às escolhas que terão de fazer. Claro que as máquinas ajudarão a salvar vidas — não adormecem ao volante, não bebem, não se distraem se tiverem que enviar uma mensagem. Mas na hora de fazer uma escolha entre salvar uma vida ou colocar em risco a do dono do carro, colocar-se-ão os mesmos dilemas éticos que são colocados ao homem.

O problema, lembrou o presidente do Instituto Superior Técnico numa entrevista recente ao Expresso, é que é “muito difícil introduzir regras morais na inteligência artificial”. Porquê? “Os sistemas que já usamos para guiar carros, auxiliar juízes em julgamentos ou selecionar pessoas para empregos, tudo isto é estatístico e muito baseado na aprendizagem profunda das redes neuronais (deep learning). Nestes sistemas não existem sítios para escrever e impor regras de alto nível, simbólicas”, como por exemplo “a empresa não pode selecionar com base na raça”, defende Arlindo Oliveira, também autor do livro Inteligência Artificial.

O mais importante, argumenta Kasparov, é pois garantir sempre a intervenção do homem, em paralelo com a tecnologia. Com a criatividade e o juízo humano, ela funcionará muito melhor.

Tem dúvidas, sugestões ou críticas? Envie-me um e-mail: ILeiria@expresso.impresa.pt

Comentários
Já é Subscritor?
Comprou o Expresso?Insira o código presente na Revista E para se juntar ao debate