Nunca se ouviu falar tanto de Inteligência Artificial (IA) como agora. Todos os dias, surgem novidades, especialistas no tema e notícias sobre aquilo que nos espera. Ao tornar-se verdadeira e invariavelmente franqueável, a IA, e quem a desenvolve, começa a mostrar o seu potencial. Se, até há uns anos, apenas grandes empresas conseguiam ter acesso à capacidade desta tecnologia, nas suas várias dimensões, hoje, basta um “clique” para começar a dialogar com o ChatGPT. E não é preciso ter um computador avançado, ou sequer sair de casa, para isso. Bill Gates refere que a IA é a tecnologia mais revolucionária que já vimos em décadas. Compara-a com o telemóvel, com os computadores e com a internet. Parece-me sensato afirmar que, de facto, a sociedade já está a mudar profundamente. Para o bom, e para o mau. É, por isso, essencial questionar. Quem regula a AI? Quem estabelece as guidelines do que é aceitável? Quem aconselha a classe política e, por conseguinte, a sociedade sobre os passos legais a dar neste “caminho” que é, forçosamente, de todos?
Parece uma afirmação algo bizarra, mas colocar “coisas” a pensar já era tema de debate na Grécia Antiga, pelos mesmos filósofos que refletiram sobre a Democracia. Aliás, a mitologia grega, defendem especialistas, já colocava em questão algumas implicações éticas relativamente a seres não-humanos “pensadores” - e deixava clara a importância de definir limites. Se “avançarmos” nesta reflexão histórica que faço, chegamos a 1956, altura em que o conceito de IA se estabeleceu, por John McArthy, o pai desta tecnologia. A IA já evoluiu bastante, desde aí. Já temos linguagens de programação, robôs, chatbots que comandam as nossas vidas, e o mundo. Nem todos se apercebem. Nem todos querem acreditar. Mas esta é a realidade.
Isto não é, em primeira instância, algo negativo. Os avanços fomentados pela IA em várias áreas são notórios e continuam a existir diariamente. Na Saúde, por exemplo, os profissionais têm à sua disposição ferramentas que os ajudam a salvar vidas. Na Educação, os alunos têm experiências pedagógicas mais positivas. Nas Empresas, a produtividade aumenta quando o negócio se torna mais automatizado. Não é correto, ainda assim, olhar para estas e outras vertentes positivas e ignorar os riscos que a IA pode trazer. Reforço: os riscos não podem ser ignorados. É verdade que existe um receio comum a várias pessoas de que a IA se pode insurgir contra a sociedade. Mas, quando abordo este tópico, asseguro-me sempre de colocar uma outra questão em debate. Até onde podem ir os profissionais que desenvolvem IA?
Não pretendo falar de temas tão óbvios como o exemplo dos chatbots do Facebook, que, em 2017, criaram a sua própria linguagem, ou o de uma app desenvolvida na China que começou a tecer duras críticas ao Governo, no mesmo ano. Há perigos igualmente (ou até mais) assustadores, menos perceptíveis à “primeira vista”, e que passarei a explicar, aliando-os à necessidade da regulação da IA.
Importa analisar, primeiramente, a regulação e monitorização do algoritmo. Costumo falar sobre o conhecido videojogo Fortnite, que utiliza IA para desenvolver os seus personagens. Teoricamente inofensivo, este jogo já foi ligado a episódios de violência e crime, bem como a um vício desenvolvido em jogadores, que podem mesmo passar por mudanças de personalidade notórias. Como pode um algoritmo ditar quem somos?
A instrumentalização das ferramentas de IA é também uma dimensão a debater. Muito se tem falado acerca da possibilidade de ferramentas de IA, como o ChatGPT, fornecerem informações falsas. Yuval Noah Harari, conhecido autor do livro “Sapiens: Uma breve história da humanidade”, já tinha alertado, em 2018, sobre o poder da IA em “hackear” a sociedade. A disseminação das perigosas fake news torna-se mais fácil com a IA. E existe uma indústria que lucra muito, quando isto acontece. Até quando estaremos envoltos nesta “teia” de notícias falsas, cada vez mais difíceis de decifrar?
Por último, é inadiável refletir sobre a regulação da educação para a IA. Referi, no início deste meu artigo, que este “caminho” da IA é forçosamente de todos. Por isso, temos de saber lidar com o que daí advém. E, para isso, precisamos que alguém nos ensine a fazê-lo. Que dite as regras deste jogo que é a realidade. A sociedade tem de aprender acerca dos pressupostos éticos e dos códigos morais da IA, aliados à própria utilização técnica destas ferramentas tecnológicas. Por quanto mais tempo teremos de esperar para que sejam estabelecidos planos de educação para esta revolução tecnológica? Urge investir na regulação e no controlo desta ferramenta poderosíssima
A evolução tecnológica contribui para o bem-comum. Mas as guidelines éticas têm de ser prioridade, para que isso aconteça. A Data Science Portuguese Association desenvolveu, recentemente, um Código de Ética e Conduta para a utilização de dados. Dados que são impreterivelmente necessários para o uso e desenvolvimento da IA. Mas é necessário continuar a trabalhar, neste sentido. As entidades governamentais, os profissionais e as instituições devem juntar-se e pensar seriamente sobre os próximos passos.
Vivemos um dos maiores desafios éticos da era. É hora de refletir. Debater. E agir. Não podemos esperar mais.