Internacional

Huawei testou software de reconhecimento facial para identificar pessoas da minoria Uigur

Huawei testou software de reconhecimento facial para identificar pessoas da minoria Uigur
OZAN KOSE/GETTY IMAGES

Documento de 2018 revelado pelo "Washington Post" mostra que a maior empresa de telecomunicações do mundo usou inteligência artificial para detetar pessoas uigur no meio de multidões. A empresa reconheceu a autenticidade do documento, mas diz que não usou a tecnologia no mundo real. Na China, a etnia muçulmana é perseguida e detida em campos de concentração

Huawei testou software de reconhecimento facial para identificar pessoas da minoria Uigur

Tiago Soares

Jornalista

A empresa tecnológica chinesa Huawei testou um software de reconhecimento facial capaz de identificar pessoas da minoria oprimida Uigur no meio de multidões e alertar as autoridades governamentais, segundo um documento assinado por representantes da Huawei descoberto pela organização IPVM, e a que o “Washington Post”' teve acesso.

Segundo essa informação, em 2018 a Huawei começou a trabalhar com a startup especializada em reconhecimento facial Megvii no sentido de criar um sistema de câmaras assente na inteligência artificial que conseguisse examinar rostos e estimar a idade, sexo e etnia de cada um. Caso o sistema detectasse um Uigur, enviava um alarme à polícia da China, onde os cidadãos deste grupo étnico de fé muçulmana estão a ser detidos em massa e enviados para campos de concentração geridos pelo estado chinês. O documento em questão foi removido do site da Huawei pouco depois do "Washington Post” ter inquirido a empresa sobre o mesmo.

Apesar de este tipo de tecnologia se ter expandido pela polícia chinesa nos últimos anos, o novo documento mostra como a Huawei, o maior fabricante de equipamento de telecomunicações do mundo, tem contribuído diretamente para o seu desenvolvimento com câmaras, servidores e outras infraestruturas. É um processo “sistemático”, diz John Honovich, fundador da IPVM, que investiga equipamento de videovigilância: na opinião do especialista, o novo documento mostra o quão “assustadora” se tornou esta tecnologia discriminatória.

“A ambição de vigilância da China vai muito além da perseguição a uma minoria étnica”, diz Maya Wang, investigadora da Human Rights Watch, que alerta que este tipo de sistemas são bastante apetecíveis para outros países que querem oprimir e criminalizar minorias. Em 2018, cientistas de inteligência artificial chineses publicaram um artigo intitulado “Facial feature discovery for ethnicity recognition”, mostrando algoritmos que conseguiam distinguir os traços gerais dos rostos de pessoas uigur, coreanas e tibetanas.

Clare Garvie, uma investigadora no Center on Privacy and Technology que tem estudado software de reconhecimento facial, disse ao "Washington Post” que o “alarme uigur" era um passo perigoso para permitir a descriminação étnica a uma larga escala. “Há certas ferramentas que simplesmente não têm usos positivos e muitos negativos, e esta é uma delas”, disse. “Diga uma norma dos direitos humanos, e este sistema provavelmente representa uma violação dessa norma.”

A Huawei e a Megvii reconheceram a autenticidade do documento depois do "Washington Post" ter publicado a notícia. A Huawei disse que o sistema ainda não foi usado na vida real, e a Megvii garantiu que os seus sistemas não são usados para discriminar certas etnias.

Tem dúvidas, sugestões ou críticas? Envie-me um e-mail: tsoares@expresso.impresa.pt / tiago.g.soares24@gmail.com

Comentários
Já é Subscritor?
Comprou o Expresso?Insira o código presente na Revista E para se juntar ao debate