Comissário diz que câmeras de vigilância da Huawei usadas na Sérvia são ‘perigosas’

Cerca de 8,1 mil câmeras de reconhecimento facial podem ser instaladas no país em 2022, sistema classificado como "muito invasivo"
Share on facebook
Share on twitter
Share on whatsapp
Share on linkedin
Share on email

O governo da Sérvia planeja instalar nas ruas do país, sobretudo na capital Belgrado, 8,1 mil câmeras de vigilância da empresa chinesa Huawei em 2022. São equipamentos com capacidade de reconhecimento facial, assim como cerca de mil outras câmeras que já estão em funcionamento. Para Milan Marinovic, que gerencia um órgão independente de proteção de dados pessoais, a iniciativa é “perigosa”, devido à capacidade de o aparato tecnológico ser usado pelo Estado para fiscalizar a oposição e mesmo a própria população. As informações são do site Balkan Insight.

Há cinco anos, o Ministério do Interior da Sérvia e a Huawei assinaram um contrato com o objetivo de aumentar a segurança nas ruas do país balcânico. O custo total é desconhecido, mas os críticos afirmam que chega a dezenas de milhões de euros. Acredita-se que as novas câmeras tenham sido espalhadas por todas as partes de Belgrado durante o lockdown da pandemia, em 2019.

A empresa chinesa também forneceu tecnologia de banda larga sem fio do tipo “eLTE”, além de outros sistemas de segurança pública. Tudo como parte do projeto “Sociedade Segura” do governo sérvio. “A introdução dessa tecnologia é obviamente uma decisão política. O papel do comissário é apontar os perigos de introduzir tal tecnologia para os direitos humanos”, diz Marinovic, que o upa o cargo de Comissário Para Informações de Importância Pública e Proteção de Dados Pessoais.

Câmera de vigilância na China: Sérvia pretende instalar 8,1 mil delas nas ruas do país em 2020 (Foto: Erik Törner/Flickr)

Segundo o comissário, existe a garantia do governo de que nenhum software de reconhecimento facial está ativo, vez que a legislação não permite o processamento de dados biométricos. “A Sérvia não cobriu a vigilância por vídeo adequadamente em nenhuma de suas leis, incluindo a Lei de Proteção de Dados Pessoais”, explica. “Nos produtos da Huawei, só uma câmera de alta resolução pode ser usada. O software analítico, que é essencial, não pode”.

Mas ele admite que, ainda assim, as câmeras não são totalmente seguras. “É claro que o perigo existe quando você introduz essa tecnologia. É um método muito invasivo, pois através da rede você pode rastrear não só quem estava em qual lugar e em qual momento, mas também hábitos, movimentos, quem se encontrou com quem…. É por isso que é muito perigoso”, afirma.

A pedido de Marinovic, a primeira-ministra Ana Brnabic formou um grupo de trabalho neste ano, com a missão de debater uma estratégia estatal de proteção de dados pessoais para o período 2022-2029. Seria o primeiro documento do tipo no país.

Porém, mesmo que todas as leis necessárias sejam alteradas para permitir o uso da vigilância biométrica, o comissário alerta ainda não será o bastante para colocar a tecnologia em uso. “Por se tratar de um método invasivo de filtragem de dados, precisamos aplicar o princípio da proteção de dados pessoais, pois o uso dessa tecnologia não se justifica em todas as situações. Quando você pode cumprir seu propósito com um método menos invasivo, não deve usar o mais invasivo”, diz.

Outra preocupação que surge com a presença das câmeras nas ruas sérvias é a de que os dados sejam sorrateiramente enviados à China por servidores hackeados, como ocorria no prédio da União Africana construído por uma empresa da China. Marinovic descarta essa possibilidade. “O ministério terá o direito exclusivo de tratar os dados e processá-los para os fins previstos na legislação competente. O objetivo do processamento certamente não pode ser a transferência de dados para fora da República da Sérvia ”, afirma.

Prédio da Huawei em ShenZhen, na China (Foto: Wikimedia Commons)

A questão Huawei

Informações obtidas pelo jornal The Washington Post recentemente sugerem que a ligação da Huawei com o aparato chinês de vigilância governamental é maior do que se imaginava. Os dados aparecem em uma apresentação de Power Point que estava disponível no site da empresa e foi removida. Repleto de itens “confidenciais”, o arquivo mostra como a tecnologia da empresa pode ajudar Beijing a identificar indivíduos por voz, monitorar pessoas de interesse, gerenciar reeducação ideológica, organizar cronogramas de trabalho para prisioneiros e rastrear compradores através do reconhecimento facial.

De um lado, a Huawei nega atuar a serviço do Estado, mas admite que não tem como controlar a forma como sua tecnologia é usada pelos clientes. Do outro, as autoridades enxergam uma aproximação cada vez maior entre a Huawei e Beijing e citam a Lei de Inteligência Nacional da China, de 2017, segundo a qual as empresas nacionais devem “apoiar, cooperar e colaborar no trabalho de inteligência nacional”, o que poderia forçar a gigante da tecnologia a trabalhar a serviço do Partido Comunista Chinês (PCC).

Inteligência artificial

Em setembro, a alta comissária da ONU (Organização das Nações Unidas) para os Direitos Humanos, Michelle Bachelet, chegou a pedir uma moratória global na venda e no uso de IA. Segundo ela, sistemas que usam essa tecnologia “causam um sério risco aos direitos humanos” e, por isso, devem ser mantidos fora de circulação até que políticas de proteção entrem em vigor.  

Na ocasião, a ONU publicou um relatório analisando como a IA afeta o direito das pessoas à privacidade e também à liberdade de movimento, à liberdade de expressão e ao direito de se reunirem para manifestações pacíficas.  

O relatório destaca como as tecnologias biométricas, incluindo reconhecimento facial, são cada vez mais utilizadas pelos países, organizações internacionais e empresas de tecnologia. Segundo Bachjelet, “a inteligência artificial pode ajudar as sociedades a enfrentarem os maiores desafios dos nossos tempos”, mas pode também ter um “impacto negativo e até catastrófico se for utilizada sem levar em consideração como afeta os direitos das pessoas”.

Tags: