IMAGENS FACIAIS, NOVO ASSALTO À PRIVACIDADE

2019-12-22
Pilar Camacho, Bruxelas
Instituições vocacionadas para a protecção de dados e a luta contra os atentados à privacidade têm vindo a chamar a atenção da União Europeia para a utilização cada vez mais comum das novas tecnologias de reconhecimento facial num quadro de insuficiência legal. Em causa estão o respeito por direitos humanos básicos, pela dignidade e a privacidade dos cidadãos; além de se abrirem, desse modo, novas portas para perseguições arbitrárias, discriminação xenófoba e reforço da pressão sobre refugiados e imigrantes.
No final de Novembro foi divulgado um relatório da Agência Europeia para os Direitos Fundamentais (AEDF) chamando a atenção das instituições da União Europeia e dos Estados membros para a forma como entidades públicas, designadamente policiais, estão a utilizar o reconhecimento facial. O texto recorda que a recolha de imagens faciais de indivíduos sem o conhecimento dos próprios ou sem lhes deixar a alternativa de recusar “pode ter um impacto negativo na dignidade das pessoas”.
De acordo com a informação contida no relatório, a União Europeia utiliza seis sistemas principais de identificação individual, cinco dos quais estão configurados para processar imagens faciais em actividades relacionadas com a “migração” e a “segurança”. Entre estes está o próprio Sistema de Informações Schengen, que policia as entradas e saídas no espaço da União Europeia.
De notar que a agência policial internacional Interpol utiliza tecnologias de reconhecimento facial há três anos.
O relatório da AEDF salienta que a perspectiva em relação a estes controlos é a de que a implantação de tecnologias de reconhecimento facial venha a ser usada em larga escala nos sistemas técnicos europeus associados a situações de “asilo”, “migração” e “segurança”. Uma situação previsível é o da sua utilização nas solicitações de visto, travessia de fronteiras ou pedidos de asilo.
A precisão destas tecnologias depende de modo sensível da qualidade dos dados que irão alimentar o software e também da sua fiabilidade depois de integrados, salienta o relatório; e lembra, a propósito, que o risco de existência de erros poderá levar, por exemplo, à discriminação de algumas minorias, eventualidade que está a suscitar preocupações crescentes na sociedade civil.
“Um efeito aterrador”
“Pode acontecer que a tecnologia de reconhecimento facial aumente exponencialmente o número de falsas identificações, por exemplo o de pessoas detidas apesar de não terem cometido qualquer crime”, adverte, a propósito, Nicolas Kaiser-Bril, da organização não-governamental (ONG) Algorithm Watch, segundo o qual existem, até agora, poucas demonstrações de que o reconhecimento facial ajude na luta contra o crime.
Diego Naranjo, responsável político da ONG European Digital Rights, dá conta de outro exemplo: o uso de tecnologias de reconhecimento facial durante manifestações populares pode ter “um efeito aterrador”, desencorajando as pessoas de exercer os seus direitos como a liberdade de reunião, de expressão ou de associação. Por isso, “até que a necessidade e proporcionalidade do uso dessas tecnologias para fins de ‘segurança’ sejam estabelecidas e comprovadas os governos deverão abster-se de utilizá-las”.
Avanço sem controlos
Apesar destas preocupações, pareceres e advertências é cada vez maior o número instâncias e de países europeus que já recorrem a essas tecnologias, cujo uso não está expressamente legislado ou foi apressadamente inserido no âmbito de legislação já existente.
O Reino Unido foi o primeiro a fazê-lo ao identificar pessoas em tempo real com câmaras instaladas nas ruas.
No início de 2019, a Autoridade Sueca de Protecção de Dados – Datainspektionen - autorizou a polícia a recorrer ao reconhecimento facial para ajudar a identificar alegados criminosos.
A Hungria tem em desenvolvimento o projecto Szitakoto (libélula), através do qual pretende instalar 35 mil câmaras com capacidade de reconhecimento facial em locais públicos de Budapeste e do resto do país.
Estes casos são apenas alguns entre muitos outros, porque a utilização de tecnologias de reconhecimento facial tem vindo a generalizar-se nos países da União Europeia, sobretudo em manifestações de carácter político e social – por exemplo os Coletes Amarelos em França – e em actividades associadas ao suposto “combate ao terrorismo”.
Legislação nebulosa
A nova presidente da Comissão Europeia, Ursula von der Leyen, prometeu que nos primeiros cem dias de mandato apresentará legislação para uma abordagem coordenada europeia das implicações éticas e humanas do recurso a inteligência artificial.
Esta intenção significa, por si mesma, o reconhecimento de que a legislação existente não está adequada ao aparecimento em cena de novas tecnologias de identificação.
A promessa revela também que todos os processos já em curso no espaço da União Europeia com uso de tecnologias de reconhecimento facial funcionam à margem da lei e do necessário debate – ainda por fazer – sobre o impacto em questões éticas. Além disso, reconhece implicitamente que estão a ser praticadas violações dos direitos humanos através, por exemplo, da multiplicação de câmaras de rua e da utilização policial de captação de imagens pessoais sem autorização.
De acordo com o director jurídico da Organização Europeia de Consumidores, David Martin, “os consumidores devem ser informados quando empresas ou governos recorrem ao reconhecimento facial de pessoas sem que estas tenham a possibilidade de dizer não”.
Na União Europeia considera-se que este tipo de actividades estão protegidas pelas medidas legais que consideram as imagens faciais como “dados biométricos”, podendo ser utilizadas para identificar indivíduos. Em consequência, os elementos obtidos em operações de videovigilância realizadas pelas autoridades policiais de prevenção, investigação, detecção e repressão de infracções penais são regidos pelo Regulamento Geral de Protecção de Dados (RGPD).
Em relação a muitos direitos garantidos por este regulamento, porém, exige-se que “a pessoa esteja ciente de que os seus dados são armazenados” – o que, na generalidade, não acontece.
Em Junho deste ano, o grupo de especialistas de alto nível da União Europeia no âmbito da inteligência artificial apresentou um conjunto de recomendações e princípios éticos para uso dessas tecnologias, entre as quais se encontra a de reconhecimento facial, que está “actualmente a ser testada”, segundo o porta-voz da entidade.
Estando “em teste” deduz-se que não deveria estar a ser aplicada e já na origem de decisões que implicam directamente com a vida das pessoas, com os seus direitos e liberdades.
Uma das preocupações críticas elencadas no documento do grupo de especialistas é a “identificação automática de indivíduos” por mecanismos de inteligência artificial, porque “suscita fortes dúvidas de natureza legal e ética”. Ainda segundo o mesmo grupo, “os indivíduos não devem estar sujeitos a rastreamento ou identificação pessoal, física ou mental injustificada, criação de perfis e registos através de métodos de reconhecimento biométrico de inteligência artificial”. E cita expressamente o caso do reconhecimento facial, a par do reconhecimento de voz, identificação comportamental, ADN e íris.
O grupo de especialistas de alto nível da União Europeia considera que a aplicação de tecnologias de reconhecimento facial deve ser objecto de lei expressamente dedicada e que garanta o consentimento do titular dos dados para tal actividade.
O relatório da Agência Europeia para os Direitos Fundamentais pronuncia-se no mesmo sentido considerando que “uma estrutura legal clara deve regular a implantação e o uso de tecnologias de reconhecimento facial”. Além disso, a actividade também deve ser monitorizada por órgãos de supervisão independentes.
Nada disso está ainda estabelecido, o que não obsta a que as autoridades recorram a esse tipo de identificação – actuando, portanto, fora de um quadro legal apropriado e que defenda os direitos dos cidadãos nessa matéria.
A ONG Algorithm Watch considera, por outro lado, que o facto de a Comissão Europeia pretender seguir um caminho apressado para legislar sobre a inteligência artificial – matéria extremamente sensível e delicada – não é um bom prenúncio: aspectos essenciais da perigosa tomada de decisões de maneira automatizada, sem intervenção humana, poderão ficar de lado – o que não ajudará a preencher de maneira conveniente o vazio legal existente.