‘Condicionando uma sociedade inteira’: a ascensão da tecnologia de dados biométricos

O uso de nossos corpos para desbloquear o acesso a serviços levanta preocupações sobre o trade-off entre conveniência e privacidade

Na cantina de uma escola em Gateshead, câmeras examinam os rostos das crianças, recebendo o pagamento automaticamente após identificá-las com reconhecimento facial. A mais de 320 quilômetros de distância, no norte de Londres, a equipe de uma casa de saúde recentemente participou de um ensaio que usou dados faciais para verificar o status da vacina Covid-19. E em lojas de conveniência em todo o país, os funcionários são alertados sobre possíveis ladrões por um sistema CCTV inteligente que acessa um banco de dados de indivíduos considerados suspeitos.

Em cada caso, os dados biométricos foram aproveitados para tentar economizar tempo e dinheiro. Mas o uso crescente de nossos corpos para desbloquear áreas da esfera pública e privada levantou questões sobre tudo, desde privacidade até segurança de dados e preconceito racial.

A CRB Cunninghams, empresa norte-americana cuja tecnologia de reconhecimento facial está sendo implantada em refeitórios, disse que seus sistemas aceleram o pagamento e podem reduzir o risco de propagação do Covid-19 por contato com as superfícies. O sistema foi testado pela primeira vez na escola Kingsmeadow em Gateshead no ano passado e dezenas de escolas se inscreveram para seguir o exemplo.

O entusiasmo pelo sistema pode estar diminuindo agora, porém, depois que o conselho de North Ayrshire suspendeu o uso da tecnologia em nove escolas após uma reação negativa. A decisão de desistir veio depois que pais e especialistas em ética de dados expressaram preocupações de que a compensação entre conveniência e privacidade pode não ter sido totalmente considerada.

“É uma questão de economia de tempo”, disse a professora Sandra Wachter, especialista em ética de dados do Oxford Internet Institute. “Vale a pena ter um banco de dados de rostos de crianças em algum lugar?”

Stephanie Hare, autora de Technology Ethics, vê o uso de dados biométricos infantis como uma forma “desproporcional” de agilizar as filas para o almoço. “Você está normalizando as crianças, entendendo seus corpos como algo que usam para fazer transações”, disse ela. “É assim que você condiciona uma sociedade inteira a usar o reconhecimento facial.”

Os especialistas estão preocupados com o fato de que os sistemas de dados biométricos não apenas apresentam falhas em alguns casos, mas estão cada vez mais entrando em nossas vidas sob o radar, com conhecimento ou compreensão pública limitada.

Existem exemplos salutares de como essa tecnologia pode ser perturbadoramente autoritária em seu uso, e a China oferece alguns dos precedentes mais extremos. Depois de uma onda de roubos de papel higiênico de conveniências públicas em um parque em Pequim, os usuários foram solicitados a fazer uma varredura facial antes que qualquer papel fosse lançado, e em Shenzhen, pedestres que cruzaram a rua em um sinal vermelho tiveram seus rostos iluminados para um outdoor.

Nos Estados Unidos, uma empresa pouco conhecida chamada Clearview AI foi em 2020 revelada por ter raspado sites de mídia social como o Facebook para coletar dados faciais dos usuários, coletando mais de 3 bilhões de fotos que poderiam ser compartilhadas com a polícia.

Parte da tecnologia que será lançada no Reino Unido parece, à primeira vista, mais benigna. O Eurostar está testando se os dados faciais podem ser usados ​​para embarcar em seus trens que cruzam o Canal, usando a tecnologia desenvolvida pela Entrust, dos Estados Unidos.

Em Manchester, o prefeito da cidade, Andy Burnham, conversou com a FinGo, uma startup cuja tecnologia analisa o padrão único de veias nos dedos das pessoas.

As inscrições em consideração são o pagamento de ônibus e o acesso a universidades e o fornecimento de medicamentos prescritos, enquanto a autoridade de licenciamento da cidade o aprovou para uso em locais de hospitalidade.

FinGo diz que armazena uma versão codificada do padrão de veias do dedo, que não pode ser submetida a engenharia reversa por ladrões, enquanto diferentes segmentos dos dados são armazenados em diferentes lugares para aumentar a segurança.

No início deste ano, em três lares de idosos no norte de Londres administrados pela Springdene, a empresa londrina de verificação facial iProov testou sistemas que permitem aos funcionários verificar seu status Covid usando seus rostos.

Essa tecnologia não está em uso em nenhum lugar no momento, disse iProov, mas é uma das várias empresas cujos sistemas estão integrados no aplicativo NHS, implantado quando os usuários desejam acessar serviços como seu status Covid ou agendamentos de consultas de GP usando seu rosto.

Tais aplicativos geraram dúvidas entre especialistas em tecnologia e grupos de liberdades civis sobre por quanto tempo os dados dos usuários são armazenados, quão seguros esses dados são e até mesmo se as agências de aplicação da lei estrangeiras podem exigir para vê-los.

Ankur Banerjee, diretor de tecnologia da startup de identidade digital Cheqd, destaca que a tecnologia biométrica depende de nossa confiança nas pessoas que a operam. Em Moscou, os usuários do famoso sistema de metrô da cidade agora podem pagar usando o rosto, um sistema que, pelo menos por enquanto, é voluntário.

“Isso é conveniente para 99% das pessoas, mas se alguém aparece para um protesto antigovernamental, de repente eles têm a capacidade de rastrear quem entrou e saiu, ao contrário de um cartão estilo Oyster que pode não estar registrado”, disse Banerjee .

Alguma tecnologia que já é de uso comum no Reino Unido gerou ansiedade em relação às liberdades civis. A FaceWatch, com sede em Londres, vende sistemas de segurança que alertam os funcionários da loja sobre a presença de um “assunto de interesse” – normalmente alguém que se comportou de maneira anti-social ou foi pego furtando antes. Começou como um sistema para detectar batedores de carteira no bar de vinhos Gordon’s no centro de Londres, do qual o fundador do FaceWatch Simon Gordon é o proprietário.

As câmeras examinam o rosto de qualquer pessoa que entra em um prédio e o comparam com um banco de dados de pessoas marcadas para um exame especial.

No entanto, Wachter está preocupado com a perspectiva de tal tecnologia se tornar mais difundida. “A pesquisa mostrou que o software de reconhecimento facial é menos preciso com pessoas de cor e mulheres.” Ela também aponta para o potencial de preconceito humano existente para ser conectado em uma tecnologia supostamente neutra. “Como você pode confiar que eles acabaram na lista de observação com precisão? Existe preconceito no policiamento seletivo e no sistema judicial. ”

Nem é claro em muitos casos a quem esses sistemas são responsáveis ​​e como os indivíduos podem contestar os julgamentos que fazem. “E se eu tiver sido acusado injustamente ou se o algoritmo me corresponder incorretamente com outra pessoa?” Banerjee pergunta. “É a justiça privada, onde você não tem nenhum recurso para corrigir isso.”

O FaceWatch disse que não compartilha os dados faciais que mantém com a polícia, embora eles possam acessá-los se um crime for denunciado. A empresa disse que minimiza o risco de identificação incorreta, garantindo que as câmeras sejam posicionadas em boa luz para aumentar a precisão, com qualquer caso limite referido a um verificador manual. As pessoas na lista de observação podem, diz ele, contestar a decisão.

O FaceWatch acrescentou que armazena dados faciais por até dois anos e que é criptografado e protegido por segurança de “nível de banco”.

Mas Wachter destaca que os sistemas de segurança que protegem nossos dados biométricos são de última geração até o dia em que são violados.

“A ideia de uma violação de dados não é uma questão de se, é uma questão de quando”, disse ela. “Bem-vindo à Internet: tudo pode ser hackeado.”

Devemos, diz ela, ser cautelosos ao implantar tecnologia apenas porque ela promete tornar nossas vidas mais fáceis. “A ideia é que assim que algo se desenvolve, tem um lugar na sociedade”, disse ela. “Mas às vezes o preço que pagamos é muito alto.”

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here