CONTACTOS

Reconhecimento Facial Em Risco

Apesar de já ter angariado mais de 8 milhões de dólares de investimento, a startup Clearview AI, especializada em software de reconhecimento facial, está a ser investigada pelas autoridades inglesas e australianas.
Teste desde do capitulo da imagem

A Clearview AI está sendo investigada por reguladores no Reino Unido e na Austrália sobre questões de privacidade relacionadas às suas práticas de coleta de dados, o mais recente desafio legal enfrentado pela controversa inicialização. O Office of the Australian Information Commissioner e o Information Commissioner do Reino Unido estão preocupados com a forma como a empresa de reconhecimento facial sediada em Nova York constrói e protege seu banco de dados interno, que tem mais de 3 bilhões de imagens de pessoas tiradas de sites como Facebook e YouTube. Usando o software da Clearview, as agências de aplicação da lei – e, até recentemente, empresas do setor privado incluindo o Walmart e a Macy’s – podem carregar uma imagem de uma pessoa e tentar identificá-la com base nas fotos do banco de dados.

 

Os watchdogs provavelmente se concentrarão em como o Clearview está usando e protegendo os dados que armazena. As preocupações com a privacidade estão em primeiro lugar, já que uma investigação do The New York Times em janeiro revelou que as fotos permaneceram no banco de dados da Clearview mesmo depois que os usuários as excluíram das redes sociais. Mas a empresa também foi hackeada em fevereiro e sua lista de clientes foi roubada, embora ela tenha afirmado que nenhuma foto ou histórico de buscas foi acessado.

 

Clearview já está enfrentando uma ação legal em estados como Califórnia, Illinois e Vermont. No início deste mês, a startup anunciou que não ofereceria mais sua ferramenta no Canadá como resultado da investigação do país, e encerrou oficialmente seu contrato com a Polícia Montada Real Canadense. O Conselho Europeu de Proteção de Dados também anunciou que a tecnologia da Clearview provavelmente era ilegal na UE. Os gigantes da tecnologia Google, Facebook, YouTube e Twitter enviaram cartas de cessar e desistir para impedir a empresa de tirar fotos de seus sites. Clearview havia voado sob o radar até a investigação do The New York Times. Criada em 2017, a startup levantou $ 1,4 milhão de investidores anjos, incluindo o cofundador da Palantir, Peter Thiel. No ano passado, a Clearview garantiu uma Série A de US $ 7 milhões da Kirenaga Partners e foi avaliada em cerca de US $ 37 milhões, de acordo com dados do PitchBook.

 

A tecnologia de reconhecimento facial é um tópico controverso no mundo da tecnologia e além, e as empresas que a fornecem estão sob intenso escrutínio por fornecer software para aplicação da lei. A Amazon proibiu a polícia de usar sua própria tecnologia no próximo ano, e a Microsoft anunciou que não iria mais investir em empresas terceirizadas com foco em reconhecimento facial. Os EUA estão trabalhando atualmente em uma legislação para regulamentar o uso dessa tecnologia, que poderia incluir proteções contra o uso em protestos políticos e prisões. Em fevereiro, Washington se tornou o primeiro estado a apresentar seu próprio projeto de lei, que exigiria que as agências usassem software de reconhecimento facial para fornecer uma descrição de como os dados serão coletados, usados e armazenados.

 

Na esteira dos protestos do Black Lives Matter, organizações sem fins lucrativos como a Anistia Internacional estão pedindo a proibição do uso de reconhecimento facial pelas autoridades policiais para vigilância em massa e potencial discriminação racial. A tecnologia de reconhecimento facial há muito é criticada por sua imprecisão, especialmente na identificação de pessoas de cor. Um estudo do Instituto Nacional de Padrões e Tecnologia dos Estados Unidos descobriu, ao testar vários algoritmos em um estádio esportivo, que a taxa de precisão média foi de 40%, e seus estudos também mostraram que as taxas de identificação falsa para asiáticos ou negros 100 vezes maior do que para pessoas brancas. No Reino Unido, a organização sem fins lucrativos Big Brother Watch, de liberdades civis, descobriu que 93% das pessoas paradas durante os testes de reconhecimento facial da Polícia Metropolitana de Londres foram identificadas incorretamente.

PARTILHAR ESTE POST

Share on facebook
Share on twitter
Share on linkedin
Share on stumbleupon