Tecnologia de reconhecimento facial não “de acordo com a lei”

0
67

13 de agosto de 2020 por Rafe Jennings

R (no requerimento de Edward Bridges) v Chefe da Polícia de Gales do Sul (Respondente) e Secretário de Estado do Departamento do Interior e do Comissário de Informação, o Comissário da Câmara de Vigilância e o Comissário da Polícia e Crime do País de Gales (Partes interessadas) [2020] EWCA Civ 1058

O Tribunal de Recurso, anulando uma decisão do Tribunal Divisional, concluiu que o uso de uma ferramenta de vigilância de reconhecimento facial usada pela Polícia do Gales do Sul é uma violação do Artigo 8 da Convenção Europeia dos Direitos Humanos (CEDH). O caso foi apresentado pela Liberty em nome do ativista da privacidade e das liberdades civis Ed Bridges. O recurso foi julgado procedente com base no facto de a ingerência ao artigo 8.º da CEDH, que garante o direito à privacidade e à vida familiar, não estar “de acordo com a lei” devido a um quadro jurídico insuficiente. No entanto, o tribunal considerou que, caso estivesse de acordo com a lei, a interferência causada pelo uso da tecnologia de reconhecimento facial não teria sido desproporcional ao objetivo de prevenção do crime. O tribunal também concluiu que a Avaliação de Impacto da Proteção de Dados (DPIA) era deficiente e que a Polícia do País de Gales (SWP), que operava a tecnologia, não havia cumprido seu dever de igualdade no setor público.

O caso dizia respeito à utilização de tecnologia de reconhecimento facial automatizado (AFR). A tecnologia AFR usa biometria, dados biológicos exclusivos, como medidas faciais, para identificar indivíduos a partir de um banco de dados de fotografias. Estava sendo usado em um esquema piloto em South Wales, onde a tecnologia estava sendo implantada pela polícia em grandes multidões para identificar indivíduos que eram “procurados por suspeita de um crime, procurados sob mandado, pessoas vulneráveis ​​e outras pessoas sob inteligência [was] requeridos”. Apesar de buscar uma lista pré-especificada de pessoas, a tecnologia coletava dados biométricos indiscriminadamente.

Ed Bridges afirmou estar na presença da tecnologia AFR em duas ocasiões e, portanto, presumiu-se que possuía a tecnologia usada nele. Ele argumentou que o uso da tecnologia era uma violação de seu direito à privacidade de acordo com o Artigo 8.

Funcionando como uma câmera CCTV, a tecnologia AFR faz a varredura de multidões de pessoas, identificando rostos e avaliando instantaneamente as medidas faciais em relação a um banco de dados de “lista de observação” pré-estabelecido de fotografias de custódia. Se nenhuma correspondência fosse encontrada, os dados biométricos seriam apagados instantaneamente. Ao descobrir uma correspondência entre alguém na multidão e a lista de observação, o programa sinalizava que o operador, um policial, analisasse a correspondência. Se fosse considerado preciso, uma intervenção apropriada seria encenada.

O software de reconhecimento facial de aprendizado profundo se baseia em conjuntos de dados de treinamento, grandes bancos de dados de fotografias de rostos, para aprender como identificar características faciais e comparar a biometria. Alguns softwares de reconhecimento facial demonstraram ser mais precisos na identificação de pessoas brancas do que outras minorias étnicas e mais homens do que mulheres, em grande parte devido aos conjuntos de dados de treinamento usados ​​contendo mais homens brancos do que outras identidades.

O Artigo 8 (2) diz que o direito à vida privada só pode sofrer interferências “de acordo com a lei”. A base para estar “de acordo com a lei” é estabelecida em R (Catt) v Associação dos Chefes de Polícia [2015] UKSC 9. O Divisional Court estabeleceu estes princípios gerais:

(1) A medida em questão (a) deve ter ‘alguma base no direito interno’ e (b) deve ser ‘compatível com o Estado de direito’, o que significa que deve cumprir os requisitos duplos de ‘acessibilidade’ e ‘ previsibilidade ‘(Sunday Times v Reino Unido (1979) 2 EHRR 245; Sliver x Reino Unido (1983) 5 EHRR 347; e Malone v Reino Unido (1984) 7 EHRR 14).

(2) A base jurídica deve ser «acessível» ao interessado, o que significa que deve ser publicada e compreensível, devendo ser possível descobrir o que são as suas disposições. A medida também deve ser “previsível”, o que significa que deve ser possível a uma pessoa prever as suas consequências para ela e não deve “conferir um poder de apreciação tão amplo que o seu âmbito dependa, na prática, da vontade de quem o aplica, do que na própria lei ‘(Lord Sumption em Re Gallagher [2019] UKSC 3 em [17])

Na ausência desses critérios, qualquer medida não será “conforme a lei” e, portanto, violará o artigo 8 (2) da CEDH.

O recurso foi admitido com base em três fundamentos: em primeiro lugar, não existia um quadro jurídico suficiente para tornar a violação do artigo 8.º “nos termos da lei”; em segundo lugar, como consequência das deficiências do quadro jurídico, a DPIA “falhou na avaliação adequada dos riscos para os direitos e liberdades dos titulares dos dados”; em terceiro lugar, o SWP não deu a devida atenção ao risco de discriminação indireta. Isso ocorreu porque o SWP não levou em consideração a possibilidade de a tecnologia AFR produzir uma quantidade desproporcional de falsos positivos quando usada em mulheres e minorias étnicas.

O uso da tecnologia AFR foi considerado não “de acordo com a lei” devido ao quadro jurídico insuficiente para estabelecer quem estaria na “lista de observação” e onde a tecnologia seria implantada. A Avaliação de Impacto de Privacidade do SWP descreveu as seguintes restrições quanto a quem poderia estar na “lista de observação”:

Esses indivíduos podem ser pessoas procuradas sob suspeita de um crime, procuradas sob mandado, pessoas vulneráveis ​​e outras pessoas que exigem informações.

O tribunal concluiu que a inclusão de “outras pessoas para as quais a inteligência é necessária” deixou “uma margem de manobra muito ampla atribuída ao policial individual para decidir quem deveria ficar na lista de observação” para que a decisão fosse acessível e previsível.

Além disso, o tribunal concluiu que a documentação do SWP não delineou nenhum “requisito normativo sobre onde a implantação [of AFR] pode ocorrer adequadamente ”. Portanto, teria sido impossível para qualquer indivíduo descobrir se eles deveriam ser incluídos na lista de observação e prever onde a tecnologia teria sido implantada.

Como consequência do fracasso em estabelecer a estrutura legal correta, o DPIA do SWP também foi considerado deficiente. O DPIA “prossiga[ed] com base no fato de que o Artigo 8 … não é infringido ”, não abordou adequadamente a necessidade de estar“ em conformidade com a lei ”. O tribunal concluiu que “a consequência inevitável dessas deficiências é que… o DPIA falhou ao avaliar adequadamente os riscos para os direitos e liberdades das pessoas em causa”.

O SWP também foi considerado deficiente em seus Deveres de Igualdade no Setor Público por não reconhecer o risco de um impacto desproporcional da tecnologia AFR sobre as mulheres e as minorias. Evidências de softwares de reconhecimento facial iniciais sugerem que pode haver um risco maior de falsos positivos para mulheres e minorias étnicas. Isso se deveu principalmente à composição étnica e de gênero dos “dados de treinamento”: se os dados de treinamento consistissem principalmente de homens brancos, o software seria melhor para identificar homens brancos, reduzindo a chance de falsos positivos (inversamente, menos minorias étnicas e mulheres aumentariam as chances de falsos positivos).

O tribunal deixou claro que a acusação de parcialidade não estava sendo feita contra o software usado pelo SWP, visto que não havia evidências de parcialidade real e nenhuma informação sobre os dados de treinamento. No entanto, a mera possibilidade de discriminação indireta de falsos positivos superiores criou um dever de prestar a devida atenção a essa possibilidade. O fato de o SWP ter falhado em fazê-lo tornou-os deficientes em seus Deveres de Igualdade no Setor Público.

É significativo que o recurso baseado na proporcionalidade tenha falhado. O tribunal manteve a decisão inicial do Tribunal Divisional de que o uso do software “atingiu um equilíbrio justo entre os direitos do indivíduo e os interesses da comunidade”. O impacto da tecnologia foi “insignificante … nos direitos do Artigo 8 do Recorrente”, e o fato de ter sido usada indiscriminadamente e, portanto, em muito mais pessoas, não torna o impacto nos direitos do Artigo 8 mais significativo: como o tribunal considerou, “isso não é uma questão de simples multiplicação ”. Como a tecnologia AFR foi duas vezes considerada proporcional ao objetivo de identificar e prevenir o crime nos termos dos direitos do Artigo 8, isso pode ajudar a justificar seu uso em outras circunstâncias.

O SWP disse que permanece “completamente comprometido com [AFR technology’s] desenvolvimento e implantação de cuidados ”. O comitê de Ciência e Tecnologia da Câmara dos Comuns no ano passado pediu que todo o uso da tecnologia AFR fosse suspenso até que a regulamentação que rege seu uso estivesse em vigor.



Fonte:
ukhumanrightsblog.com

Deixe uma resposta