Reconhecimento Facial nos espaços públicos em Curitiba: em direção ao banimento

Espaços Públicos e Reconhecimento Facial em Curitiba

O mandato da vereadora Carol Dartora e a rede Lavits realizaram no dia 25 de agosto o evento “Espaços Públicos e Reconhecimento Facial em Curitiba”, a partir das 19h, na Sala de Videoconferência, no 3º andar do Prédio Histórico da UFPR, nas dependências do Programa de Pós-graduação em Direito da UFPR.

No evento foram apresentadas as características da tecnologia de reconhecimento facial e serão debatidos os riscos do emprego desta tecnologia na segurança pública e no monitoramento de espaços públicos na cidade de Curitiba, especialmente no âmbito do sistema Muralha Digital, que integra a Política Municipal de Videomonitoramento de Curitiba. Realizei uma apresentação sobre os problemas técnicos e sociopolíticos da tecnologia, em mesa com a vereadora Carol Dartora, os professores Rodrigo Firmino (PPGTU/PUCPR) e Katie Arguello (PPGD/UFPR) e os mestrandos Julia Abad (PPGTU/PUCPR) e Henrique Kramer (PPGTU/PUCPR).

#SaiDaMinhaCara – Também foi apresentada a Proposição 005.00138.2022, projeto de lei de iniciativa da vereadora Carol Dartora, que dispõe sobre a restrição do uso, pelo Poder Público, da tecnologia de reconhecimento facial em espaços públicos. A proposição faz parte da campanha #SaiDaMinhaCara, iniciativa nacional que reúne mais de 50 parlamentares de vários partidos e de todas as regiões do Brasil que apresentaram projetos pelo banimento do reconhecimento facial em espaços públicos.

Até agora, 12 estados e o Distrito Federal tiveram PLs apresentados no Brasil, seja no nível estadual ou municipal. São eles: Bahia, Ceará, Espírito Santo, Distrito Federal, Minas Gerais, Pará, Pernambuco, Paraná, Rio de Janeiro, Rio Grande do Sul, Santa Catarina, Sergipe e São Paulo. A iniciativa demonstra um consenso multipartidário sobre o caráter invasivo e discriminatório dessa tecnologia, principalmente quando aplicada sob uma pretensa narrativa de segurança pública.

Racismo Algorítmico, Reconhecimento Facial e Segurança Pública: O Cenário Brasileiro #CongressoUFBA75anos

Neste dezembro tive a oportunidade de participar de painel em minha alma matter no Congresso UFBA 75 anos, conversando com e ouvindo as iluminadas exposições dos pesquisadores Cleifson Dias, Claudiana Lelis e Luiz Ribeiro. A mesa foi registrada no canal da TV UFBA:

Incêndios, pontes baixas e racismo algorítmico

Você sabia que um modelo computacional desenvolvido pela famosa think tank RAND foi um dos grandes responsáveis por gigantescos incêndios que assolaram Nova Iorque nos anos 70?

Trabalho jornalístico publicado por Joe Flood no livro “The Fires: How a Computer Formula, Big Ideas, and the Best of Intentions Burned Down New York City and Determined the Future of Cities[1] mostrou como o uso de modelos computacionais para tomada de decisões sobre combate ao incêndio ajudou a especulação imobiliária queimando bairros inteiros.

O sistema foi alimentado por dados enviesados para definir a atribuição de recursos de prevenção e combate a incêndios. Dados históricos como velocidade média de resposta aos incêndios e número de ações de prevenção e combate foram modelados para definir quais áreas da cidade seriam priorizadas. Isto gerou o que hoje conhecemos bem em casos de racismo algorítmico: o uso de dados históricos como representativo do que seria a realidade ou o que seria “justo” na verdade se torna um aceleracionismo das opressões. Bairros que eram menos atendidos por bombeiros e pelo poder público geravam menos dados, o que os invisibilizou na construção do modelo preditivo – os deixando com ainda menos recursos de prevenção e consequentemente mais vulneráveis aos incêndios. Adicionalmente, decisões intencionais e explícitas para privilegiar bairros ricos ou onde moravam pessoas influentes eram inclusas no modelo – e ocultas ao público como se fossem decisões técnicas.

Tal modelagem permitiria supostamente a otimização de custos de forma inteligente, uma ladainha frequente levada a cabo por empresas que propõem ideais de “cidades inteligentes”. Os incêndios expulsaram centenas de milhares – populações negras, latinas e imigrantes, sobretudo – de bairros visados em ideais de transformação da cidade levados à frente por urbanistas do governo e empresas de vários mercados.

Sindicatos, inclusive de bombeiros, e ativistas denunciaram que o governo estava prejudicando sistematicamente bairros negros e porto-riquenhos, mas os modelos e métricas da think tank poderiam “prover resmas de jargões técnicos e equações complicadas que davam um ar de imparcialidade ao processo[1]. Dos anos 1970 até hoje, a tática apenas se complexificou. O poder político e do capital consegue se aproveitar do caráter quase mítico das “novas tecnologias” para levar à frente decisões discriminatórias disfarçadas em tecnicalidades. Um explícito paralelo pode ser realizado com as problemáticas iniciativas de policiamento preditivo, que apenas promovem a criminalização da pobreza e de bairros vulneráveis.

Incêndios intencionais e criminosos ou a leniência em combatê-los fazem parte da história da segregação espacial tanto nos territórios rurais quanto nas grandes cidades. A destruição de favelas por fogo virou rotina durante ondas de especulação imobiliária em São Paulo, incluindo casos célebres como a Favela do Moinho. Pesquisadores cruzaram os dados de incêndios e descobriram correlações com áreas em valorização imobiliária e motivação higienista de moradores de classe média dos entornos[2].

Em quaisquer decisões quanto a tecnologias públicas como arquitetura e ordenamento espacial, a distribuição de poder, autoridade e privilégio de uma comunidade ou entre comunidades estão em jogo e as decisões que as impactam podem ser diferentes a depender do compromisso e capacidade de ação de quem faz políticas públicas de investimento ou regulação.

Pontes

Um caso anedótico mais famoso e controverso sobre decisões quanto às cidades é o relatado pelo jornalista Robert Caro, em livro ganhador do prêmio Pulitzer. Na obra The Power Broker: Robert Moses and the fall of New York, Caro conta a história de um racista orgulhoso de seu ódio – Robert Moses. Tal ódio e afiliação à supremacia branca foi impulsionado por nada menos que 27 bilhões de dólares – o valor que ele gerenciou entre as décadas de 1920 e 1950 em cargos de tomada de decisão sobre o planejamento urbano de Nova Iorque.

Sua decisão mais famosa e controversa foi a ordenação de pontes baixas o suficiente para supostamente impedir que ônibus acessassem os parques públicos da região[3], especificamente para dificultar o acesso da população pobre e negra. Há disputas sobre a eficácia das pontes para tal objetivo[4], mas a simplicidade do exemplo nos lembra sobre como as decisões urbanas em todas as cidades tem potencial de criar barreiras adicionais para populações que não usam carros – e tal gera um efeito cumulativo de hierarquizar direito à cidade.

Uma ponte extremamente baixa pode impedir um ônibus de atravessá-la, assim como os grupos da população dependentes dos ônibus. Ou um centro administrativo municipal localizado nas bordas da cidade não cobertas por transporte público, longe da população pobre, pode desmotivar a cobrança de representantes do executivo e legislativo. As realidades materiais expressas em pontes, viadutos, ruas e malhas de transporte podem ser planejadas e ter impactos perenes na qualidade de vida da população de uma cidade.

O caso das pontes de Moses é citado pelo cientista político Langdon Winner em clássico artigo sobre propriedades políticas de artefatos, tecnologias ou objetos[5]. As decisões intencionais sobre as pontes seriam exemplo de um primeiro modo de artefatos possuírem propriedades políticas – de forma deliberada quando a invenção, design ou arranjo de um sistema/tecnologia foi realizado justamente em resposta a uma questão específica ‘política’. No caso, o projeto segregador de Moses, apoiado pela supremacia branca detentora de capital e força política.

Por mais chocante que pareça, a prática de segregação racialmente planejada foi e é comum em incontáveis cidades no mundo Ocidental. Apesar da controvérsia em específico sobre as pontes, porém, foi especialmente notável como o período regido por Robert Moses moldou padrões de planejamento urbano. Sobre tal influência, Caro aponta que:

Ao se certificar que os amplos subúrbios, áreas rurais e áreas esvaziadas fossem preenchidas por um padrão de desenvolvimento espalhado de baixa densidade dependente sobretudo de rodovias ao invés de transporte em massa, garantiu que aquele fluxo continuaria por gerações, quiçá séculos, e que a área metropolitana de New York seria – talvez para sempre – uma região onde o transporte – ir de um lugar ao outro – permaneceria uma preocupação irritante e exaustiva para 14 milhões de habitantes[3]

A distribuição racializada nas cidades brasileiras pode ser explicada tanto pelo acúmulo convergente de milhares de decisões e influências “indiretas” da desigualdade e racismo quanto pela implementação de tais ideologias de forma explícita em cidades ou bairros planejados. Paulo Henrique da Silva Santarém escreveu sobre as escalas de segregação que foram produzidas em Brasília para compô-la como um centro planejado rodeado de espaços marginais, sendo o transporte coletivo orientado ao controle e dominação urbana, definindo quem pode ir, onde, quando e como[6].

Comparando a capital de nosso país à experiência de Soweto, na África do Sul, Guilherme Lemos vez observa a distribuição do direito à cidade e “quem pode ou não ocupar espaços centrais ou a quem são destinados os espaços periféricos, em outras palavras, quem deve fazer viver e quem pode deixar morrer através do racismo institucional”[7].

Falando de arquitetura, as pontes de Moses foram desenhadas por ordens documentadas e explicitamente racistas, mas boa parte da arquitetura ocidental traz barreiras gigantescas vistas como “não-intencionais” a pedestres ou cadeirantes, por exemplo. As relações entre os grupos da sociedade através do balanço entre autoridade científica, representação política, invenções tecnológicas e, enfim, direcionamento a lucro ou bem-estar social influenciam diferencialmente o impacto das tecnologias, objetos e estruturas nas cidades. Independente da intenção de atores individuais,  seus impactos em grupos específicos são efetivos.

Racismo algorítmico e reconhecimento facial nas cidades

Outro modo, para Langdon Winner, de artefatos conterem propriedades políticas seria quando estas propriedades são inerentes. Essa percepção é mais controversa, mas de acordo com este olhar “a adoção de um determinado sistema técnico traz inevitavelmente consigo condições para relações humanas que possuem uma carga política distintiva – por exemplo, centralizadora ou descentralizadora, promotora ou desencorajadora da igualdade, repressora ou libertadora[5]. A partir de Engels, Winner discorreu sobre a produção fabril e a necessidade de coordenação em tabelas fixas de horário para a produção disciplinada. Em grandes fábricas na virada do século XIX ao XX, os trabalhadores seriam subordinados à lógica maquínica da produção, que seria despótica em si mesma?

Quando falamos de reconhecimento facial no espaço público, temos talvez outro ótimo exemplo da complexidade dos agenciamentos tecnopolíticos. Em torno do mundo, a tecnologia tem sido aplicada em contextos de violência estatal como Brasil (nos diferentes estados da Bahia, Rio de Janeiro, São Paulo e Amazonas por exemplo), Estados Unidos, Inglaterra, Canadá ou Afeganistão com diferentes níveis de permissividade mediados pela relação entre racismo, classismo e vigilantismo. No potente trabalho Direito à (Priva)Cidade: Design Discriminatório, Racismo Algorítmico e Vigilância Criminal no Distrito Federal[8], Elizandra Salomão realizou análise sobre a implementação do reconhecimento facial na capital do país.

Concentradas em terminais rodoviários, estações de metrô, centros comerciais e espaços de grande circulação de pessoas, o Reconhecimento Facial tem aplicação permitida legalmente para persecução de suspeitos desde 10 de novembro de 2020, quando da promulgação da Lei Distrital nº 6.712. Mas o uso da RF já havia sido implementado no sistema de Passe Livre, testado primeiramente no 0.110, em 2018[9], ônibus que faz o trajeto Rodoviária Central – Universidade de Brasília, permitindo aos estudantes periféricos a baldeação entre a Estação Central do Metrô/linhas de ônibus que ligam as satélites ao centro, ao transporte frequentemente superlotado que circula na UnB. Irônica a implementação de tal política 1 ano após quase 30% dos estudantes daquela Universidade se tornarem ingressos por cotas para escolas públicas

Se tanto a visão de urbanismo de Robert Moses como a “limpeza com fogo” impulsionada por modelos computacionais em Nova Iorque inspiraram técnicas de segregação, que futuros trazem o reconhecimento facial se for normalizado? A violência contra populações negras enquanto laboratório para projetos autoritários totalizadores se desdobra com potencial de velocidade, opacidade e escala no reconhecimento facial. O racismo algorítmico permite que a sociedade seja leniente com dados enviesados, modelos equivocados, infração de pilares de administração pública e objetivos de implementação que infringem direitos humanos. Elizandra Salomão fez uma ponte similar à esta ideia ao explicar como

avanços no sentido da vigilância estatal contra a população do Distrito Federal já fazem parte da rotina nas cidades satélites há muito tempo. Em Branco Sai, Preto Fica, um DF futurista é retratado como que numa profecia, na existência de um documento oficial como forma de limitar o acesso ao Plano Piloto: uma autorização legal para adentrar a cidade. A ficção ceilandense projetava essa ideia em 20 anos no futuro, mas ela já se pratica na forma das câmeras de vigilância estrategicamente vinculadas a softwares de Reconhecimento Facial Automático.

Em sociedades neoliberais que privilegiam o lucro sobre o bem-estar social, a capacidade de ação dos eventuais bons gestores públicos ou experts competentes é limitada por interesses corporativos e de outros grupos. Em torno do mundo, lobby corporativo e think tanks tentam normalizar e diluir os horrores da exploração através de re-enquadramentos discursivos como ‘govtech’, plataformização e diversos tecnosolucionismos. Na persuasão política, o vigilantismo e punitivismo rende ganhos políticos para postulantes seja ao legislativo seja ao executivo. Mas ainda há tempo para superarmos o tecnosolucionismo e apagarmos os incêndios – metafóricos e literais – que corroem as democracias.


Referências

[1] Joe Flood, The Fires: How a Computer Formula, Big Ideas, and the Best of Intentions Burned Down New York City and Determined the Future of Cities, Nova Iorque (EUA): Riverhead Books, 2010, pos. 3128.

[2] Rodrigo Dantas Bastos, Na rota do fogo: especulação imobiliária em São Paulo, Tese de Doutorado apresentada ao Instituto de Filosofia e Ciências Humanas da Universidade Estadual de Campinas, Campinas, 2018.

[3] Robert A. Caro, The power broker: Robert Moses and the fall of New York, Nova Iorque: Vintage Books, 1974.

[4] Steve Woolgar; Geoff Cooper, “Do Artefacts Have Ambivalence: Moses’ Bridges, Winner’s Bridges and other Urban Legends in S&TS”, Social studies of science, v. 29, n. 3, 1999, pp. 433-449.

[5] Langdon Winner, “Do artifacts have politics?”. Daedalus, p. 121-136, 1980

[6] Paulo Henrique da Silva Santarém, A Cidade Brasília (dfe): conflitos sociais e espaciais significados na raça, dissertação realizada na Pós-Graduação em Antropologia Social da Universidade de Brasília, Brasília – DF, 2013.

[7] Guilherme O. Lemos, “De Soweto à Ceilândia: siglas de segregação racial”, Paranoá: Cadernos de Arquitetura e Urbanismo, n. 18, 2017, p.12.

[8] Elizandra Salomão. Direito à (Priva)Cidade: Design Discriminatório, Racismo Algorítmico e Vigilância Criminal no Distrito Federal. Trabalho de Conclusão de Curso de Graduação. Faculdade de Direito – Universidade de Brasília, 2021.

[9] Elizandra Salomão. Direito à (Priva)Cidade: da câmera na catraca às prisões com uso do Reconhecimento Facial – Vigilância e Proteção de Dados Pessoais no Distrito Federal. XI Congresso Brasileiro de Pesquisadores/as Negros/as, Curitiba, 2020.

Como citar este texto?
SILVA, Tarcízio. Incêndios, pontes baixas e racismo algorítmico. Blog do Tarcizio Silva, 23 nov. 2021. Disponível em:<https://tarciziosilva.com.br/blog>. Acesso em: dia, mês, ano.

Audiência Pública sobre Reconhecimento Facial e Racismo Algorítmico na Bahia

[O texto abaixo é uma reprodução da matéria publicada no A Tarde pela jornalista Mariana Gomes, referente à audiência pública realizada na Assembleia Legislativa da Bahia, incorporada no texto.]

Nesta terça-feira, 9, a Assembleia Legislativa do Estado da Bahia (ALBA) realizou uma audiência pública sobre a manifestação do racismo nos dispositivos de reconhecimento facial. O debate sobre racismo algorítmico foi proposto pela Comissão de Direitos Humanos e Segurança Pública, presidida atualmente pelo deputado Jacó Lula da Silva (PT), após pedido da Secretaria de Ciência, Tecnologia e Inovação do Estado da Bahia (SECTI).  

De acordo com Tarcízio Silva, pesquisador do tema na Universidade Federal do ABC Paulista (UFABC), o racismo é impulsionado por mecanismos tecnológicos em países moldados pela escravização e pela violência policial. “O racismo algorítmico é visto em mídias sociais sempre com o objetivo de enxugar pessoal, aumentar o lucro nas empresas e automatização do trabalho, mas a manifestação mais violenta hoje é o reconhecimento facial para a segurança pública e no espaço público em geral”, explica Silva.

O coordenador do Centro de Referência Étnico-racial da Secretaria de Segurança Pública (SSP-BA), Major Thiago Garcez, em representação da Major Denice Santiago e do secretário de Segurança Pública Ricardo Mandarino, indica o investimento em formação técnica para as forças de segurança diante da aplicação da inteligência artificial. “A SSP tem papel fundamental na atividade. Nesse sentido deixo a sugestão para o secretário de um alinhamento para capacitação dos policiais militares, civis e bombeiros e todos os servidores”.

Segundo a SSP, no início deste mês, a Bahia registrou 221 presos por roubo após o uso do reconhecimento facial desde o início das operações. Em Salvador, as câmeras de reconhecimento facial fazem parte dos investimentos no Turismo, a partir de verbas do Programa de Desenvolvimento do Turismo no Nordeste (Prodetur).

Para a defensora pública Juliane Andrade, o uso de câmeras com leitura facial esbarra ainda na seletividade do sistema de Justiça. “As investigações e as perícias são mais céleres para pessoas brancas, mas no dia a dia da Defensoria, quando vemos as mortes nos bairros mais humildes, a qualidade do processo penal acontece de forma diferente para pessoas negras”, exemplifica.

“O algoritmo de reconhecimento facial é mais complexo do que uma receita de bolo, pois ele depende de entradas de dados como imagens e vídeos e precisa das nossas informações para gerar resultados”, explica a cientista da computação Ana Carolina da Hora. A pesquisadora lembra ainda que hoje no Brasil não há nenhuma legislação voltada para a regulação do reconhecimento facial.

A partir dos relatos de violência promovida por essa ferramenta, Marcos Casaes, graduando em Engenharia Civil da Universidade Católica de Salvador propõe o banimento desta tecnologia na segurança pública. “As identificações nas delegacias por alvos e álbuns de fotos se assemelham com o reconhecimento facial no viés violento para a população negra. Precisamos saber quem são os fornecedores, quais os critérios utilizados, pois ainda é uma caixa preta”, relata Casaes.

“Máquinas são desenvolvidas por e para pessoas, mas há um grande abismo entre as pessoas que desenvolvem e as pessoas que são impactadas, marcada pela seletividade racial”, explica Jade Christinne, da Iniciativa Negra.

O horror do reconhecimento facial na Bahia, onde poderia ser diferente

O uso de reconhecimento facial para promoção de violência estatal na Bahia constrange a defesa de ideais progressistas na centro-esquerda hegemônica hoje. A adição de mais aparatos policiais e violência estatal não é a solução para problemas sociais, algo que é especialmente agravado quando tratamos de tecnologias baseadas em mecanismos de automatização de decisões com inteligência artificial. Infelizmente o atual governo da Bahia buscou ser a vanguarda do atraso na temática, competindo com Doria e demais governantes bolsonaristas sobre quem promove mais rapidamente projetos de erosão da confiança da população no espaço público. Mas entre ideais e roupagens progressistas e a realidade há um enorme hiato e não é de hoje: o governo Lula foi um dos principais promotores do encarceramento em massa no país.

No atual momento – que seria muito propício para lideranças de centro-esquerda do maior partido do Brasil promoverem novas práticas e imaginários nas políticas públicas, vemos a postura inversa: de elogio a chacinas realizadas por policiais ao investimento ineficiente em tecnologias que promovem o genocídio negro hoje além do potencial de hipervigilância para toda a população no futuro.

Globalmente, moratórias e banimentos do uso de reconhecimento facial no espaço público, em especial pela polícia, estão sendo conquistados por organizações, ativistas e parlamentares. A campanha em torno da “Carta aberta para banimento global de usos de reconhecimento facial e outros reconhecimentos biométricos remotos que permitam vigilância em massa, discriminatória e enviesada” é mais uma demonstração do consenso no campo de direitos humanos contra a tecnologia:

São mais de 175 organizações signatárias de países como Estados Unidos, Reino Unido, Alemanha, Quênia, Brasil, Argentina que fortalecem as evoluções legislativas em torno do mundo que banem o reconhecimento facial do espaço público.

A jornalista Cíntia Falcão produziu recentemente importante reportagem com o título “Lentes Racistas: Rui Costa está transformando a Bahia em um laboratório de vigilância com reconhecimento facial“, que merece leitura atenta e dedicada:

Entre as descobertas, várias infrações aos direitos humanos, privacidade de dados e a desastrosa gestão da coisa pública – os dados sobre investimento e resultados são escandalosos ou ocultos. A importante reportagem explora dados e citações de alguns especialistas no tema no país, como a prolífica produção d’O Panóptico, Rosane Leal da Siva & Fernanda dos Santos Rodrigues da Silva e Pedro Diogo, que afirma que se trata de “polícia que usa esse sistema que realiza chacinas, assassinatos e desaparecimentos, seja oficialmente ou por meio de milícias e grupos de extermínio. E aí vem o sistema de reconhecimento facial a ser instalado e a expandir a capacidade do estado de promover o terror em face da população negra desse país”.


Histórico de horrores: implementar reconhecimento facial é optar pelo genocídio negro

Há diversos tipos de sistemas de reconhecimento facial que podem gerar variadas vulnerabilidades à privacidade, segurança ou direito ao espaço público. Hoje o mais comum é o tipo chamado “um a um” (one-to-one), tecnologias que tentam identificar se a imagem de um determinado rosto corresponde a um rosto específico na base de dados. Por exemplo, para controlar a entrada em um prédio governamental com alta segurança, algumas instituições usam este tipo de recurso. Para tanto, os funcionários que têm autorização de adentrar determinado espaço tem seus rostos fotografados e a cada nova entrada, o rosto da pessoa específica fisicamente no local é comparado aos dados vinculados a seu nome correspondente na base de dados.

Quando falamos de reconhecimento facial na vigilância do espaço público, estamos falando tipo “um a muitos” (one to many) onde os rostos de todas as pessoas que passam por um determinado local são registrados e cruzados com uma base de dados. Nos sistemas mais simples, é uma base de dados de supostos criminosos sendo procurados. Nos mais complexos, podem registrar movimentação de todos os cidadãos no espaço público e até indicadores – cientificamente questionáveis e eticamente deploráveis – que envolvam atribuição de estados emocionais a partir de expressões faciais, modos de andar ou até mesmo quais objetos estão sendo segurados, símbolos e estampas em rostos, tipos de vestuário etc.

Reconhecimento facial e visão computacional para identificação de objetos em imagens e vídeos são tecnologias altamente imprecisas, com amplo histórico de erros com impactos violentos que desrespeitam os direitos humanos. Sobre reconhecimento facial, alguns exemplos pontuais ou de pesquisas estruturadas: softwares da IBM, Microsoft, Amazon e outros erram mais em imagens de mulheres negras; órgão estadunidense identificou que sistemas de biometria visual erram de 10 a 100 vezes mais com imagens de pessoas negras ou asiáticas; Google marca ferramentas em mão negra como arma; Instagram bloqueia anúncio mostrando favela por “conter armas” que não existem na imagem.

Mantenho um mapeamento de casos similares, mas reforço que não se trata apenas do nível de precisão da identificação de um indivíduo no espaço físico em relação a um indivíduo na base de dados. Trata-se sobretudo de modelos de segurança pública, violência estatal, noções de privacidade e de uso da cidade que comprometem o presente e o futuro das sociedades. E tais modelos são sobretudo racistas, de promoção da seletividade penal contra negros, indígenas, imigrantes e/ou pobres.


Mais vigilância e mais tecnologias não são soluções para problemas públicos

Diversos dispositivos, objetos ou tecnologias vistas como inovação foram criadas para controle de cidadãos, sua movimentação no espaço ou mobilidade social. Tecnologias de vigilância desenvolvidas para fins militares e/ou policiais em países do Ocidente e no Brasil fortalecem as desigualdades, castas e apartheids, em particular o genocídio negro no país. O desenho político e econômico de sociedades como a brasileira promove a aceitação de erros e violências em vários momentos de decisão sobre o uso da tecnologia.

Em primeiro lugar, a decisão por mais policiamento, vigilância e violência como reação à problemas de segurança pública tem terreno fértil em países construídos através da escravidão, como Estados Unidos e Brasil, por causa da supremacia branca vigente. O acúmulo de violência e desigualdades sociais atualizado constantemente através do racismo estrutural avança no posicionamento de pessoas negras como menos dignas à vida e direitos.

As instituições policiais no país foram organizadas desde seu início para perseguir pessoas negras tanto escravizadas e alforriadas, em prol da expropriação de trabalho, capital, terras e produção para a acumulação de propriedade em um projeto eugenista.

Em segundo lugar, a própria definição de tipos penais que recebem reação ostensiva da polícia promove foco em infrações sem vítima e comumente frutos de desigualdade e pobreza. Furtos ou roubos famélicos são um exemplo, assim como a criminalização de drogas, em especial a maconha. Com uma das maiores populações penitenciárias do mundo, no Brasil centenas de milhares de pessoas são encarceradas por longos períodos por crimes banais e sem julgamento ou sentença. E a população de encarcerados e encarceradas tem se tornado alvo de experiências de coleta de dados biométricos e genéticos.

Em terceiro lugar, este panorama de coisas facilita a prática de injustiças no sistema penal e a definição de tecnologias de apoio ao aparato policial. Sistemas algorítmicos e tecnologias com qualquer tipo de automatização de processos são muito imprecisas, mas são implementadas a toque de caixa e aceitas socialmente pois as vítimas da violência estatal são sobretudo pessoas negras. Os mecanismos de controle social das tecnologias policiais enfrentam problemas devido ao racismo pervasivo no funil da criminalização, prisão, julgamento, encarceramento e marginalização posterior.

Por fim, mesmo em países onde a letalidade policial é centenas de vezes menor do que a do Brasil, a inclusão de tecnologias apenas aparentemente objetivas no processo de vigilância promove excessos dos policiais. Em etnografia realizada na implementação do sistema de reconhecimento em Londres, pesquisadores observaram que policiais desrespeitavam os protocolos construídos para decidir se a abordagem seria realizada ou não. Segundo o estudo, era comum “oficiais de rua não esperarem pelo processo de decisão na sala de controle – um claro exemplo de presunção em favor da intervenção”, reforçando o perigo da relação violenta de tais tecnologias com a cultura policial, independente da precisão ou imprecisão da análise de reconhecimento.

Temos décadas de dados em torno do mundo e em países similares ao Brasil que mostram que violência estatal e vigilância pervasiva não são soluções para problemas de segurança pública. Ao contrário, a promoção do bem-estar social através do combate às desigualdades, remediações de impactos do racismo, descriminalização das drogas e priorização de indicadores de emprego e qualidade de vida na definição de políticas públicas é o caminho para combater a violência.