Incêndios, pontes baixas e racismo algorítmico

Você sabia que um modelo computacional desenvolvido pela famosa think tank RAND foi um dos grandes responsáveis por gigantescos incêndios que assolaram Nova Iorque nos anos 70?

Trabalho jornalístico publicado por Joe Flood no livro “The Fires: How a Computer Formula, Big Ideas, and the Best of Intentions Burned Down New York City and Determined the Future of Cities[1] mostrou como o uso de modelos computacionais para tomada de decisões sobre combate ao incêndio ajudou a especulação imobiliária queimando bairros inteiros.

O sistema foi alimentado por dados enviesados para definir a atribuição de recursos de prevenção e combate a incêndios. Dados históricos como velocidade média de resposta aos incêndios e número de ações de prevenção e combate foram modelados para definir quais áreas da cidade seriam priorizadas. Isto gerou o que hoje conhecemos bem em casos de racismo algorítmico: o uso de dados históricos como representativo do que seria a realidade ou o que seria “justo” na verdade se torna um aceleracionismo das opressões. Bairros que eram menos atendidos por bombeiros e pelo poder público geravam menos dados, o que os invisibilizou na construção do modelo preditivo – os deixando com ainda menos recursos de prevenção e consequentemente mais vulneráveis aos incêndios. Adicionalmente, decisões intencionais e explícitas para privilegiar bairros ricos ou onde moravam pessoas influentes eram inclusas no modelo – e ocultas ao público como se fossem decisões técnicas.

Tal modelagem permitiria supostamente a otimização de custos de forma inteligente, uma ladainha frequente levada a cabo por empresas que propõem ideais de “cidades inteligentes”. Os incêndios expulsaram centenas de milhares – populações negras, latinas e imigrantes, sobretudo – de bairros visados em ideais de transformação da cidade levados à frente por urbanistas do governo e empresas de vários mercados.

Sindicatos, inclusive de bombeiros, e ativistas denunciaram que o governo estava prejudicando sistematicamente bairros negros e porto-riquenhos, mas os modelos e métricas da think tank poderiam “prover resmas de jargões técnicos e equações complicadas que davam um ar de imparcialidade ao processo[1]. Dos anos 1970 até hoje, a tática apenas se complexificou. O poder político e do capital consegue se aproveitar do caráter quase mítico das “novas tecnologias” para levar à frente decisões discriminatórias disfarçadas em tecnicalidades. Um explícito paralelo pode ser realizado com as problemáticas iniciativas de policiamento preditivo, que apenas promovem a criminalização da pobreza e de bairros vulneráveis.

Incêndios intencionais e criminosos ou a leniência em combatê-los fazem parte da história da segregação espacial tanto nos territórios rurais quanto nas grandes cidades. A destruição de favelas por fogo virou rotina durante ondas de especulação imobiliária em São Paulo, incluindo casos célebres como a Favela do Moinho. Pesquisadores cruzaram os dados de incêndios e descobriram correlações com áreas em valorização imobiliária e motivação higienista de moradores de classe média dos entornos[2].

Em quaisquer decisões quanto a tecnologias públicas como arquitetura e ordenamento espacial, a distribuição de poder, autoridade e privilégio de uma comunidade ou entre comunidades estão em jogo e as decisões que as impactam podem ser diferentes a depender do compromisso e capacidade de ação de quem faz políticas públicas de investimento ou regulação.

Pontes

Um caso anedótico mais famoso e controverso sobre decisões quanto às cidades é o relatado pelo jornalista Robert Caro, em livro ganhador do prêmio Pulitzer. Na obra The Power Broker: Robert Moses and the fall of New York, Caro conta a história de um racista orgulhoso de seu ódio – Robert Moses. Tal ódio e afiliação à supremacia branca foi impulsionado por nada menos que 27 bilhões de dólares – o valor que ele gerenciou entre as décadas de 1920 e 1950 em cargos de tomada de decisão sobre o planejamento urbano de Nova Iorque.

Sua decisão mais famosa e controversa foi a ordenação de pontes baixas o suficiente para supostamente impedir que ônibus acessassem os parques públicos da região[3], especificamente para dificultar o acesso da população pobre e negra. Há disputas sobre a eficácia das pontes para tal objetivo[4], mas a simplicidade do exemplo nos lembra sobre como as decisões urbanas em todas as cidades tem potencial de criar barreiras adicionais para populações que não usam carros – e tal gera um efeito cumulativo de hierarquizar direito à cidade.

Uma ponte extremamente baixa pode impedir um ônibus de atravessá-la, assim como os grupos da população dependentes dos ônibus. Ou um centro administrativo municipal localizado nas bordas da cidade não cobertas por transporte público, longe da população pobre, pode desmotivar a cobrança de representantes do executivo e legislativo. As realidades materiais expressas em pontes, viadutos, ruas e malhas de transporte podem ser planejadas e ter impactos perenes na qualidade de vida da população de uma cidade.

O caso das pontes de Moses é citado pelo cientista político Langdon Winner em clássico artigo sobre propriedades políticas de artefatos, tecnologias ou objetos[5]. As decisões intencionais sobre as pontes seriam exemplo de um primeiro modo de artefatos possuírem propriedades políticas – de forma deliberada quando a invenção, design ou arranjo de um sistema/tecnologia foi realizado justamente em resposta a uma questão específica ‘política’. No caso, o projeto segregador de Moses, apoiado pela supremacia branca detentora de capital e força política.

Por mais chocante que pareça, a prática de segregação racialmente planejada foi e é comum em incontáveis cidades no mundo Ocidental. Apesar da controvérsia em específico sobre as pontes, porém, foi especialmente notável como o período regido por Robert Moses moldou padrões de planejamento urbano. Sobre tal influência, Caro aponta que:

Ao se certificar que os amplos subúrbios, áreas rurais e áreas esvaziadas fossem preenchidas por um padrão de desenvolvimento espalhado de baixa densidade dependente sobretudo de rodovias ao invés de transporte em massa, garantiu que aquele fluxo continuaria por gerações, quiçá séculos, e que a área metropolitana de New York seria – talvez para sempre – uma região onde o transporte – ir de um lugar ao outro – permaneceria uma preocupação irritante e exaustiva para 14 milhões de habitantes[3]

A distribuição racializada nas cidades brasileiras pode ser explicada tanto pelo acúmulo convergente de milhares de decisões e influências “indiretas” da desigualdade e racismo quanto pela implementação de tais ideologias de forma explícita em cidades ou bairros planejados. Paulo Henrique da Silva Santarém escreveu sobre as escalas de segregação que foram produzidas em Brasília para compô-la como um centro planejado rodeado de espaços marginais, sendo o transporte coletivo orientado ao controle e dominação urbana, definindo quem pode ir, onde, quando e como[6].

Comparando a capital de nosso país à experiência de Soweto, na África do Sul, Guilherme Lemos vez observa a distribuição do direito à cidade e “quem pode ou não ocupar espaços centrais ou a quem são destinados os espaços periféricos, em outras palavras, quem deve fazer viver e quem pode deixar morrer através do racismo institucional”[7].

Falando de arquitetura, as pontes de Moses foram desenhadas por ordens documentadas e explicitamente racistas, mas boa parte da arquitetura ocidental traz barreiras gigantescas vistas como “não-intencionais” a pedestres ou cadeirantes, por exemplo. As relações entre os grupos da sociedade através do balanço entre autoridade científica, representação política, invenções tecnológicas e, enfim, direcionamento a lucro ou bem-estar social influenciam diferencialmente o impacto das tecnologias, objetos e estruturas nas cidades. Independente da intenção de atores individuais,  seus impactos em grupos específicos são efetivos.

Racismo algorítmico e reconhecimento facial nas cidades

Outro modo, para Langdon Winner, de artefatos conterem propriedades políticas seria quando estas propriedades são inerentes. Essa percepção é mais controversa, mas de acordo com este olhar “a adoção de um determinado sistema técnico traz inevitavelmente consigo condições para relações humanas que possuem uma carga política distintiva – por exemplo, centralizadora ou descentralizadora, promotora ou desencorajadora da igualdade, repressora ou libertadora[5]. A partir de Engels, Winner discorreu sobre a produção fabril e a necessidade de coordenação em tabelas fixas de horário para a produção disciplinada. Em grandes fábricas na virada do século XIX ao XX, os trabalhadores seriam subordinados à lógica maquínica da produção, que seria despótica em si mesma?

Quando falamos de reconhecimento facial no espaço público, temos talvez outro ótimo exemplo da complexidade dos agenciamentos tecnopolíticos. Em torno do mundo, a tecnologia tem sido aplicada em contextos de violência estatal como Brasil (nos diferentes estados da Bahia, Rio de Janeiro, São Paulo e Amazonas por exemplo), Estados Unidos, Inglaterra, Canadá ou Afeganistão com diferentes níveis de permissividade mediados pela relação entre racismo, classismo e vigilantismo. No potente trabalho Direito à (Priva)Cidade: Design Discriminatório, Racismo Algorítmico e Vigilância Criminal no Distrito Federal[8], Elizandra Salomão realizou análise sobre a implementação do reconhecimento facial na capital do país.

Concentradas em terminais rodoviários, estações de metrô, centros comerciais e espaços de grande circulação de pessoas, o Reconhecimento Facial tem aplicação permitida legalmente para persecução de suspeitos desde 10 de novembro de 2020, quando da promulgação da Lei Distrital nº 6.712. Mas o uso da RF já havia sido implementado no sistema de Passe Livre, testado primeiramente no 0.110, em 2018[9], ônibus que faz o trajeto Rodoviária Central – Universidade de Brasília, permitindo aos estudantes periféricos a baldeação entre a Estação Central do Metrô/linhas de ônibus que ligam as satélites ao centro, ao transporte frequentemente superlotado que circula na UnB. Irônica a implementação de tal política 1 ano após quase 30% dos estudantes daquela Universidade se tornarem ingressos por cotas para escolas públicas

Se tanto a visão de urbanismo de Robert Moses como a “limpeza com fogo” impulsionada por modelos computacionais em Nova Iorque inspiraram técnicas de segregação, que futuros trazem o reconhecimento facial se for normalizado? A violência contra populações negras enquanto laboratório para projetos autoritários totalizadores se desdobra com potencial de velocidade, opacidade e escala no reconhecimento facial. O racismo algorítmico permite que a sociedade seja leniente com dados enviesados, modelos equivocados, infração de pilares de administração pública e objetivos de implementação que infringem direitos humanos. Elizandra Salomão fez uma ponte similar à esta ideia ao explicar como

avanços no sentido da vigilância estatal contra a população do Distrito Federal já fazem parte da rotina nas cidades satélites há muito tempo. Em Branco Sai, Preto Fica, um DF futurista é retratado como que numa profecia, na existência de um documento oficial como forma de limitar o acesso ao Plano Piloto: uma autorização legal para adentrar a cidade. A ficção ceilandense projetava essa ideia em 20 anos no futuro, mas ela já se pratica na forma das câmeras de vigilância estrategicamente vinculadas a softwares de Reconhecimento Facial Automático.

Em sociedades neoliberais que privilegiam o lucro sobre o bem-estar social, a capacidade de ação dos eventuais bons gestores públicos ou experts competentes é limitada por interesses corporativos e de outros grupos. Em torno do mundo, lobby corporativo e think tanks tentam normalizar e diluir os horrores da exploração através de re-enquadramentos discursivos como ‘govtech’, plataformização e diversos tecnosolucionismos. Na persuasão política, o vigilantismo e punitivismo rende ganhos políticos para postulantes seja ao legislativo seja ao executivo. Mas ainda há tempo para superarmos o tecnosolucionismo e apagarmos os incêndios – metafóricos e literais – que corroem as democracias.


Referências

[1] Joe Flood, The Fires: How a Computer Formula, Big Ideas, and the Best of Intentions Burned Down New York City and Determined the Future of Cities, Nova Iorque (EUA): Riverhead Books, 2010, pos. 3128.

[2] Rodrigo Dantas Bastos, Na rota do fogo: especulação imobiliária em São Paulo, Tese de Doutorado apresentada ao Instituto de Filosofia e Ciências Humanas da Universidade Estadual de Campinas, Campinas, 2018.

[3] Robert A. Caro, The power broker: Robert Moses and the fall of New York, Nova Iorque: Vintage Books, 1974.

[4] Steve Woolgar; Geoff Cooper, “Do Artefacts Have Ambivalence: Moses’ Bridges, Winner’s Bridges and other Urban Legends in S&TS”, Social studies of science, v. 29, n. 3, 1999, pp. 433-449.

[5] Langdon Winner, “Do artifacts have politics?”. Daedalus, p. 121-136, 1980

[6] Paulo Henrique da Silva Santarém, A Cidade Brasília (dfe): conflitos sociais e espaciais significados na raça, dissertação realizada na Pós-Graduação em Antropologia Social da Universidade de Brasília, Brasília – DF, 2013.

[7] Guilherme O. Lemos, “De Soweto à Ceilândia: siglas de segregação racial”, Paranoá: Cadernos de Arquitetura e Urbanismo, n. 18, 2017, p.12.

[8] Elizandra Salomão. Direito à (Priva)Cidade: Design Discriminatório, Racismo Algorítmico e Vigilância Criminal no Distrito Federal. Trabalho de Conclusão de Curso de Graduação. Faculdade de Direito – Universidade de Brasília, 2021.

[9] Elizandra Salomão. Direito à (Priva)Cidade: da câmera na catraca às prisões com uso do Reconhecimento Facial – Vigilância e Proteção de Dados Pessoais no Distrito Federal. XI Congresso Brasileiro de Pesquisadores/as Negros/as, Curitiba, 2020.

Como citar este texto?
SILVA, Tarcízio. Incêndios, pontes baixas e racismo algorítmico. Blog do Tarcizio Silva, 23 nov. 2021. Disponível em:<https://tarciziosilva.com.br/blog>. Acesso em: dia, mês, ano.

Reconhecimento facial deve ser banido. Veja dez razões:

As tecnologias digitais baseadas em inteligência artificial para ordenação e vigilância de cidadãos no espaço público ganham mais mercado devido à evolução técnica e barateamento na última década. Vigilância e persecução de suspeitos por reconhecimento facial não é algo novo mas tem recebido mais atenção tanto por questões técnicas que aumentam o acesso a tais recursos, inclusive através de lobby das corporações de big tech, quanto pelo avanço de ideologias violentas de extrema-direita.

No Brasil, tecnologias do tipo estão sendo implementadas por governos de diferentes espectros ideológicos, como Bahia, São Paulo e Rio de Janeiro para citar alguns exemplos. A principal tecnologia que busca normalizar o estado completo de vigilância potencial é o reconhecimento facial, proposta e defendida em diversos níveis do executivo e legislativo. Estudo promovido pela Intervozes mostrou que “dentre os 26 prefeitos de capitais empossados em janeiro de 2021, 17 apresentaram propostas que, de algum modo, preveem o uso das tecnologias de informação e comunicação na segurança pública”.

O compromisso público contra a tecnologia requer urgência, uma vez que quanto mais gasto público é aplicado em infraestruturas do tipo, mais seu uso é normalizado e difícil se torna o combate à sua implementação contínua e perene.

1) Reconhecimento facial e visão computacional são técnicas altamente imprecisas, em especial sobre pessoas racializadas
Reconhecimento facial e visão computacional para identificação de objetos em imagens e vídeos são tecnologias altamente imprecisas, com amplo histórico de erros com impactos violentos que desrespeitam os direitos humanos. Os frequentes erros em tecnologias do tipo e similares levaram estudiosos de vários locais no mundo a elaborarem o conceito de “racismo algorítmico” . Sobre reconhecimento facial, alguns exemplos anedotais ou de pesquisas estruturadas: softwares da IBM, Microsoft, Amazon e outros erram mais em imagens de mulheres negras; órgão estadunidense identificou que sistemas de biometria visual erram de 10 a 100 vezes mais com imagens de pessoas negras ou asiáticas; Google marca ferramentas em mão negra como arma; Instagram bloqueia anúncio mostrando favela por “conter armas” que não existem na imagem. Veja os casos na Linha do Tempo do Racismo Algorítmico.

Especificamente sobre casos de erros do reconhecimento facial para segurança pública, campo com pouquíssima transparência, há documentação de violências ocasionadas por erros vulgares por todo o mundo, como Salvador, Rio de Janeiro, Londres, Michigan etc. Em Londres, uma das poucas implementações com auditoria e pesquisa transparentes, o público foi erroneamente identificado em 96% dos casos.

2) A seletividade penal é norma nas polícias e judiciário brasileiros
A seletividade penal é norma nas polícias brasileiras, construídas desde o seu início como ferramentas de controle de populações vulneráveis e manutenção de relações de exploração e subjugação de classe, racialmente e patriarcalmente definidas. Adicionalmente, a polícia “erra” com mais frequência contra pessoas negras e pobres. Portanto, mesmo se sequer tomarmos uma posição explicitamente abolicionista, não podemos apoiar a implementação de mais mecanismos de promoção do encarceramento. Mesmo se tivéssemos tecnologias “precisas” de reconhecimento facial, tais vão contra projetos humanos de sociedade por avançar o encarceramento de pessoas, em grande parcela através de punição por crimes sem vítima.

Os dados sobre pessoas presas por reconhecimento facial no Brasil não são transparentes, mas organizações como o Centro de Estudos de Segurança e Cidadania levantaram que 90,5% das prisões realizadas com a tecnologia foram de pessoas negras.

3) Tecnologias digitais vistas como “neutras” ou “objetivas” favorecem ainda mais excessos de policiais
Alguns estudos emergentes descobriram que a percepção popular – e errônea – de que tecnologias digitais são neutras favorecem excessos de policiais, que agem impulsivamente aos primeiros sinais ou indícios oferecidos pelas tecnologias. A mediação tecnológica também cria mais barreiras entre suspeitos e policiais, promovendo ainda mais a desumanização ao tirar possibilidades de remediação face a face na relação social.

Dois casos sobre reconhecimento que exemplificam o problema: em prisão de homem em Michigan, o suspeito precisou mostrar repetidamente aos policiais o quanto a foto do homem nas imagens da câmera de segurança em nada se parecia nem com ele nem com a sua foto da base de dados. Apesar disso, os policiais custaram a questionar a autoridade do sistema computacional .

Em etnografia realizada na implementação do sistema de reconhecimento em Londres, pesquisadores observaram que policiais desrespeitavam os protocolos construídos para decidir se a abordagem seria realizada ou não. Segundo o estudo, era comum “oficiais de rua não esperarem pelo processo de decisão na sala de controle – um claro exemplo de presunção em favor da intervenção” , reforçando o perigo da relação violenta de tais tecnologias com a cultura policial, independente da precisão ou imprecisão da análise de reconhecimento.

4) O mercado de inteligência artificial esconde o funcionamento de seus sistemas usando a defesa por “segredo de negócio” ou “inexplicabilidade algorítmica”
Técnicas de inteligência artificial cresceram em complexidade a partir de lógicas conexionistas de aprendizado profundo em aprendizado de máquina. Uma das características deste avanço é a escala de cálculo de correlações entre dados e resultados desejados no sistema que não permite auditoria humana detalhada. Apesar de não permitir a plena compreensão humana das “decisões” do sistema , são usadas assim que cumprem objetivos de negócio. Os impactos comumente são percebidos apenas muito depois da implementação, por jornalistas ou grupos de defesa de direitos humanos.

Vinculado a esta lógica, as grandes corporações de tecnologia rechaçam auditorias algorítmicas ao alegarem “segredo de negócio”. Poucas decisões judiciais buscando reparação de dados firmam a posição pela transparência.

5) Tecnologias do tipo no espaço público pressupõem e fortalecem sociedade vigilantista
Mesmo desconsiderando os fatores acima, a disseminação de tecnologias de vigilância ubíquas e pervasivas favorece uma compreensão da sociedade e espaço público como lugar de suspeição contínua e indiscriminada. O impacto da aceitação da vigilância pervasiva para a saúde do tecido social é um fator ainda desconhecido, que pode promover ainda mais a demonização do espaço público e da rua.

6) Não podemos pressupor boa-fé de corporações de tecnologia
A última década demonstrou inúmeros casos de vínculos problemáticos de corporações de tecnologia – responsáveis por sistemas de inteligência artificial, tecnologias biométricas, dispositivos digitais ou armazenamento de dados – a projetos autoritários e imperialistas. Da influência do Facebook no Brexit e eleições americanas, extremismo digital no YouTube e lobby da Google no Conselho Administrativo de Defesa Econômica, a relação de corporações big tech ou startups de tecnologia com projetos autoritários e eugenistas é comum.

Devido à incompreensão do valor dos dados e colonialismo digital, instituições públicas brasileiras recorrem a usar serviços de tais organizações, pondo não só cidadãos como a própria soberania nacional em risco. Entre exemplos recentes, estão: o relatado pela pesquisa Educação Vigiada, sobre a exportação os dados de universidades e secretarias de educação brasileiras; o uso de servidor Oracle pelo TSE nas eleições 2020; e vazamento de dados de 533 milhões de usuários de Facebook em todo o mundo .

7) Vazamentos de dados vitimam empresas de tecnologias de todos os portes
Mesmo se os argumentos anteriores não estivessem presentes, o vazamento de dados por invasão criminosa de servidores ou problemas técnicos é um risco que desencoraja a permissão do acúmulo de dados massivos, em especial se biométricos. Casos cada vez mais frequentes de vazamento de dados são descobertos e instituições brasileiras que devem abordá-los ou puni-los são coniventes com projetos de privatização do estado. Em eventuais e prováveis vazamento de dados sensíveis como biometria e informações genéticas, o dano à sociedade é irreversível e imprevisível.

8) A infraestrutura de vigilância aumenta potencial violento de projetos autoritários
A disseminação de tecnologias de vigilância estabelecida no espaço público mesmo que seja aplicada apenas para fins do que é considerado hoje socialmente adequado em termos de segurança pública e persecução penal, cria potenciais violentos em governos antidemocráticos. A infraestrutura estabelecida em contextos com alguma garantia institucional pode ser facilmente arma de potencial inédito de dano em ditaduras ou guerras civis.

9) A imprecisão da tecnologia e infrações de direitos humanos são mais intensas para pessoas trans
A ideologia de produção de sistemas de inteligência artificial, em especial o reconhecimento facial, se calca em ideologias patriarcais, eurocêntricas e normativas sobre corpo, sexualidades e gênero. Pesquisadoras da Coding Rights apontam que tecnologias do tipo “reiteram e reforçam estereótipos de gênero ao classificar os rostos a partir de critérios definidos na própria criação das bases de dados que, em geral, são enviesadas tanto nas políticas de gênero, quanto nas políticas raciais” .

10) O custo-benefício para captura de condenados não justifica a coleta massiva
Na milionária implementação de reconhecimento facial em Londres, as bases reuniam fotos de mais de 2.400 suspeitos que geraram apenas 8 prisões. Dados proporcionais ainda piores são reportados no Brasil, onde gigantesca infraestrutura de reconhecimento facial foi implementada na Micareta de Feira de Santana, Bahia, coletando e vulnerabilizando 1,3 milhões de rostos para o cumprimento de apenas 18 mandados.

Imagem do card: https://www.flickr.com/photos/electronicfrontierfoundation/39225139155

Entre a (des)inteligência artificial e a epistemologia da ignorância

O texto “Entre a (des)inteligência artificial e a epistemologia da ignorância” foi publicado em dossiê da Revista seLecT com o tema O Algoritmo. Editado por Giselle Beiguelman, inclui reportagens, artigos traduzidos e entrevistas sobre obras de referências no campo como Kate Crawford, Trevor Paglen, Adam Harvey, Maryam Gharavi, Sonya Rapoport e outros.

Acesse o texto pelo Issuu acima ou na página do site da Revista seLecT.

Códigos, Programação e Antirracismo

Tive o prazer de mediar o debate Códigos, Programação e Antirracismo , com Carla Vieira e Andreza Rocha, no Ciclo de Debates “Racismo e antirracismo na atualidade” promovido pelo Núcleo de Estudos Africanos e Afrobrasileiros da UFABC. Discutimos os impactos racistas da algoritmização da vida e reações possíveis, desde o fortalecimento de pilares éticos nas comunidades de desenvolvedores a técnicas computacionais de explicabilidade de sistemas

Carla Vieira é Bacharel em Sistemas de Informação pela USP, mestranda em Inteligência Artificial pela USP, engenheira de software e Google Developer Expert em Machine Learning. Co-fundadora da perifaCode, buscando levar a tecnologia para dentro das periferias. Realiza divulgação científica através de seu canal no youtube (E AI, Carla?) com a missão de democratizar o acesso a tecnologia e Inteligência Artificial.

Andreza Rocha é ativista pela Diversidade & Inclusão racial em tecnologia, propõe conversas significativas sobre como a equidade de gênero e raça, além de práticas antirracistas, trazem inovação ao ambiente corporativo. Diretora de Operações e Diversidade na BrazilJS, plataforma de produção e curadoria de conteúdo voltada para comunidade de tecnologia. Com experiência de 15 anos na área de gestão de pessoas, fundou o Afroya Tech Hub : iniciativa global de projetos e diversidade para inserção, desenvolvimento e ascensão de talentos negros no ecossistema de TIC & Inovação.

Não deixe de acompanhar e assinar o canal do NEAB-UFABC, que já registra debates sobre “Black Lives Matter e a Questão Racial nos EUA“; “Internet na luta antirracista“; “Mulheres Negras, Racismo e Antirracismo” e outros.

Racismo algorítmico e proteção de dados

Nos últimos dias 26 e 27, foi realizado o Seminário Proteção de Dados e os Impactos Sociais na Escola Legislativa da ALERJ. Em duas mesas foram debatidos temáticas sobre proteção de dados, racismo algorítmico, reconhecimento facial e internet com a participação de pesquisadores do Direito, Comunicação, Segurança Pública e Engenharia.

Tive a honra de participar do primeiro dia de debate junto a Estela Aranha, jurista e presidente da Comissão de Proteção de Dados e Privacidade da OAB-RJ ; e Pablo Nunes, cientista político e coordenador do Centro de Estudos de Segurança e Cidadania (CESeC/UCAM). A mediação foi realizada por Ana Carolina Lima, idealizadora do AqualtuneLab:

No segundo dia, o debate “Tecnologia e Exclusão: os desafios para as políticas públicas” reuniu a professora Caitlin Mulholland, o tecnologista Diego Cerqueira (ITS) e Debora Pio, Gestora de Comunicação do NOSSAS, com mediação de Arthur Almeida.