Lançado: “Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos”

Lançado! Depois de muito trabalho, o livro “Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos” está no ar para compra e/ou download. Reproduzo a seguir a apresentação do livro:

Ao longo das últimas décadas, inúmeras ideias sobre o “virtual”, o “digital” ou a “cibercultura” ganharam tração nos espaços acadêmicos e vernaculares interessados em estudar o impacto (ou relação) da internet na sociedade. Figuras de linguagem que evocavam a internet como composta de “janelas” a outros mundos possíveis também foram aplicadas a indivíduos, grupos e suas identidades.

A comunicação mediada por computador permitiria até o abandono de afiliações identitárias, disseram muitos. Gênero, raça, etnia, nacionalidade e classe ficariam de lado, afirmaram pesquisadores que faziam parte da pequena parcela conectada da população. A realidade era muito diferente disso, como sabiam tanto as maiorias demográficas reais quanto as camadas mais violentas da branquitude. Nos anos 90 supremacistas brancos já planejavam uma reconexão e expansão global, através da internet, que dá seus frutos tóxicos hoje em todo o mundo.         

Processo similar aconteceu na última década com a empolgação quanto a conceitos como big data ou inteligência artificial. Os mais inocentes e os mais cínicos convergiram publicamente a acreditar ou defender que a abundância na geração de dados e a capacidade computacional para analisá-los levariam ao fortalecimento da produção democrática de conhecimento sobre as questões públicas. Testemunhamos o contrário: um aprofundamento do abismo entre cidadãos comuns – que, de fato, possuem mais acesso à informação do que antes – e corporações que concentram exponencialmente não só as informações e sua capacidade de interpretação analítica, mas também a aplicação de conhecimento operacionalizado na concentração de capitais e esfarelamento das instituições públicas.

Interpretações generalistas e totalizantes sobre os usos, apropriações, narrativas e contra-narrativas das tecnologias da comunicação ficaram, portanto, ainda mais anacrônicas. Mas às pioneiras e pioneiros de estudos críticos da comunicação digital somam-se cada vez mais pesquisadoras/es interessadas e instrumentalizadas a contar as histórias dos subalternizados, empenhadas em desvelar fenômenos, objetos e dinâmicas invisibilizadas por academias elitistas ainda a serviço de uma supremacia branca global.

O livro “Comunidades, Algoritmos e Ativismos: olhares afrodiaspóricos” é uma das muitas iniciativas de combate a cegueiras supostamente pós-raciais. Visando colaborar no preenchimento das muitas lacunas bibliográficas que tolhem a oferta bibliográfica de estudantes do Brasil e países lusófonos, o livro reúne 14 capítulos de pesquisadoras e pesquisadores provenientes e com conhecimento científico e experiencial dos Brasis e de países da Afrodiáspora e África, como Congo, Etiópia, Gana, Nigeria, Colômbia, Estados Unidos e Reino Unido. O principal objetivo da publicação é reunir reflexões diversas e multidisciplinares sobre as interfaces dentre os fenômenos da comunicação digital, raça, negritude e branquitude nos últimos 20 anos, oferecendo material de referência para estudantes e pesquisadoras/es em diversos níveis.

Através da tradução de textos estrangeiros inéditos em português e atualização e redação de publicações selecionadas de brasileiras/os, o livro colabora com a crescente complexificação do pensamento sobre a comunicação digital e internet resultante da diversificação dos olhares e falas nos espaços acadêmicos. Da matemática na divinação Ifá ao ativismo político, os temas e objetos dos capítulos passam por transição capilar, blackfishing, afroempreendedorismo, Black Twitter, contra-narrativas ao racismo e métodos digitais de pesquisa apropriados à complexidade das plataformas, algoritmos e relações de poder incorporadas nas materialidades digitais racializadas.

Abrindo o livro, o artigo “Retomando nosso fôlego: Estudos de Ciência e Tecnologia, Teoria Racial Crítica e a imaginação carcerária” de Ruha Benjamin propõe o conceito de Critical Race STS como nexo essencial para entender a imaginação carcerária que motiva a criação e formatação das tecnologias digitais empregadas cotidianamente no controle, classificação e fixação dos corpos.  Partindo da metáfora da respiração e do fôlego, repetidamente negados a afro-americanos e afro-brasileiros sufocados por forças policiais, Benjamin nos convoca a repensar os projetos da sociologia e dos estudos de ciência, tecnologia e sociedade.

Como resultado de amplo estudo sobre discurso de ódio, Luiz Valério P. Trindade apresenta, logo na introdução do texto “Mídias sociais e a naturalização de discursos racistas no Brasil“, um resgate da invisibilidade da “questão” – longe de ser apenas uma inflexão – racial na pesquisa sobre comunicação digital e internet. Esta invisibilidade é combatida a seguir em seu trabalho, que evoca a literatura e metodologia científica para compreender como o racismo à brasileira se desdobra nos discursos digitais circulados em mídias sociais.

Realizando a ponte entre as realidades brasileira e colombiana, Niousha Roshani apresenta dados e reflexões sobre o racismo nos dois países em diversas esferas, da econômica à midiática. O artigo “Discurso de Ódio e Anti-Racismo Digital: ativismo da juventude afrodescendente no Brasil e Colômbia” inclui também mapeamento de projetos da sociedade civil que oferecem contra-narrativas e reações à sociedade racista nestes países latino-americanos.

A partir de longo histórico de pesquisa sobre o Black Twitter, Andre Brock organiza o método “Análise Crítica Tecnocultural do Discurso”. Influenciado pela abordagem histórico-discursiva, Brock sugere princípios, pilares e expectativas para o método, que vê a cultura como artefato tecnológico e, portanto, combina análise das materialidades e articulações sociais-políticas na compreensão da produção de significado em rede.

A transição capilar, fenômeno que se intensificou na última década graças à convergência de aspectos econômicos, políticos e ideológicos é o tema agregador das comunidades investigadas por Larisse Pontes Gomes. Em “Estéticas em transformação: a experiência de mulheres negras na transição capilar em grupos virtuais“, a autora estuda como as tecnologias de comunicação digital foram transformadas em ferramentas afetivas e decoloniais para as mulheres negras no apoio mútuo e expansão da autoestima.

 Também na seara da política da estética, Ronaldo Araújo e Jobson da Silva Junior apresentam as micronarrativas de racismo no Twitter em torno de um fenômeno em ascensão, ainda que não exatamente novo: o blackfishing. Em “Blackfishing e a transformação transracial monetizada“, os autores apresentam e discutem o fenômeno, assim como as controvérsias resultantes.

Em “Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código”, Tarcízio Silva apresenta o pensamento sobre as microagressões como método para discutir o racismo digital e suas novas e perversas manifestações algorítmicas. Argumentamos que a reprodução pervasiva das ideologias racistas em bases de dados, representações visuais e recomendação de conteúdo nas plataformas digitais podem ser compreendidas a partir desta chave conceitual.

Explorando levantamento de dados em bancos de imagens, Fernanda Carrera estuda as dinâmicas de produção e reprodução de representações racistas no Shutterstock, Stockphotos e Getty Images. Em “Racismo e sexismo em bancos de imagens digitais: análise de resultados de busca e atribuição de relevância na dimensão financeira/profissional” resultados a buscas imbuídas de valoração na sociedade contemporânea, tais como “chefe” ou “secretária/o” e “pobreza” são analisados em suas representações raciais e visibilidades nos sites em questão.

Dedicada também à centralidade da questão algorítmica na contemporaneidade, Abeba Birhane discute as faces do poder colonial transformado em mecanismos invisíveis de controle das plataformas, padrões tecnológicos e negócios digitais. O texto “Colonização Algorítmica da África” discute e enfrenta as interpretações neocoloniais sobre a “mineração” de dados e conhecimento sobre o continente africano.

A partir de um ponto de vista africano sobre o ativismo digital, o texto a seguir defende uma perspectiva continental sobre o tema frente a repressão de projetos autoritários. Referenciando o evergetismo cívico, Serge Katembera nos apresenta sua análise sobre o “Ativismo Digital na África: demandas, agendas e perspectivas“.

Os ciberativismos do feminismo negro, os pontos de convergência e particularidades de pensadoras e ativistas negras sobre a questão nos são apresentados por Thiane Neves Barros em “uma autobiografia de milhares de vozes”. O texto “’Estamos em marcha’: Escrevivendo, agindo e quebrando códigos” resgata pontos das construções intelectuais de feministas negras na academia e para além.

Em “Mulheres e tecnologias de sobrevivência: Economia Étnica e Afroempreendedorismo”, Taís Oliveira e Dulcilei C. Lima apresentam as particularidades do afroempreendedorismo das mulheres no Brasil a partir da exploração das fortalezas e contradições dos estudos sobre economia étnica. A partir do pensamento e realidade afrobrasileiras sobre o tema e dados provenientes de duas pesquisas realizadas pelas autoras sobre feminismo negro na internet e práticas de empreendedores, apresentam a ideia de tecnologias de sobrevivência.

Lembrando das ancestralidades e ideações milenares, Femi O. Alamu, Halleluyah Aworinde e Walter Isharufe nos mostram como a divinação Ifá tem paralelos – e precede – processos típicos da Computação. Tanto a estrutura de cálculo dos 256 Odus e quanto o fluxograma das operações Entrada-Processo-Saída na relação entre sacerdote e cliente são explorados em “Estudo Comparativo entre o Sistema de Divinação Ifá e Ciência da Computação”.

Encerrando o livro, “Articulando e performando desenvolvimento: retornantes qualificados no negócio de TICs do Gana” de Seyram Avle  investiga motivações, percepções e trajetórias profissionais e empreendedoras de emigrantes ganenses que retornaram ao país depois de formação global no exterior, sobretudo em países do Norte. Os retornantes impulsionam ideias particulares de responsabilidade com o país e desenvolvimento tecnológico de Gana.

Curso “Raça e Tecnologias Digitais de Comunicação” acontece em março

Desenvolvi um curso sobre “Raça e Tecnologias Digitais de Comunicação: das redes sociais aos algoritmos“. A atividade tem como objetivo apresentar um panorama do debate sobre raça, racismo, branquitude e negritude nas tecnologias digitais de comunicação em quatro encontros. O conteúdo abordará o histórico e estudos da tecnologia e mídias sociais até bibliografia acadêmica, mapeamento de casos e pesquisas empíricas e mercadológicas recentes sobre plataformas e algoritmos. Usaremos como referencial publicações afrocentradas, incluindo a coletânea “Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos”, que será lançada início de março! Clique abaixo para saber mais e se inscrever:

Reconhecimento Facial na Bahia: mais erros policiais contra negros e pobres

A Secretaria da Segurança Pública da Bahia transformou o estado em um laboratório perverso do technochauvinismo. Governado por Rui Costa, político do PT que festeja chacinas, o estado tem acumulado casos e anti-casos de reconhecimento facial para policiamento. No carnaval de 2019 um procurado por homicídio foi preso, ponto alto da campanha a favor do uso indiscriminado de reconhecimento facial em ambientes públicos.

Entretanto, além de ser uma tecnologia que coloca a democracia e direitos humanos em risco mesmo quando tecnicamente eficiente, traz uma quantidade absurda de erros. Em Londres, capital do Reino Unido – um dos países mais ricos e avançados tecnologicamente, descobriu-se que 81% das abordagens de suspeitos na região metropolitana estavam erradas. Este tipo de tecnologia deveria ser banida do espaço público. Veja no vídeo abaixo:

 

A reportagem da Record TV Itapoan, que defende o sistema, também contou com comentários do “jornalista” Raimundo Varela, filiado ao PRB, defendendo o uso da tecnologia e minimizando o sofrimento do adolescente. Optei por não incluir estes comentários no trecho acima.

Este é mais um caso de dano tecnológico em ligação direta com o racismo – veja dúzias de casos na Timeline do Racismo Algorítmico.

Ignorância Branca e Algoritmização – Códigos Negros

No último sábado (9/11) pude participar do evento Códigos Negros no Rio de Janeiro, promovido pelo PretaLab, Cabine e Gente. Foi um prazer participar da mesa com a Silvana Bahia e a Maria Rita Casagrande.

Subi o slideshow para quem quiser explorar as referências citadas na fala:

Raça Depois da Tecnologia: ferramentas abolicionistas contra os novos racismos

Publicado em junho deste ano, o livro Race after Technology: Abolitionist Tools for the New Jim Code, de Ruha Benjamin, é uma louvável adição à atual geração de projetos de intelectuais negras estudando tecnologias da comunicação de um modo crítico e propositivo em busca de um futuro mais justo possível. Ruha Benjamin é antropóloga, doutora em sociologia, professora da Universidade de Princeton e fundadora do JUST Data Lab, além de pesquisadora associada em diversos institutos. Anteriormente publicou livro sobre as dimensões sociais da pesquisa em células tronco e também lançou este ano a coletânea Captivating Technology, sobre tecnociência carcerária e imaginação libertária.

O livro Race After Technology… tem como objetivo discutir as tecnologias digitais e algorítmicas a partir do que Benjamin chama de “Critical STS”, a junção da Teoria Racial Crítica (TRC) e dos Estudos de Ciência, Tecnologia e Sociedade. Para introduções à esta interface, recomendo dois trabalhos: acabei de finalizar um artigo que resume as colaborações da TRC à comunicação; e artigo da própria Ruha Benjamin sobre seu conceito de imaginação carcerária.

Na introdução, Benjamin parte de um exemplo curioso e pouco discutido de codificação indireta: os nomes e sobrenomes como atalhos para aspectos históricos e sociais. Benjamin cita diversos casos de uso de nomes africanos e afroamericanos como atalho para discriminação, de contratação a direcionamento perverso de anúncios. Benjamin usa estes casos cotidianos para lembrar que o cotidiano é codificado em vários aspectos e em suas várias esferas. Métricas, classificações e tecnologias tem políticas, das explícitas às implícitas. A autora evoca o conjunto de leis racistas chamadas de Jim Crow que vigoraram do século XIX à metade do XX nos EUA para propor o conceito de “New Jim Code” – um modo sistêmico e hostil de viés hostil e racista cada vez mais integrado e opaco nas tecnologias digitais.

No primeiro capítulo, Engineered Inequity (Desigualdade Projetada), Benjamin começa pelo caso de um concurso de beleza chamado Beauty AI, que supostamente analisava beleza de forma imparcial. Obviamente esta imparcialidade ou universalidade da beleza é absurda, mas o fato de que um projeto deste foi realizado em pleno 2016 diz muito. Como você pode imaginar, o sistema replicou conceitos de beleza racista e de 44 finalistas, 38 eram brancos. Benjamin segue por outros exemplos para mostrar como o aprendizado de máquina subjacente a estas tecnologias repete desigualdades sociais e culturais e suas concentrações. Em resumo, primeiro capítulo fala de como a desigualdade é replicada e intensificada na interseção de ignorância, omissão e, em alguns casos, intenção. Particularmente interessante neste capítulo é a reprodução de uma página de edição da revista Mechanix Illustrated de 1957, que previa robôs autônomos em breve, veja abaixo:

O texto é simplesmente assustador: “Escravidão está de volta! Todos nós teremos escravos de novo… que vão te vestir, pentear seu cabelo e servir refeições rapidamente. Mas não se alarme. Nós estamos falando de ‘escravos robôs.’” . Através deste e de outros casos, a autora discorre sobre as noções de poder que são evocadas ou projetadas no desenvolvimento de algumas tecnologias.

No segundo capítulo, Default Discrimination (Discriminação por Padrão), Benjamin vai se perguntar se a discriminação pervasiva nas tecnologias digitais é um glitch do sistema. Será que é um erro, que sai do padrão, ou podemos pensar em “discriminação por padrão”? Comparando tecnologias urbanas como o caso de Robert Moses e outros exemplos de arquitetura hostil a policiamento analógico e digital, Benjamin elabora sobre a anti-negritude como padrão na sociedade estadunidense. Lembra que temos de pensar raça em si como tecnologia:

Se considerarmos raça em si como tecnologia, como um modo de ordenar, organizar e desenhar uma estrutura social assim como a compreensão sobre a durabilidade da raça, sua consistência e adaptabilidade, nós poderemos entender mais claramente a arquitetura literal de poder.

No terceiro capítulo, Coded Exposure (Exposição Codificada), a autora se pergunta se a exposição/visibilidade codificada é uma armadilha. Aqui ela relembra casos de tecnologias que falham em ver pessoas negras, como já vimos sobre a pesquisa de Joy Buolamwini e diversos outros. A ideia de visibilidade é codificada também em diversas tecnologias e seu excesso ou falta são diretamente ligadas a dinâmicas raciais de poder.

Benjamin cita o famoso caso dos “Cartões Shirley” que eram usados como padrão para calibração de câmeras, explicando como a imagem de uma mulher branca deixou de ser o único cartão somente bem depois da consolidação da demanda mercadológica por afroamericanos. Entretanto, lembra que ao mesmo tempo disto, empresas como Polaroid ajudaram ativamente o sistema de apartheid na África do Sul, apoiando uma hiper-visibilidade criminosa contra a população negra no país. A partir do conceito polissêmico de exposição, então, Benjamin segue expondo variáveis políticas da branquitude, ciência, diferença e privacidade.

O quarto capítulo, Technology Benevolence (Benevolência da Tecnologia) pergunta se a “benevolência tecnológica vai nos consertar”? A questão é essencial pois, crescentemente, se fala sobre tecnologias como inteligência artificial como soluções para os problemas da sociedade. Não são as soluções, podem piorar os problemas e, em última instância, são mais nocivas pois ainda podem ocultar os problemas em tecnologias e algoritmos fechados e não-auditáveis.

Considerando as inúmeras iniciativas de promoção à “diversidade” e “igualdade” em grandes corporações de tecnologia, Benjamin estuda casos de iniciativas do tipo em empresas de mídias sociais, recrutamento, saúde e outras. Argumenta que essa ideia de “diversidade”

faz parte de um repertório maior de “happy talk”, que envolve a disposição para reconhecer e até valorizar diferença cultural sem desafiar seriamente a desigualdade estrutural sendo reproduzida.

Por fim, no quinto capítulo, de título Retooling Solidarity, Reimagining Justice (Reequipando Solidariedade, Reimaginando Justiça) pensa formas de resistência abolicionistas contra a imaginação carceral continuamente vinculada às tecnologias digitais. Mostra as fragilidades da promoção de “empatia” e de “design thinking” como solução colonizadora para problemas de desigualdade. Citando Paulo Freire, argumenta que “se a estrutura não permite diálogo, a estrutura deve ser mudada”.

Desenvolve a ideia de “auditoria algorítmica” que tem sido aplicada a diversos campos, com diferentes graus de amplitude e compromisso social. As auditorias devem ser independentes e ter poder regulador, algo que as grandes corporações tem evitado. Ruha Benjamin fala de um “toolkit abolicionista”, partindo do uso de dados como instrumentos de liberação desde as visualizações de Du Bois e estatísticas de Ida Wells-Barnett no século XIX até iniciativas recentes através de  diversos projetos que geram mais transparência, ativismo social a favor da regulação e ferramentas narrativas, que permitam contar as histórias de mais pessoas envolvidas e afetadas pelas tecnologias.

Benjamin chama à necessidade a criação de “toolkits abolicionistas” que permitam entender não só as tecnologias emergentes, mas também a sua produção, aplicação e interpretação dos dados. Um dos casos mais interessantes citados é o White Collar Crime Zones, um mapa interativo com o “rosto médio” e localização de criminosos de colarinho branco, o que nos lembra como a lógica de policiamento algorítmico em crimes urbanos é apenas um jeito enviesado de enquadrar a questão da criminalidade.

 

Para uma introdução em vídeo a seu pensamento, recomendo dois vídeos disponíveis gratuitamente. O primeiro fala da incorporação de ideias de design discriminatório de “bancos de parque” a “cadeiras de laboratório” e o segundo é uma aula sobre raça, ciência e subjetividade nos campos de genômica.

 

Para seguir aprendendo com a Ruha Benjamin, compre o livro Race After Technology, visite seu site e siga-a no Twitter.