Clube de leitura online debaterá “Comunidades, Algoritmos e Ativismos Digitais – olhares afrodiaspóricos”

O clube de leitura online do grupo/blog InspirADA na Computação decidiu debater o livro Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos!

O projeto busca contribuir na formação intelectual e social de estudantes e profissionais de tecnologia, computação e envolver outros de áreas como ciências humanas e comunicação. O lançamento será na próxima segunda-feira (06/04), às 19h, com um debate sobre cronograma de leitura, introdução e prefácio do livro. Visite o site da InspirADA na Computação para saber como participar:

Google acha que ferramenta em mão negra é uma arma

A desinteligência artificial é uma constante mesmo em grandes empresas reconhecidas pelos seus feitos na tecnologia digital. Na minha Linha do Tempo do Racismo Algorítmico há alguns casos como: a Google marcando pessoas negras como gorilas; Instagram vendo violência e armas onde não há; IBM e Microsoft não reconhecendo gênero de mulheres negras.

Internacionalmente esforços coordenados buscam proibir ou ao menos suspender o uso de inteligência artificial por instituições públicas, sobretudo em segurança pública. As taxas de erro são enormes, de Salvador até centros globais financeiros e tecnológicos como Londres. Atualmente a pandemia de COVID-19 tem sido a desculpa para empresas questionáveis forçarem a normalização de uso de tecnologias problemáticas seja no Brasil ou no exterior.

Mais um caso vulgar de erro em visão computacional foi mapeado. Nas imagens abaixo, o pesquisador Nicolas Kayser-Bril rodou duas imagens de pessoas segurando um termômetro na Google Vision, recurso de análise de imagens. Na foto com a pessoa asiática, as etiquetas “Tecnologia” e “Dispositivo Eletrônico” lideraram. Na com a pessoa negra, a etiqueta “Arma” foi marcada com 88% de certeza.

Esse tipo de erro é causado por um acúmulo de fatores, que vai da base de dados de péssima qualidade, lógica relacional do aprendizado de máquina falta de diversidade no campo e ao technochauvinismo dos profissionais da área que não criam ou reforçam mecanismos de representação adequada. A depender do seu ceticismo você está buscando motivos na imagem para justificar a questão? O pesquisador Bart Nagel responde com o experimento abaixo, onde embranqueceu a mão da foto:

Este é mais um de inúmeros casos da vulgaridade da aplicação da inteligência artificial para supostamente entender questões complexas e sociais da realidade. Mas quando falamos de segurança pública, o horror da necropolítica está agindo claramente. Os inúmeros casos de assassinato de cidadãos por policiais que se “confundiram” possuem uma ligação que não é coincidência com a estupidez da visão computacional. Não podemos, enquanto sociedade, permitir que o technochauvinismo avance ainda mais na segurança pública.

Veja mais casos do horror do racismo algorítmico na Linha do Tempo, entenda como estes recursos funcionam e são nocivos no artigo Visão computacional e Racismo Algorítmico: branquitude e opacidade no aprendizado de máquina e no relatório Interrogating Vision APIs, onde propomos metodologia de auditoria destes sistemas.

Lançado: “Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos”

Lançado! Depois de muito trabalho, o livro “Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos” está no ar para compra e/ou download. Reproduzo a seguir a apresentação do livro:

Ao longo das últimas décadas, inúmeras ideias sobre o “virtual”, o “digital” ou a “cibercultura” ganharam tração nos espaços acadêmicos e vernaculares interessados em estudar o impacto (ou relação) da internet na sociedade. Figuras de linguagem que evocavam a internet como composta de “janelas” a outros mundos possíveis também foram aplicadas a indivíduos, grupos e suas identidades.

A comunicação mediada por computador permitiria até o abandono de afiliações identitárias, disseram muitos. Gênero, raça, etnia, nacionalidade e classe ficariam de lado, afirmaram pesquisadores que faziam parte da pequena parcela conectada da população. A realidade era muito diferente disso, como sabiam tanto as maiorias demográficas reais quanto as camadas mais violentas da branquitude. Nos anos 90 supremacistas brancos já planejavam uma reconexão e expansão global, através da internet, que dá seus frutos tóxicos hoje em todo o mundo.         

Processo similar aconteceu na última década com a empolgação quanto a conceitos como big data ou inteligência artificial. Os mais inocentes e os mais cínicos convergiram publicamente a acreditar ou defender que a abundância na geração de dados e a capacidade computacional para analisá-los levariam ao fortalecimento da produção democrática de conhecimento sobre as questões públicas. Testemunhamos o contrário: um aprofundamento do abismo entre cidadãos comuns – que, de fato, possuem mais acesso à informação do que antes – e corporações que concentram exponencialmente não só as informações e sua capacidade de interpretação analítica, mas também a aplicação de conhecimento operacionalizado na concentração de capitais e esfarelamento das instituições públicas.

Interpretações generalistas e totalizantes sobre os usos, apropriações, narrativas e contra-narrativas das tecnologias da comunicação ficaram, portanto, ainda mais anacrônicas. Mas às pioneiras e pioneiros de estudos críticos da comunicação digital somam-se cada vez mais pesquisadoras/es interessadas e instrumentalizadas a contar as histórias dos subalternizados, empenhadas em desvelar fenômenos, objetos e dinâmicas invisibilizadas por academias elitistas ainda a serviço de uma supremacia branca global.

O livro “Comunidades, Algoritmos e Ativismos: olhares afrodiaspóricos” é uma das muitas iniciativas de combate a cegueiras supostamente pós-raciais. Visando colaborar no preenchimento das muitas lacunas bibliográficas que tolhem a oferta bibliográfica de estudantes do Brasil e países lusófonos, o livro reúne 14 capítulos de pesquisadoras e pesquisadores provenientes e com conhecimento científico e experiencial dos Brasis e de países da Afrodiáspora e África, como Congo, Etiópia, Gana, Nigeria, Colômbia, Estados Unidos e Reino Unido. O principal objetivo da publicação é reunir reflexões diversas e multidisciplinares sobre as interfaces dentre os fenômenos da comunicação digital, raça, negritude e branquitude nos últimos 20 anos, oferecendo material de referência para estudantes e pesquisadoras/es em diversos níveis.

Através da tradução de textos estrangeiros inéditos em português e atualização e redação de publicações selecionadas de brasileiras/os, o livro colabora com a crescente complexificação do pensamento sobre a comunicação digital e internet resultante da diversificação dos olhares e falas nos espaços acadêmicos. Da matemática na divinação Ifá ao ativismo político, os temas e objetos dos capítulos passam por transição capilar, blackfishing, afroempreendedorismo, Black Twitter, contra-narrativas ao racismo e métodos digitais de pesquisa apropriados à complexidade das plataformas, algoritmos e relações de poder incorporadas nas materialidades digitais racializadas.

Abrindo o livro, o artigo “Retomando nosso fôlego: Estudos de Ciência e Tecnologia, Teoria Racial Crítica e a imaginação carcerária” de Ruha Benjamin propõe o conceito de Critical Race STS como nexo essencial para entender a imaginação carcerária que motiva a criação e formatação das tecnologias digitais empregadas cotidianamente no controle, classificação e fixação dos corpos.  Partindo da metáfora da respiração e do fôlego, repetidamente negados a afro-americanos e afro-brasileiros sufocados por forças policiais, Benjamin nos convoca a repensar os projetos da sociologia e dos estudos de ciência, tecnologia e sociedade.

Como resultado de amplo estudo sobre discurso de ódio, Luiz Valério P. Trindade apresenta, logo na introdução do texto “Mídias sociais e a naturalização de discursos racistas no Brasil“, um resgate da invisibilidade da “questão” – longe de ser apenas uma inflexão – racial na pesquisa sobre comunicação digital e internet. Esta invisibilidade é combatida a seguir em seu trabalho, que evoca a literatura e metodologia científica para compreender como o racismo à brasileira se desdobra nos discursos digitais circulados em mídias sociais.

Realizando a ponte entre as realidades brasileira e colombiana, Niousha Roshani apresenta dados e reflexões sobre o racismo nos dois países em diversas esferas, da econômica à midiática. O artigo “Discurso de Ódio e Anti-Racismo Digital: ativismo da juventude afrodescendente no Brasil e Colômbia” inclui também mapeamento de projetos da sociedade civil que oferecem contra-narrativas e reações à sociedade racista nestes países latino-americanos.

A partir de longo histórico de pesquisa sobre o Black Twitter, Andre Brock organiza o método “Análise Crítica Tecnocultural do Discurso”. Influenciado pela abordagem histórico-discursiva, Brock sugere princípios, pilares e expectativas para o método, que vê a cultura como artefato tecnológico e, portanto, combina análise das materialidades e articulações sociais-políticas na compreensão da produção de significado em rede.

A transição capilar, fenômeno que se intensificou na última década graças à convergência de aspectos econômicos, políticos e ideológicos é o tema agregador das comunidades investigadas por Larisse Pontes Gomes. Em “Estéticas em transformação: a experiência de mulheres negras na transição capilar em grupos virtuais“, a autora estuda como as tecnologias de comunicação digital foram transformadas em ferramentas afetivas e decoloniais para as mulheres negras no apoio mútuo e expansão da autoestima.

 Também na seara da política da estética, Ronaldo Araújo e Jobson da Silva Junior apresentam as micronarrativas de racismo no Twitter em torno de um fenômeno em ascensão, ainda que não exatamente novo: o blackfishing. Em “Blackfishing e a transformação transracial monetizada“, os autores apresentam e discutem o fenômeno, assim como as controvérsias resultantes.

Em “Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código”, Tarcízio Silva apresenta o pensamento sobre as microagressões como método para discutir o racismo digital e suas novas e perversas manifestações algorítmicas. Argumentamos que a reprodução pervasiva das ideologias racistas em bases de dados, representações visuais e recomendação de conteúdo nas plataformas digitais podem ser compreendidas a partir desta chave conceitual.

Explorando levantamento de dados em bancos de imagens, Fernanda Carrera estuda as dinâmicas de produção e reprodução de representações racistas no Shutterstock, Stockphotos e Getty Images. Em “Racismo e sexismo em bancos de imagens digitais: análise de resultados de busca e atribuição de relevância na dimensão financeira/profissional” resultados a buscas imbuídas de valoração na sociedade contemporânea, tais como “chefe” ou “secretária/o” e “pobreza” são analisados em suas representações raciais e visibilidades nos sites em questão.

Dedicada também à centralidade da questão algorítmica na contemporaneidade, Abeba Birhane discute as faces do poder colonial transformado em mecanismos invisíveis de controle das plataformas, padrões tecnológicos e negócios digitais. O texto “Colonização Algorítmica da África” discute e enfrenta as interpretações neocoloniais sobre a “mineração” de dados e conhecimento sobre o continente africano.

A partir de um ponto de vista africano sobre o ativismo digital, o texto a seguir defende uma perspectiva continental sobre o tema frente a repressão de projetos autoritários. Referenciando o evergetismo cívico, Serge Katembera nos apresenta sua análise sobre o “Ativismo Digital na África: demandas, agendas e perspectivas“.

Os ciberativismos do feminismo negro, os pontos de convergência e particularidades de pensadoras e ativistas negras sobre a questão nos são apresentados por Thiane Neves Barros em “uma autobiografia de milhares de vozes”. O texto “’Estamos em marcha’: Escrevivendo, agindo e quebrando códigos” resgata pontos das construções intelectuais de feministas negras na academia e para além.

Em “Mulheres e tecnologias de sobrevivência: Economia Étnica e Afroempreendedorismo”, Taís Oliveira e Dulcilei C. Lima apresentam as particularidades do afroempreendedorismo das mulheres no Brasil a partir da exploração das fortalezas e contradições dos estudos sobre economia étnica. A partir do pensamento e realidade afrobrasileiras sobre o tema e dados provenientes de duas pesquisas realizadas pelas autoras sobre feminismo negro na internet e práticas de empreendedores, apresentam a ideia de tecnologias de sobrevivência.

Lembrando das ancestralidades e ideações milenares, Femi O. Alamu, Halleluyah Aworinde e Walter Isharufe nos mostram como a divinação Ifá tem paralelos – e precede – processos típicos da Computação. Tanto a estrutura de cálculo dos 256 Odus e quanto o fluxograma das operações Entrada-Processo-Saída na relação entre sacerdote e cliente são explorados em “Estudo Comparativo entre o Sistema de Divinação Ifá e Ciência da Computação”.

Encerrando o livro, “Articulando e performando desenvolvimento: retornantes qualificados no negócio de TICs do Gana” de Seyram Avle  investiga motivações, percepções e trajetórias profissionais e empreendedoras de emigrantes ganenses que retornaram ao país depois de formação global no exterior, sobretudo em países do Norte. Os retornantes impulsionam ideias particulares de responsabilidade com o país e desenvolvimento tecnológico de Gana.

Curso “Raça e Tecnologias Digitais de Comunicação” acontece em março

Desenvolvi um curso sobre “Raça e Tecnologias Digitais de Comunicação: das redes sociais aos algoritmos“. A atividade tem como objetivo apresentar um panorama do debate sobre raça, racismo, branquitude e negritude nas tecnologias digitais de comunicação em quatro encontros. O conteúdo abordará o histórico e estudos da tecnologia e mídias sociais até bibliografia acadêmica, mapeamento de casos e pesquisas empíricas e mercadológicas recentes sobre plataformas e algoritmos. Usaremos como referencial publicações afrocentradas, incluindo a coletânea “Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos”, que será lançada início de março! Clique abaixo para saber mais e se inscrever:

Reconhecimento Facial na Bahia: mais erros policiais contra negros e pobres

A Secretaria da Segurança Pública da Bahia transformou o estado em um laboratório perverso do technochauvinismo. Governado por Rui Costa, político do PT que festeja chacinas, o estado tem acumulado casos e anti-casos de reconhecimento facial para policiamento. No carnaval de 2019 um procurado por homicídio foi preso, ponto alto da campanha a favor do uso indiscriminado de reconhecimento facial em ambientes públicos.

Entretanto, além de ser uma tecnologia que coloca a democracia e direitos humanos em risco mesmo quando tecnicamente eficiente, traz uma quantidade absurda de erros. Em Londres, capital do Reino Unido – um dos países mais ricos e avançados tecnologicamente, descobriu-se que 81% das abordagens de suspeitos na região metropolitana estavam erradas. Este tipo de tecnologia deveria ser banida do espaço público. Veja no vídeo abaixo:

 

A reportagem da Record TV Itapoan, que defende o sistema, também contou com comentários do “jornalista” Raimundo Varela, filiado ao PRB, defendendo o uso da tecnologia e minimizando o sofrimento do adolescente. Optei por não incluir estes comentários no trecho acima.

Este é mais um caso de dano tecnológico em ligação direta com o racismo – veja dúzias de casos na Timeline do Racismo Algorítmico.