Emicida, tecnologias africanas, redes sociais e tambores

Como sabemos, Emicida é rapper, compositor, cantor, empresário e inovador de sucesso. Recentemente lançou também a antologia inspirada na mixtape “Pra quem já mordeu um cachorro por comida, até que eu cheguei longe…” reunindo textos e ilustrações de dezenas de pensadores e artistas brasileiros. Não seria surpresa, então, todo seu conhecimento sobre tecnologia e sociedade presente em suas músicas.

É o que vemos aqui também em formato de ensaio. Emicida gentilmente topou o desafio de escrever o prefácio do livro Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos que acabamos de lançar. Leia a seguir:

Há alguns anos, enquanto viajávamos por países do continente africano, fui surpreendido por uma pessoa que trabalhava em nosso projeto que após dividir algumas ideias, me questionou com a seguinte sentença: “Mas o que é que África tem a ver com tecnologia?”.

Me recordei naquele momento, das primeiras páginas de “Entre o Mundo e Eu” onde Ta-nehisi Coates discorre sobre a distância entre as realidades dele e da jornalista branca com quem dialogava na TV: ela parecia estar mais longe do que o satélite que os transmitiam ao vivo para o mundo todo.

Oras, se a essência das redes sociais é a conectividade, está para nascer uma que cumpra seu papel com mais eficácia do que um tambor. Sentar-se em círculos, ouvir histórias (principalmente) dos que vieram antes e extrair os melhores sentimentos dos participantes, ressaltando como a escuta é valiosa, me parece estar anos-luz à frente do mais promissor sonho de funcionalidades facebookianas de Mark Zuckerberg.

É importante admirar o admirável e para tal, é fundamental que nossas lentes estejam limpas e não sabotem essa característica tão poderosa da capacidade humana. Culturas são lentes, é por elas que percebemos o mundo.

Tecnologia, storytelling, minimalismo e ideias que visam ampliar a percepção do que significa ser humano, não podem ser vendidas no século XXI como “invenções do vale do silício”. Ainda mais para quem criou a Tábua de Ifá, a Ayurveda, as 5 orientações de gênero de alguns povos ameríndios ou a força das Mulheres Macuas. Como diria Paulina Chiziane, “às vezes sinto que nos oferecem algo que já era nosso antes deles chegarem”. Nootrópicos vieram milênios depois do Ginseng.

Tudo o que sabemos (ou o que o hemisfério norte e  seu confiante eurocentrismo julga saber), equivale só a 4% do universo, o resto é matéria e energia escura e, falando em Energia e Matéria Escura, esse livro compartilha muito a respeito do que tem a ver a África e a tecnologia.

Leia, baixe e/ou compre o livro em http://www.literarua.com.br/livro/olhares-afrodiasporicos

Lançado: “Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos”

Lançado! Depois de muito trabalho, o livro “Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos” está no ar para compra e/ou download. Reproduzo a seguir a apresentação do livro:

Ao longo das últimas décadas, inúmeras ideias sobre o “virtual”, o “digital” ou a “cibercultura” ganharam tração nos espaços acadêmicos e vernaculares interessados em estudar o impacto (ou relação) da internet na sociedade. Figuras de linguagem que evocavam a internet como composta de “janelas” a outros mundos possíveis também foram aplicadas a indivíduos, grupos e suas identidades.

A comunicação mediada por computador permitiria até o abandono de afiliações identitárias, disseram muitos. Gênero, raça, etnia, nacionalidade e classe ficariam de lado, afirmaram pesquisadores que faziam parte da pequena parcela conectada da população. A realidade era muito diferente disso, como sabiam tanto as maiorias demográficas reais quanto as camadas mais violentas da branquitude. Nos anos 90 supremacistas brancos já planejavam uma reconexão e expansão global, através da internet, que dá seus frutos tóxicos hoje em todo o mundo.         

Processo similar aconteceu na última década com a empolgação quanto a conceitos como big data ou inteligência artificial. Os mais inocentes e os mais cínicos convergiram publicamente a acreditar ou defender que a abundância na geração de dados e a capacidade computacional para analisá-los levariam ao fortalecimento da produção democrática de conhecimento sobre as questões públicas. Testemunhamos o contrário: um aprofundamento do abismo entre cidadãos comuns – que, de fato, possuem mais acesso à informação do que antes – e corporações que concentram exponencialmente não só as informações e sua capacidade de interpretação analítica, mas também a aplicação de conhecimento operacionalizado na concentração de capitais e esfarelamento das instituições públicas.

Interpretações generalistas e totalizantes sobre os usos, apropriações, narrativas e contra-narrativas das tecnologias da comunicação ficaram, portanto, ainda mais anacrônicas. Mas às pioneiras e pioneiros de estudos críticos da comunicação digital somam-se cada vez mais pesquisadoras/es interessadas e instrumentalizadas a contar as histórias dos subalternizados, empenhadas em desvelar fenômenos, objetos e dinâmicas invisibilizadas por academias elitistas ainda a serviço de uma supremacia branca global.

O livro “Comunidades, Algoritmos e Ativismos: olhares afrodiaspóricos” é uma das muitas iniciativas de combate a cegueiras supostamente pós-raciais. Visando colaborar no preenchimento das muitas lacunas bibliográficas que tolhem a oferta bibliográfica de estudantes do Brasil e países lusófonos, o livro reúne 14 capítulos de pesquisadoras e pesquisadores provenientes e com conhecimento científico e experiencial dos Brasis e de países da Afrodiáspora e África, como Congo, Etiópia, Gana, Nigeria, Colômbia, Estados Unidos e Reino Unido. O principal objetivo da publicação é reunir reflexões diversas e multidisciplinares sobre as interfaces dentre os fenômenos da comunicação digital, raça, negritude e branquitude nos últimos 20 anos, oferecendo material de referência para estudantes e pesquisadoras/es em diversos níveis.

Através da tradução de textos estrangeiros inéditos em português e atualização e redação de publicações selecionadas de brasileiras/os, o livro colabora com a crescente complexificação do pensamento sobre a comunicação digital e internet resultante da diversificação dos olhares e falas nos espaços acadêmicos. Da matemática na divinação Ifá ao ativismo político, os temas e objetos dos capítulos passam por transição capilar, blackfishing, afroempreendedorismo, Black Twitter, contra-narrativas ao racismo e métodos digitais de pesquisa apropriados à complexidade das plataformas, algoritmos e relações de poder incorporadas nas materialidades digitais racializadas.

Abrindo o livro, o artigo “Retomando nosso fôlego: Estudos de Ciência e Tecnologia, Teoria Racial Crítica e a imaginação carcerária” de Ruha Benjamin propõe o conceito de Critical Race STS como nexo essencial para entender a imaginação carcerária que motiva a criação e formatação das tecnologias digitais empregadas cotidianamente no controle, classificação e fixação dos corpos.  Partindo da metáfora da respiração e do fôlego, repetidamente negados a afro-americanos e afro-brasileiros sufocados por forças policiais, Benjamin nos convoca a repensar os projetos da sociologia e dos estudos de ciência, tecnologia e sociedade.

Como resultado de amplo estudo sobre discurso de ódio, Luiz Valério P. Trindade apresenta, logo na introdução do texto “Mídias sociais e a naturalização de discursos racistas no Brasil“, um resgate da invisibilidade da “questão” – longe de ser apenas uma inflexão – racial na pesquisa sobre comunicação digital e internet. Esta invisibilidade é combatida a seguir em seu trabalho, que evoca a literatura e metodologia científica para compreender como o racismo à brasileira se desdobra nos discursos digitais circulados em mídias sociais.

Realizando a ponte entre as realidades brasileira e colombiana, Niousha Roshani apresenta dados e reflexões sobre o racismo nos dois países em diversas esferas, da econômica à midiática. O artigo “Discurso de Ódio e Anti-Racismo Digital: ativismo da juventude afrodescendente no Brasil e Colômbia” inclui também mapeamento de projetos da sociedade civil que oferecem contra-narrativas e reações à sociedade racista nestes países latino-americanos.

A partir de longo histórico de pesquisa sobre o Black Twitter, Andre Brock organiza o método “Análise Crítica Tecnocultural do Discurso”. Influenciado pela abordagem histórico-discursiva, Brock sugere princípios, pilares e expectativas para o método, que vê a cultura como artefato tecnológico e, portanto, combina análise das materialidades e articulações sociais-políticas na compreensão da produção de significado em rede.

A transição capilar, fenômeno que se intensificou na última década graças à convergência de aspectos econômicos, políticos e ideológicos é o tema agregador das comunidades investigadas por Larisse Pontes Gomes. Em “Estéticas em transformação: a experiência de mulheres negras na transição capilar em grupos virtuais“, a autora estuda como as tecnologias de comunicação digital foram transformadas em ferramentas afetivas e decoloniais para as mulheres negras no apoio mútuo e expansão da autoestima.

 Também na seara da política da estética, Ronaldo Araújo e Jobson da Silva Junior apresentam as micronarrativas de racismo no Twitter em torno de um fenômeno em ascensão, ainda que não exatamente novo: o blackfishing. Em “Blackfishing e a transformação transracial monetizada“, os autores apresentam e discutem o fenômeno, assim como as controvérsias resultantes.

Em “Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código”, Tarcízio Silva apresenta o pensamento sobre as microagressões como método para discutir o racismo digital e suas novas e perversas manifestações algorítmicas. Argumentamos que a reprodução pervasiva das ideologias racistas em bases de dados, representações visuais e recomendação de conteúdo nas plataformas digitais podem ser compreendidas a partir desta chave conceitual.

Explorando levantamento de dados em bancos de imagens, Fernanda Carrera estuda as dinâmicas de produção e reprodução de representações racistas no Shutterstock, Stockphotos e Getty Images. Em “Racismo e sexismo em bancos de imagens digitais: análise de resultados de busca e atribuição de relevância na dimensão financeira/profissional” resultados a buscas imbuídas de valoração na sociedade contemporânea, tais como “chefe” ou “secretária/o” e “pobreza” são analisados em suas representações raciais e visibilidades nos sites em questão.

Dedicada também à centralidade da questão algorítmica na contemporaneidade, Abeba Birhane discute as faces do poder colonial transformado em mecanismos invisíveis de controle das plataformas, padrões tecnológicos e negócios digitais. O texto “Colonização Algorítmica da África” discute e enfrenta as interpretações neocoloniais sobre a “mineração” de dados e conhecimento sobre o continente africano.

A partir de um ponto de vista africano sobre o ativismo digital, o texto a seguir defende uma perspectiva continental sobre o tema frente a repressão de projetos autoritários. Referenciando o evergetismo cívico, Serge Katembera nos apresenta sua análise sobre o “Ativismo Digital na África: demandas, agendas e perspectivas“.

Os ciberativismos do feminismo negro, os pontos de convergência e particularidades de pensadoras e ativistas negras sobre a questão nos são apresentados por Thiane Neves Barros em “uma autobiografia de milhares de vozes”. O texto “’Estamos em marcha’: Escrevivendo, agindo e quebrando códigos” resgata pontos das construções intelectuais de feministas negras na academia e para além.

Em “Mulheres e tecnologias de sobrevivência: Economia Étnica e Afroempreendedorismo”, Taís Oliveira e Dulcilei C. Lima apresentam as particularidades do afroempreendedorismo das mulheres no Brasil a partir da exploração das fortalezas e contradições dos estudos sobre economia étnica. A partir do pensamento e realidade afrobrasileiras sobre o tema e dados provenientes de duas pesquisas realizadas pelas autoras sobre feminismo negro na internet e práticas de empreendedores, apresentam a ideia de tecnologias de sobrevivência.

Lembrando das ancestralidades e ideações milenares, Femi O. Alamu, Halleluyah Aworinde e Walter Isharufe nos mostram como a divinação Ifá tem paralelos – e precede – processos típicos da Computação. Tanto a estrutura de cálculo dos 256 Odus e quanto o fluxograma das operações Entrada-Processo-Saída na relação entre sacerdote e cliente são explorados em “Estudo Comparativo entre o Sistema de Divinação Ifá e Ciência da Computação”.

Encerrando o livro, “Articulando e performando desenvolvimento: retornantes qualificados no negócio de TICs do Gana” de Seyram Avle  investiga motivações, percepções e trajetórias profissionais e empreendedoras de emigrantes ganenses que retornaram ao país depois de formação global no exterior, sobretudo em países do Norte. Os retornantes impulsionam ideias particulares de responsabilidade com o país e desenvolvimento tecnológico de Gana.

Curso “Raça e Tecnologias Digitais de Comunicação” acontece em março

Desenvolvi um curso sobre “Raça e Tecnologias Digitais de Comunicação: das redes sociais aos algoritmos“. A atividade tem como objetivo apresentar um panorama do debate sobre raça, racismo, branquitude e negritude nas tecnologias digitais de comunicação em quatro encontros. O conteúdo abordará o histórico e estudos da tecnologia e mídias sociais até bibliografia acadêmica, mapeamento de casos e pesquisas empíricas e mercadológicas recentes sobre plataformas e algoritmos. Usaremos como referencial publicações afrocentradas, incluindo a coletânea “Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos”, que será lançada início de março! Clique abaixo para saber mais e se inscrever:

Newsletter Desvelar: conhecimento sobre tecnologia e sociedade

Que tal receber semanalmente uma lista curada e comentada de notícias, artigos, vídeos e referências sobre tecnologia e sociedade? E o melhor: com ênfase em abordagens decoloniais e afrodiaspóricas? Esta é a newsletter da Desvelar, que foi lançada no último dia 09. Clique abaixo para ler a primeira e se inscreva:

Premiação de Jornalismo incentiva o technochauvinismo do Estadão e Microsoft

Qual o limite entre as decisões e direcionamento editoriais quanto a aspectos narrativos e de reportagem de fatos do jornalismo e a seleção de técnicas e ferramentas aparentemente neutras? Que o Estadão é um veículo que frequentemente representa o pior que há no jornalismo brasileiro é algo pouco questionável mas e sobre o excelente trabalho técnico das equipes de jornalismo de dados e infografia?

Gostaria de tratar aqui de um caso que me chocou nas eleições passadas. O Estadão buscou usar uma técnica de “inteligência artificial” para supostamente medir em tempo real as emoções dos candidatos durante o debate presidencial. No dia do debate comentei no Twitter sobre os problemas da matéria, mas para minha surpresa o projeto foi indicado ao Prêmio de Inovação em Jornalismo de Dados do Data Journalism Award em 2019.

(Clique para abrir no Wayback Machine)

Considerando o absurdo de uma matéria deste tipo ser indicada a um prêmio deste monte, vale adicionar algumas reflexões, comentários e dados para que jornalistas reflitam sobre o uso destas tecnologias.

Análise de emoções por visão computacional deveria ser estreada em um debate eleitoral à presidência? Este primeiro ponto é uma simples questão de responsabilidade. Assumindo por enquanto que a tecnologia tenha algum nível de precisão, será que os jornalistas deveriam fazer suas primeiras reportagens com a tecnologia justamente em algo tão relevante quanto um debate presidencial? A atribuição de juízos pode ser feita na imagem abaixo, por exemplo. Em trecho sobre Marina, afirma que a candidata “entra no grupo dos candidatos infelizes”.

Gráfico desenvolvido pelo Estadão

A atribuição a um grupo específico associa a imagem da candidata a valores que são rejeitados por eleitores (como inércia, fragilidade, falta de espontaneidade) a partir da avaliação de uma ferramenta automatizada. Até que ponto esta avaliação é justa?

Seduzidos pela quantidade de dados – que estão longe de se transformarem em informação -, os redatores chegam a falar de “depressão na reta final” ao comentar sobre a mensuração das supostas emoções do Álvaro Dias. A empolgação com a tecnologia leva a outros absurdos conceituais sobre emoções e condições mentais que nos fazem lembrar que a reportagem não incluiu um psicólogo entre os redatores, caso típico de colonialismo de campo: a tecnologia é mais importante que os especialistas?

Um veículo jornalístico deveria depender um fornecedor que oferece seu serviço como “caixa preta”? A ideia de caixa preta na Engenharia e nos Estudos de Ciência e Tecnologia se refere a dispositivos ou sistemas que se baseiam em entradas (“inputs”) e saídas (“outputs”) sem que o usuário entenda o que acontece entre estas duas etapas. Mas como funciona em suas minúcias? Quais fatores estão sendo levados em conta? Boa parte dos sistemas de aprendizado de máquina caem nesta categoria, sobretudo os sistemas proprietários e fechados oferecidos através de APIs como a Microsoft.

A Microsoft tem histórico de erros terríveis com inteligência artificial e visão computacional. Isto não deveria ser levado em conta? Talvez o caso mais famoso de auditoria algorítmica seja o projeto Gender Shades de Joy Buolamwini e colaboradoras. Num dos primeiros estudos (realizado por Buolamwini e Timnit Gebru), as pesquisadoras identificaram que a Microsoft a taxa de acerto em classificadores de gênero, por exemplo, foi de 79,2% em mulheres de pele escura em comparação a 100% em homens de pele clara.

O estudo acima é um dos mais robustos na história da auditoria algorítmica e gerou diversos resultados, como alguma melhoria do sistema pela Microsoft e competidores. Mas são inúmeros os outros estudos que mostram os problemas interseccionais do uso de análise de emoções em tecnologias do tipo, como o trabalho de Laura Rhue:

Por que usar especificamente uma API comercial? E por que a Microsoft? Um ponto relevante é que análises similares ao que foi feito na reportagem podem ser feitas com conjuntos de deep learning como a TensorFlow. Não acredito que o jornalismo em sua área mais importante, política, deve se pautar por lobby de corporações, sobretudo estrangeiras. Para além disto, a Microsoft seria a melhor opção? Em projeto que o Andre Mintz e eu lideramos sobre image labelling, o produto da Microsoft esteve muito aquém de seus principais competidores, a IBM e a Google:

Como é possível ver acima, em projeto realizado em janeiro de 2019, o recurso de etiquetamento de imagens da Microsoft esteve muito atrás de seus principais competidores em datasets que analisamos. É importante olhar para este dado para lembrar que a análise de imagens é uma tarefa muito complexa e ideias de “neutralidade” ou “objetividade” são risíveis.

Análise (automatizada) de emoções deveria ser utilizada pelo jornalismo? Aqui é importante que eu esclareça que não tenho restrições à tecnologia de reconhecimento de emoções ou etiquetamento de imagens em si. Pelo contrário, além do projeto que referencio nas imagens acima também aplico a tecnologia em algumas áreas como análise de consumo e tendências para clientes de várias áreas. Mas jamais usaria para atribuir julgamentos de performance ou disposições a seres humanos em um evento tão relevante para o futuro do país.

Há muitas controvérsias sobre a efetividade das propostas do Paul Ekman, o psicólogo que inventou esta tipologia de emoções e suas técnicas para supostamente identificá-las, assim como sua metodologia para interrogar suspeitos. Expressões faciais não são universais como se pensava e Ekman usou literalmente a metáfora da “mina de ouro” para falar de sua pesquisa – ganhando milhões em aplicações questionáveis ideologicamente.

Em conclusão, acredito que tanto a idealização da matéria quanto a injusta indicação ao prêmio pelo Data Journalism Awards são exemplos do technochauvinismo. Este é um conceito proposto por Meredith Broussard no livro Artificial Unintelligence. Segundo Broussard, seria:

a crença de que mais “tecnologia” é sempre a solução. Tecnochauvinismo é frequentemente acompanhado por meritocracia neoliberal, defesa distorcida da “liberdade de expressão” para manter discurso de ódio; da ideia de que computadores seria objetivos e uma fé de que o mundo com mais computadores resolveriam problemas sociais.

Mais pirotecnia tecnológica não é a solução pro jornalismo, sobretudo em temas e eventos sensíveis, sobretudo quando se trata de normalizar o produto de corporações tecnológicas que estão bem longe da precisão. Uma premiação para a reportagem como a citada pode dar a impressão a jovens jornalistas que os campos da infografia, análise e visualização de dados devam ser um fim em si mesmos, independente dos impactos nocivos que possam trazer.

É preciso pensar no papel social não só do jornalismo “em si”, mas também como escolhe, aplica e reproduz tecnologias.