Humor racista e resistência na mídia social brasileira – entrevista com Luiz Valério P. Trindade

O livro No Laughing Matter: Race Joking and Resistance in Brazilian Social Media foi recentemente lançado por Luiz Valério P. Trindade, doutor pela Univ. de Southampton, pela editora Vernon Press.

A pesquisa investiga o fenômeno social da construção e disseminação de discursos racistas coloniais contra mulheres negras em ascenção através do humor pejorativo nas mídias sociais. No livro, Luiz Valério P. Trindade adota numa perspectiva inovadora, explorando de forma complexa as camadas do que é visto como humor e revela as camadas das ideologias coloniais que permanecem no Brasil. A publicação do livro é de interesse especial pois vai contra ideias ainda promovidas de excepcionalismo e democracia racial no país.

Tive o imenso prazer e honra de escrever o prefácio, que pode ser baixado com a introdução e sumário. Quem conferiu nossa última coletânea teve a oportunidade de ler o Luiz Valério P. Trindade em português através do capítulo Mídias Sociais e a naturalização de discursos racistas no Brasil.

Gentilmente, o prof. Luiz Valério P. Trindade cedeu uma entrevista exclusiva para o blog! Leiam a seguir as respostas à questões desenhadas especialmente para cá:

Tarcízio Silva: Como o humor racista pode ser visto como uma performance da branquitude nas mídias sociais?

Luiz Valério P. Trindade: A disciplina estudo crítico de humor ainda é relativamente incipiente no Brasil e mais ainda no que diz respeito ao estudo do humor de cunho racista, enquanto nos EUA e Inglaterra se estuda este tema deste os anos 1960-70. Já no Brasil, Os principais trabalhos nesta área surgem a partir dos anos 1990 e tem adquirido mais corpo nos últimos 10 anos aproximadamente; e minha pesquisa de doutorado se insere neste cenário.

Contudo, um aspecto comum nos estudos desta disciplina consiste na característica ambígua do humor de cunho depreciativo. Ou seja, como o humor consiste em uma forma de comunicação socialmente aceita em grande parte das interações sociais, isso permite que muitas pessoas transmitam ideologias racistas e preconceituosas sem parecer flagrantemente racistas, xenófobas, intolerantes, etc. Afinal de contas, de acordo com seu ponto de vista, tudo não passa de uma ‘brincadeirinha’.

Sendo assim, para dar um exemplo ilustrativo, quando um humorista usa o Twitter para se referir a uma parlamentar negra e nordestina com uma piada do tipo “pensei que fosse a tia do café”, ele está transmitindo uma série de ideologias preconceituosas. Porém, como seu tuite provoca o riso coletivo, nem todo mundo consegue perceber o que está embutido ali. Acontece que este tipo de piada embute uma ideia de deslegitimização do papel social exercido por aquela mulher negra (Como assim? Ela é uma parlamentar?). Transmite também um estranhamento com relação à sua presença naquele espaço social historicamente dominado por homens brancos de classe média. Por fim, traz também um preconceito com relação ao seu lugar de origem. Ou seja, por ser uma mulher nordestina, é esperado que ela se engaje em profissões de pouca qualificação formal como, por exemplo, copeira.

Portanto, todos estes aspectos representam facetas da ideologia do branqueamento profundamente arraigadas no imaginário coletivo brasileiro, a qual normaliza uma série de atributos positivos a pessoas brancas e, em contrapartida, negativos e subalternos a pessoas negras. E o humor racista permite que se reforce e disseminem estas percepções de forma aberta nas redes sociais, porém, geralmente livre de críticas já que são encaradas como ‘brincadeirinhas’.

TS: As categorias encadeadoras de movimentações racistas online que você descobriu estão em sua maioria ligadas a marcadores de distinção exibidos nas mídias sociais. Essa descoberta parece ser outro indicador da fragilidade do conceito de “filtros bolha”, ainda tão em voga?

LVPT: Não vejo tanto o fenômeno da construção e disseminação de discursos racistas nas redes sociais sob o prisma de ‘filtros bolha’ como cunhado por Eli Pariser. Na verdade, o que observo em meus estudos é a manifestação do que se chama de ‘câmara de eco’, no sentido de que a disseminação de conteúdos racistas e depreciativos atrai inúmeras pessoas com pensamentos e ideologias convergentes e, por consequência, as redes sociais facilitam a amplificação do alcance de discursos desta natureza. Como esta tecnologia digital atua através de poderosas conexões entre seus usuários (os chamados nós das redes sociais) que crescem em proporções exponenciais, isso contribui para a rápida e instantânea disseminação do conteúdo (ou como se diz, popularmente, a viralização).

TS: Sua pesquisa inspirou movimentações de cobrança às plataformas de mídias sociais no Brasil. Inclusive sobre o Twitter, onde o discurso de ódio racista motivou relatórios até da Anistia Internacional. Como você vê as particularidades do ambiente em relação ao Facebook?

LVPT: Naturalmente que o Twitter e o Facebook possuem suas especificidades no que diz respeito à experiência de interação do usuário com a plataforma. No entanto, em se tratando de construção e disseminação de discursos racistas, não vejo muitas diferenças substanciais entre elas. Isso porque ambas capacitam os usuários defensores de ideologias supremacistas, xenófobas, etc. disseminarem conteúdos desta natureza de uma forma instantânea e ampla.

Além disso, é importante salientar também que, invariavelmente, este tipo de conteúdo transita através de diferentes plataformas. Ou seja, um usuário pode começar um ataque racista contra alguém, por exemplo, no Facebook e, muito rapidamente, aquele mesmo conteúdo pode estar circulando pelo Twitter, Instagram, WhatsApp e assim por diante.

Por fim, meus estudos revelaram também que conteúdos de cunho racistas podem, eventualmente, continuar a engajar usuários (tanto novos como recorrentes) por até três anos após a publicação original do post. Em outras palavras, discursos racistas transmitidos pelas redes sociais não se tornam ‘jornal do dia anterior’, o qual se utiliza somente para embrulhar peixe na feira. Pelo contrário, sua ‘vida útil’, por assim dizer, pode ser muito longa. A consequência desse fenômeno é a amplificação do impacto negativo daquele conteúdo racista e depreciativo na vida da pessoa que foi objeto do ataque (mesmo que ele tenha sido proferido na forma de piada).

TS: Considerando que a interface entre racismo/antirracismo, internet e tecnologias é um universo de pesquisa ainda – relativamente – pouco explorado pela perspectiva negra, quais boas questões você recomendaria para os pesquisadores em formação que acompanham o blog?

LVPT: Bem, as redes sociais ainda constituem uma tecnologia digital relativamente nova com menos de duas décadas de existência (ex.: o Facebook foi fundado em 2004 e o Twitter em 2006). Sendo assim, o campo de possibilidades de estudos é ainda bastante vasto e repleto de possibilidades. Em termos metodológicos, por exemplo, considero importante o desenvolvimento de mais estudos qualitativos que nos ajudem a compreender por que os fenômenos ocorrem de determinada forma. O que está embutido neles. Quais as motivações ideológicas por trás deles. Não quero com isso descartar ou minimizar a importância e validade de estudos de cunho quantitativo, mas sim sugerir uma abordagem que nem sempre tem sido suficientemente explorada. Recentemente tive conhecimento também de um novo campo de estudo chamado ‘black Twitter’ que me pareceu muito interessante e promissor.

Por fim, sugiro também que procurem explorar o fenômeno dos chamados bots nas redes sociais e seu impacto em regimes democráticos. Este tema veio à tona com muita força nas eleições presidenciais no Brasil em 2018 e também nos EUA. Já foram publicados estudos muito interessantes a este respeito, mas, até onde sei, a maioria em inglês. Portanto, ainda há bastante espeço para publicações e estudos em português explorando o fenômeno sob o contexto/realidade brasileira.

Acompanhem o trabalho do prof. Luiz Valério P. Trindade no Academia.edu, YouTube e Scholar

Entre a (des)inteligência artificial e a epistemologia da ignorância

O texto “Entre a (des)inteligência artificial e a epistemologia da ignorância” foi publicado em dossiê da Revista seLecT com o tema O Algoritmo. Editado por Giselle Beiguelman, inclui reportagens, artigos traduzidos e entrevistas sobre obras de referências no campo como Kate Crawford, Trevor Paglen, Adam Harvey, Maryam Gharavi, Sonya Rapoport e outros.

Acesse o texto pelo Issuu acima ou na página do site da Revista seLecT.

Analisando mediações algorítmicas em bancos de imagens e APIs de visão computacional

O artigo “APIs de Visão Computacional: investigando mediações algorítmicas a partir de estudo de bancos de imagens” foi resultado de trabalho colaborativo em parceria com André Mintz, Janna Joceli Omena, Beatrice Gobbo, Taís Oliveira, Helen Tatiana Takamitsu, Elena Pilipets, Hamdan Azhar a partir da penúltima edição do SMART Data Sprint. Faz parte de dossiê “Instabilidade e Conflito das/nas Imagens” da revista Logos. Resumo:

O artigo apresenta resultados de estudo sobre Interfaces de Programação de Aplicações (API, na sigla em inglês) de visão computacional e sua interpretação de representações em bancos de imagens. A visão computacional é um campo das ciências da computação dedicado a desenvolver algoritmos e heurísticas para interpretar dados visuais, mas são ainda incipientes os métodos para sua aplicação ou investigação críticas. O estudo investigou três APIs de visão computacional por meio de sua reapropriação na análise de 16.000 imagens relacionadas a brasileiros, nigerianos, austríacos e portugueses em dois dos maiores bancos de imagens do ocidente. Identificamos que: a) cada API apresenta diferentes modos de
etiquetamento das imagens; b) bancos de imagens representam
visualidades nacionais com temas recorrentes, mostrando-se úteis
para descrever figurações típicas emergentes; c) APIs de visão
computacional apresentam diferentes graus de sensibilidade e
modos de tratamento de imagens culturalmente específicas.

Leia em https://www.e-publicacoes.uerj.br/index.php/logos/article/view/51523

Códigos, Programação e Antirracismo

Tive o prazer de mediar o debate Códigos, Programação e Antirracismo , com Carla Vieira e Andreza Rocha, no Ciclo de Debates “Racismo e antirracismo na atualidade” promovido pelo Núcleo de Estudos Africanos e Afrobrasileiros da UFABC. Discutimos os impactos racistas da algoritmização da vida e reações possíveis, desde o fortalecimento de pilares éticos nas comunidades de desenvolvedores a técnicas computacionais de explicabilidade de sistemas

Carla Vieira é Bacharel em Sistemas de Informação pela USP, mestranda em Inteligência Artificial pela USP, engenheira de software e Google Developer Expert em Machine Learning. Co-fundadora da perifaCode, buscando levar a tecnologia para dentro das periferias. Realiza divulgação científica através de seu canal no youtube (E AI, Carla?) com a missão de democratizar o acesso a tecnologia e Inteligência Artificial.

Andreza Rocha é ativista pela Diversidade & Inclusão racial em tecnologia, propõe conversas significativas sobre como a equidade de gênero e raça, além de práticas antirracistas, trazem inovação ao ambiente corporativo. Diretora de Operações e Diversidade na BrazilJS, plataforma de produção e curadoria de conteúdo voltada para comunidade de tecnologia. Com experiência de 15 anos na área de gestão de pessoas, fundou o Afroya Tech Hub : iniciativa global de projetos e diversidade para inserção, desenvolvimento e ascensão de talentos negros no ecossistema de TIC & Inovação.

Não deixe de acompanhar e assinar o canal do NEAB-UFABC, que já registra debates sobre “Black Lives Matter e a Questão Racial nos EUA“; “Internet na luta antirracista“; “Mulheres Negras, Racismo e Antirracismo” e outros.

Racismo algorítmico e proteção de dados

Nos últimos dias 26 e 27, foi realizado o Seminário Proteção de Dados e os Impactos Sociais na Escola Legislativa da ALERJ. Em duas mesas foram debatidos temáticas sobre proteção de dados, racismo algorítmico, reconhecimento facial e internet com a participação de pesquisadores do Direito, Comunicação, Segurança Pública e Engenharia.

Tive a honra de participar do primeiro dia de debate junto a Estela Aranha, jurista e presidente da Comissão de Proteção de Dados e Privacidade da OAB-RJ ; e Pablo Nunes, cientista político e coordenador do Centro de Estudos de Segurança e Cidadania (CESeC/UCAM). A mediação foi realizada por Ana Carolina Lima, idealizadora do AqualtuneLab:

No segundo dia, o debate “Tecnologia e Exclusão: os desafios para as políticas públicas” reuniu a professora Caitlin Mulholland, o tecnologista Diego Cerqueira (ITS) e Debora Pio, Gestora de Comunicação do NOSSAS, com mediação de Arthur Almeida.