Humor racista e resistência na mídia social brasileira – entrevista com Luiz Valério P. Trindade

O livro No Laughing Matter: Race Joking and Resistance in Brazilian Social Media foi recentemente lançado por Luiz Valério P. Trindade, doutor pela Univ. de Southampton, pela editora Vernon Press.

A pesquisa investiga o fenômeno social da construção e disseminação de discursos racistas coloniais contra mulheres negras em ascenção através do humor pejorativo nas mídias sociais. No livro, Luiz Valério P. Trindade adota numa perspectiva inovadora, explorando de forma complexa as camadas do que é visto como humor e revela as camadas das ideologias coloniais que permanecem no Brasil. A publicação do livro é de interesse especial pois vai contra ideias ainda promovidas de excepcionalismo e democracia racial no país.

Tive o imenso prazer e honra de escrever o prefácio, que pode ser baixado com a introdução e sumário. Quem conferiu nossa última coletânea teve a oportunidade de ler o Luiz Valério P. Trindade em português através do capítulo Mídias Sociais e a naturalização de discursos racistas no Brasil.

Gentilmente, o prof. Luiz Valério P. Trindade cedeu uma entrevista exclusiva para o blog! Leiam a seguir as respostas à questões desenhadas especialmente para cá:

Tarcízio Silva: Como o humor racista pode ser visto como uma performance da branquitude nas mídias sociais?

Luiz Valério P. Trindade: A disciplina estudo crítico de humor ainda é relativamente incipiente no Brasil e mais ainda no que diz respeito ao estudo do humor de cunho racista, enquanto nos EUA e Inglaterra se estuda este tema deste os anos 1960-70. Já no Brasil, Os principais trabalhos nesta área surgem a partir dos anos 1990 e tem adquirido mais corpo nos últimos 10 anos aproximadamente; e minha pesquisa de doutorado se insere neste cenário.

Contudo, um aspecto comum nos estudos desta disciplina consiste na característica ambígua do humor de cunho depreciativo. Ou seja, como o humor consiste em uma forma de comunicação socialmente aceita em grande parte das interações sociais, isso permite que muitas pessoas transmitam ideologias racistas e preconceituosas sem parecer flagrantemente racistas, xenófobas, intolerantes, etc. Afinal de contas, de acordo com seu ponto de vista, tudo não passa de uma ‘brincadeirinha’.

Sendo assim, para dar um exemplo ilustrativo, quando um humorista usa o Twitter para se referir a uma parlamentar negra e nordestina com uma piada do tipo “pensei que fosse a tia do café”, ele está transmitindo uma série de ideologias preconceituosas. Porém, como seu tuite provoca o riso coletivo, nem todo mundo consegue perceber o que está embutido ali. Acontece que este tipo de piada embute uma ideia de deslegitimização do papel social exercido por aquela mulher negra (Como assim? Ela é uma parlamentar?). Transmite também um estranhamento com relação à sua presença naquele espaço social historicamente dominado por homens brancos de classe média. Por fim, traz também um preconceito com relação ao seu lugar de origem. Ou seja, por ser uma mulher nordestina, é esperado que ela se engaje em profissões de pouca qualificação formal como, por exemplo, copeira.

Portanto, todos estes aspectos representam facetas da ideologia do branqueamento profundamente arraigadas no imaginário coletivo brasileiro, a qual normaliza uma série de atributos positivos a pessoas brancas e, em contrapartida, negativos e subalternos a pessoas negras. E o humor racista permite que se reforce e disseminem estas percepções de forma aberta nas redes sociais, porém, geralmente livre de críticas já que são encaradas como ‘brincadeirinhas’.

TS: As categorias encadeadoras de movimentações racistas online que você descobriu estão em sua maioria ligadas a marcadores de distinção exibidos nas mídias sociais. Essa descoberta parece ser outro indicador da fragilidade do conceito de “filtros bolha”, ainda tão em voga?

LVPT: Não vejo tanto o fenômeno da construção e disseminação de discursos racistas nas redes sociais sob o prisma de ‘filtros bolha’ como cunhado por Eli Pariser. Na verdade, o que observo em meus estudos é a manifestação do que se chama de ‘câmara de eco’, no sentido de que a disseminação de conteúdos racistas e depreciativos atrai inúmeras pessoas com pensamentos e ideologias convergentes e, por consequência, as redes sociais facilitam a amplificação do alcance de discursos desta natureza. Como esta tecnologia digital atua através de poderosas conexões entre seus usuários (os chamados nós das redes sociais) que crescem em proporções exponenciais, isso contribui para a rápida e instantânea disseminação do conteúdo (ou como se diz, popularmente, a viralização).

TS: Sua pesquisa inspirou movimentações de cobrança às plataformas de mídias sociais no Brasil. Inclusive sobre o Twitter, onde o discurso de ódio racista motivou relatórios até da Anistia Internacional. Como você vê as particularidades do ambiente em relação ao Facebook?

LVPT: Naturalmente que o Twitter e o Facebook possuem suas especificidades no que diz respeito à experiência de interação do usuário com a plataforma. No entanto, em se tratando de construção e disseminação de discursos racistas, não vejo muitas diferenças substanciais entre elas. Isso porque ambas capacitam os usuários defensores de ideologias supremacistas, xenófobas, etc. disseminarem conteúdos desta natureza de uma forma instantânea e ampla.

Além disso, é importante salientar também que, invariavelmente, este tipo de conteúdo transita através de diferentes plataformas. Ou seja, um usuário pode começar um ataque racista contra alguém, por exemplo, no Facebook e, muito rapidamente, aquele mesmo conteúdo pode estar circulando pelo Twitter, Instagram, WhatsApp e assim por diante.

Por fim, meus estudos revelaram também que conteúdos de cunho racistas podem, eventualmente, continuar a engajar usuários (tanto novos como recorrentes) por até três anos após a publicação original do post. Em outras palavras, discursos racistas transmitidos pelas redes sociais não se tornam ‘jornal do dia anterior’, o qual se utiliza somente para embrulhar peixe na feira. Pelo contrário, sua ‘vida útil’, por assim dizer, pode ser muito longa. A consequência desse fenômeno é a amplificação do impacto negativo daquele conteúdo racista e depreciativo na vida da pessoa que foi objeto do ataque (mesmo que ele tenha sido proferido na forma de piada).

TS: Considerando que a interface entre racismo/antirracismo, internet e tecnologias é um universo de pesquisa ainda – relativamente – pouco explorado pela perspectiva negra, quais boas questões você recomendaria para os pesquisadores em formação que acompanham o blog?

LVPT: Bem, as redes sociais ainda constituem uma tecnologia digital relativamente nova com menos de duas décadas de existência (ex.: o Facebook foi fundado em 2004 e o Twitter em 2006). Sendo assim, o campo de possibilidades de estudos é ainda bastante vasto e repleto de possibilidades. Em termos metodológicos, por exemplo, considero importante o desenvolvimento de mais estudos qualitativos que nos ajudem a compreender por que os fenômenos ocorrem de determinada forma. O que está embutido neles. Quais as motivações ideológicas por trás deles. Não quero com isso descartar ou minimizar a importância e validade de estudos de cunho quantitativo, mas sim sugerir uma abordagem que nem sempre tem sido suficientemente explorada. Recentemente tive conhecimento também de um novo campo de estudo chamado ‘black Twitter’ que me pareceu muito interessante e promissor.

Por fim, sugiro também que procurem explorar o fenômeno dos chamados bots nas redes sociais e seu impacto em regimes democráticos. Este tema veio à tona com muita força nas eleições presidenciais no Brasil em 2018 e também nos EUA. Já foram publicados estudos muito interessantes a este respeito, mas, até onde sei, a maioria em inglês. Portanto, ainda há bastante espeço para publicações e estudos em português explorando o fenômeno sob o contexto/realidade brasileira.

Acompanhem o trabalho do prof. Luiz Valério P. Trindade no Academia.edu, YouTube e Scholar

Avançando Literacia Racial na Tecnologia

Em inglês, a ideia de literacy (literacia) vai além da alfabetização sobre letramento de leitura e escrita. Trata-se da compreensão básica de um determinado campo, esfera de conhecimento ou de prática de modo a permitir que as pessoas vejam a realidade de forma crítica gerando autonomia. O título do documento Advancing Racial Literacy in Tech evoca este sentido, ao propor os necessários avanços da literacia racial na tecnologia, sobretudo em um momento em que a plataformização e algoritmização do mundo cria novas ameaças para grupos minorizados como as populações negras.

O projeto financiado pelo Data & Society, reúne diagnóstico e propostas de referências no tema: Jessie Daniels, uma das principais especialistas mundiais sobre racismo online, autora de livros como Cyber Racism; Mutale Nkonde, analista do Data & Society e uma das responsáveis pelo Algorithmic Accountability Act proposta para a Câmara dos Deputados dos EUA; e Darakhshan Mir, professora de Ciência da Computação na Bucknell University.

O subtítulo do documento evoca uma controvérsia sobre os estudos quanto a algoritmos e as várias linhas de atuação propostas por desenvolvedores, empresas, pesquisadores e afins. As autoras propõem que “ética, diversidade na contratação e treinamento sobre viés implícito não são suficientes”. Para adereçar os diferentes impactos raciais da tecnologia, seria preciso seguir três fundamentos:

  • Compreensão intelectual de como racismo estrutural opera em algoritmos, plataformas de mídias sociais e tecnologias ainda não desenvolvidas;
  • Inteligência emocional sobre como resolver situações racialmente estressantes em organizações e;
  • Compromisso na tomada de ação para reduzir danos a grupos racializados.

As autoras citam diversos casos de racismo algorítmico mapeados por ativistas e pesquisadoras para falar da compreensão intelectual sobre o racismo necessária para que o caminho da literacia racial na tecnologia seja trilhado. Alguns pontos são similares à perspectiva histórica da Teoria Racial Crítica: racismo é um problema atual, não apenas histórico; raça intersecta com classe, gênero e sexualidade; identidades raciais são aprendidas através de práticas sociais; um vocabulário é necessário para discutir raça, racismo e anti-racismo; códigos e práticas raciais precisam ser interpretados com precisão; e “Branquitude” tem um valor simbólico na sociedade.

Seguindo para a inteligência emocional necessária para as organizações, as autoras falam de cinco estágios graduais com quem é confrontado sobre os vieses racistas: Negação, Ausência, Confessional, Confortável e Transformacional. Basicamente esta trilha vai da Negação, o “Não vejo um problema” até o Transformacional, que seria o “Tenho o compromisso de agir para impedir os danos do racismo”. Aqui vejo algo similar. Na divulgação dos primeiros mapeamentos de minha tese tenho sido confrontado geralmente com negação impassível, quando não ataque direto. Então acredito que o debate sobre tecnologias justas deve necessariamente irmanar com o debate sobre raça e racismo no Brasil. Em trabalho recente usei o termo “dupla opacidade” justamente para tratar de como a negação tanto da conversa sobre os impactos sociais da tecnologia quanto sobre o caráter pervasivo do racismo estão ligados.

A seção a seguir fala das barreiras à literacia racial na tecnologia. O primeiro, que também já enfrentei na própria academia, é a noção errônea que “códigos e algoritmos são apenas matemática e matemática não pode discriminar“. Para as autoras isto leva a uma rejeição agressiva sobre os trabalhos que tratam de discriminação algorítmica.

Entre as iniciativas já em curso sobre ética no setor da tecnologia, as autoras identificam três abordagens comuns: investigação dos funis para os profissionais de grupos minoritários; apoio a iniciativas de “diversidade e inclusão”; e teste de vieses implícitos. Mas todas estas abordagens tem suas fragilidades. Vale sublinhar a inclusão de profissionais de grupos racializados como panaceia. Além de não representarem efetivamente sua proporção na população, há outros problemas sobre cultura corporativa e capacidade de transformação, como a Safyia Noble cita em seu livro ao falar do Black Girls Code do Google. As autoras do relatório explicam:

As pessoas na área de tecnologia nos disseram que falar sobre “diversidade e inclusão” é comumente um modo de evitar falra sobre temas raciais diretamente. Ao invés, as pessoas falam sobre “background” ou “experiência” ou “grupos sub-representados”, o que pode ocultar o quão sério é o problema do racismo sistêmico. E, para a pequena porcentagem de pessoas negras e latinas que são contratadas em empresas de tecnologia, elas enfrentam fardos múltiplos de ter de fazer o trabalho de literacia racial para seus colegas, supervisores e cultura corporativa.

Finalizando o relatório, as autoras falam de alguns passos e ações para o futuro. Como criar uma série de vídeo sobre literacia racial; desenvolver uma ferramenta de avaliação; propor currículos para disciplinas em ciência da computação; experimentos e pesquisas sobre literacia racial na tecnologia.

Para finalizar, segue um pequeno resumo do trabalho da Mutale Nkonde sobre o atraso do governo dos EUA em reagir e tentar entender o avanço da inteligência artificial, assim como passos futuros de sua pesquisa como etnografia no congresso para entender o que os times dos deputados e senadores efetivamente sabem sobre o tema:

Baixe o documento em https://racialliteracy.tech

“Tranças feias” e “tranças bonitas”: como Google intensifica racismo

Viralizou na última semana um exercício de interrogação crítica do buscador Google: basicamente pesquisar “tranças feias” e “tranças bonitas” e conferir quais imagens são destacadas na aba de resultados de imagens do buscador. Longe de ser algo pontual, estes casos, mecanismos e problemas no excelente livro de Safiya Noble “Algoritmos de Opressão: como mecanismos de busca reforçam o racismo“. Outros casos similares mantenho na minha Timeline do Racismo Algorítmico. Ontem falei com o jornalista Tiago Rugero, do blog do Ancelmo (O Globo) sobre a questão. Seguem minhas respostas:

Você considera esse um caso de racismo algorítmico?
Sim. Racismo não se trata apenas de xingamentos horrorosos contra uma minoria. Trata-se também da manutenção de desigualdades estruturadas e microagressões no cotidiano que podem ser resultado de como sistemas automatizados, como buscadores, reagem ao comportamento dos usuários. No caso que está sendo viralizado, sobre as tranças feias e bonitas, o buscador não apenas reflete percepções da sociedade, mas também pode intensificá-las ao repetir em massa sem responsabilidade. Se uma criança negra, por exemplo, vê estes resultados continuamente, sem ver outros conteúdos positivos, isto gera sentimentos negativos sobre sua estética e autoestima. Há vários pesquisadores e pesquisadoras em universidades internacionais, como Joy Buolamwini, Safiya Noble, Frank Pasquale, Cathy O’Neill, Sil Bahia, Sérgio Amadeu que tratam de impactos sociais dos algoritmos há anos, mas agora o debate se populariza.

As tecnologias não são neutras. Mas isto não quer dizer que são negativas ou positivas. Significa que podemos gerar esforços coletivamente para criar ambientes favoráveis a todas as pessoas. Algumas plataformas digitais já possuem esforços neste sentido. Microsoft e IBM, por exemplo, já reagiram a pesquisas sobre casos anteriores. É importante debater tudo isto entre desenvolvedores, sociedade, jornalistas e afins.

O que é racismo algorítmico?
O racismo algorítmico trata de entender como sistemas regidos por algoritmos podem tomar decisões negativas contra um grupo racial específico. Há casos mapeados em áreas claramente muito graves, como decisões judiciais automatizadas ou reconhecimento facial que podem gerar, por exemplo, a prisão injusta de uma pessoa inocente. Isto mostra a necessidade, já avançada em alguns países, de permitir a “auditoria algorítmica” para que sistemas contratados por governos sejam justos e não possam ser usados para fins nocivos.
Mas na comunicação também há problemas possíveis para milhões de pessoas, uma vez que hoje nós passamos a maior parte do nosso tempo em ambientes como Google e Facebook. Assim como acontece com a publicidade tradicional, a invisibilidade ou representação nociva de grupos minorizados deve ser debatida pois prejudica os grupos citados, a sociedade e a própria economia e consumo.
Na maioria dos casos, os estudos mostram que os problemas não são claramente “intencionais”. Não é um desenvolvedor racista, geralmente, que vai incluir aquelas decisões que prejudicarão alguém. Mas pecar por omissão pode ser tão negativo quanto por intenção. Por isto tanto a pressão pela transparência das plataformas quanto falar sobre casos como este é importante para gerar o debate que vai ajudar os próprios criadores destes ambientes a melhorar seus sistemas. O campo da inteligência artificial, de modo amplo, está desenvolvendo modos de treinar melhor os sistemas e desenhar melhor as interfaces para isto, com apoio também das humanidades, artes, sociólogos e jornalistas.

 

Horas depois, a Google emitiu uma nota, que reproduzo a seguir:

“Construir uma experiência de busca é um desafio complexo, dinâmico e em constante evolução. Como nossos sistemas encontram e organizam informações disponíveis na web, eventualmente, a busca pode espelhar estereótipos existentes na internet e no mundo real em função da maneira como alguns autores criam e rotulam seu conteúdo. Entendemos que pessoas de todas as raças, gêneros e grupos podem ser afetadas por essas representações. Compartilhamos essa preocupação e continuaremos trabalhando para melhorar os resultados de busca de imagens para todos nossos usuários.”

Esta pretensão de neutralidade, de que o buscador é “só uma tecnologia” está sendo combatida internacionalmente. Gostaria de destacar o artigo “Por que empresas de mídia insistem que não são empresas de mídia, por que estão erradas e por que isso importa“, de Philip Napoli e Robyn Caplan, que explicam como discursos tais como o acima são problemáticos.

Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código

Apresentei nesta última semana o artigo Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código no Simpósio da LAVITS, em Salvador. O trabalho compõe minha pesquisa de doutorado e parte da análise de ambientes como Facebook, Twitter, YouTube e marketplaces de aplicativos mobile, que são mecanismos centrais do capitalismo de vigilância. Os vieses algorítmicos e affordances racistas nestas plataformas digitais de publicidade estão sendo crescentemente analisados nos últimos 15 anos por pesquisadoras informadas por perspectivas variadas. Como resultado estão em desenvolvimento iniciativas de auditoria de algoritmos e plataformas, construção de datasets e procedimentos mais responsáveis, além de indicações regulatórias. A opacidade presente nas caixas-pretas dos grupos de sistemas automatizados e semi-automatizados baseados em algoritmos que regem visibilidade, classificação, vigilância e regras de uso nas plataformas digitais complexifica e dificulta esta investigação. Esta questão se aplica tanto ao desenho de processos internos quanto à configuração de algoritmos e é agravada pela ideologia da “cegueira racial”, tática que compõe historicamente do genocídio negro, que também é epistemológico.

O trabalho propõe colaborar ao campo de estudos sobre vieses algorítmicos ao aproximar a investigação sobre vieses raciais nos algoritmos de plataformas digitais ao conceito de microagressões raciais (Pierce, 1970). Estas seriam definidas como mensagens rotineiras que comunicam insultos e desprezo racial e podem ser apresentadas de forma verbal, comportamental ou ambientalmente contra grupos racializados. A pesquisa sobre microagressões raciais propõe modos de analisar, entender e combater este tipo de violência em contextos de socialização, midiáticos ou educacionais com o objetivo de minimizar o impacto na formação e pleno desenvolvimento de populações negras, entre outras. Aplicando a tipologia de microagressões proposta por Tynes et al (2018) a partir de Sue (2007) a mapeamento realizado pelo autor, o artigo discute casos de comunicação algorítmica racista em plataformas digitais ligando aspectos das plataformas a categorias e subcategorias propostas sobre microagressões.

Acesse o artigo completo no ResearchGate e confira mais publicações.

Apresentação sobre Visão Computacional e Vieses Racializados no COPENE

No último dia 29 de maio, apresentei no COPENE Nordeste o trabalho Visão Computacional e Vieses Racializados: branquitude como padrão no aprendizado de máquina, que fez parte da Sessão Temática “Branquitude, Representações e Mídia”. O slideshow já está disponível:

Em breve o artigo completo será publicado nos anais do evento. Acompanhe as publicações relacionadas no ResearchGate ou Lattes.