Discriminação algorítmica: desafios interdisciplinares

No último 5 de maio pude fazer a mediação do debate “Discriminação algorítmica: desafios interdisciplinares“, proposto em minha curadoria no projeto Renascença do Diplomacia para Democracia. Convidei Carla Vieira (perifaCode, USP e Google Developer Expert em Machine Learning), Bianca Kremer (Doutora PUC-Rio; pesquisadora FGV-Rio; Fellow Coding Rights) e André Mintz (UFMG, R-EST/UFMG e GAIA/USP) para responder as seguintes perguntas, respectivamente: Como a Computação pode Combater a Discriminação Algorítmica? Como o Direito pode Combater a Discriminação Algorítmica? Como a Arte pode Combater a Discriminação Algorítmica?

Assista abaixo:

Da mesma série, também faz parte o debate Desafios Globais por uma Internet Saudável.

Reconhecimento facial deve ser banido. Veja dez razões:

As tecnologias digitais baseadas em inteligência artificial para ordenação e vigilância de cidadãos no espaço público ganham mais mercado devido à evolução técnica e barateamento na última década. Vigilância e persecução de suspeitos por reconhecimento facial não é algo novo mas tem recebido mais atenção tanto por questões técnicas que aumentam o acesso a tais recursos, inclusive através de lobby das corporações de big tech, quanto pelo avanço de ideologias violentas de extrema-direita.

No Brasil, tecnologias do tipo estão sendo implementadas por governos de diferentes espectros ideológicos, como Bahia, São Paulo e Rio de Janeiro para citar alguns exemplos. A principal tecnologia que busca normalizar o estado completo de vigilância potencial é o reconhecimento facial, proposta e defendida em diversos níveis do executivo e legislativo. Estudo promovido pela Intervozes mostrou que “dentre os 26 prefeitos de capitais empossados em janeiro de 2021, 17 apresentaram propostas que, de algum modo, preveem o uso das tecnologias de informação e comunicação na segurança pública”.

O compromisso público contra a tecnologia requer urgência, uma vez que quanto mais gasto público é aplicado em infraestruturas do tipo, mais seu uso é normalizado e difícil se torna o combate à sua implementação contínua e perene.

1) Reconhecimento facial e visão computacional são técnicas altamente imprecisas, em especial sobre pessoas racializadas
Reconhecimento facial e visão computacional para identificação de objetos em imagens e vídeos são tecnologias altamente imprecisas, com amplo histórico de erros com impactos violentos que desrespeitam os direitos humanos. Os frequentes erros em tecnologias do tipo e similares levaram estudiosos de vários locais no mundo a elaborarem o conceito de “racismo algorítmico” . Sobre reconhecimento facial, alguns exemplos anedotais ou de pesquisas estruturadas: softwares da IBM, Microsoft, Amazon e outros erram mais em imagens de mulheres negras; órgão estadunidense identificou que sistemas de biometria visual erram de 10 a 100 vezes mais com imagens de pessoas negras ou asiáticas; Google marca ferramentas em mão negra como arma; Instagram bloqueia anúncio mostrando favela por “conter armas” que não existem na imagem. Veja os casos na Linha do Tempo do Racismo Algorítmico.

Especificamente sobre casos de erros do reconhecimento facial para segurança pública, campo com pouquíssima transparência, há documentação de violências ocasionadas por erros vulgares por todo o mundo, como Salvador, Rio de Janeiro, Londres, Michigan etc. Em Londres, uma das poucas implementações com auditoria e pesquisa transparentes, o público foi erroneamente identificado em 96% dos casos.

2) A seletividade penal é norma nas polícias e judiciário brasileiros
A seletividade penal é norma nas polícias brasileiras, construídas desde o seu início como ferramentas de controle de populações vulneráveis e manutenção de relações de exploração e subjugação de classe, racialmente e patriarcalmente definidas. Adicionalmente, a polícia “erra” com mais frequência contra pessoas negras e pobres. Portanto, mesmo se sequer tomarmos uma posição explicitamente abolicionista, não podemos apoiar a implementação de mais mecanismos de promoção do encarceramento. Mesmo se tivéssemos tecnologias “precisas” de reconhecimento facial, tais vão contra projetos humanos de sociedade por avançar o encarceramento de pessoas, em grande parcela através de punição por crimes sem vítima.

Os dados sobre pessoas presas por reconhecimento facial no Brasil não são transparentes, mas organizações como o Centro de Estudos de Segurança e Cidadania levantaram que 90,5% das prisões realizadas com a tecnologia foram de pessoas negras.

3) Tecnologias digitais vistas como “neutras” ou “objetivas” favorecem ainda mais excessos de policiais
Alguns estudos emergentes descobriram que a percepção popular – e errônea – de que tecnologias digitais são neutras favorecem excessos de policiais, que agem impulsivamente aos primeiros sinais ou indícios oferecidos pelas tecnologias. A mediação tecnológica também cria mais barreiras entre suspeitos e policiais, promovendo ainda mais a desumanização ao tirar possibilidades de remediação face a face na relação social.

Dois casos sobre reconhecimento que exemplificam o problema: em prisão de homem em Michigan, o suspeito precisou mostrar repetidamente aos policiais o quanto a foto do homem nas imagens da câmera de segurança em nada se parecia nem com ele nem com a sua foto da base de dados. Apesar disso, os policiais custaram a questionar a autoridade do sistema computacional .

Em etnografia realizada na implementação do sistema de reconhecimento em Londres, pesquisadores observaram que policiais desrespeitavam os protocolos construídos para decidir se a abordagem seria realizada ou não. Segundo o estudo, era comum “oficiais de rua não esperarem pelo processo de decisão na sala de controle – um claro exemplo de presunção em favor da intervenção” , reforçando o perigo da relação violenta de tais tecnologias com a cultura policial, independente da precisão ou imprecisão da análise de reconhecimento.

4) O mercado de inteligência artificial esconde o funcionamento de seus sistemas usando a defesa por “segredo de negócio” ou “inexplicabilidade algorítmica”
Técnicas de inteligência artificial cresceram em complexidade a partir de lógicas conexionistas de aprendizado profundo em aprendizado de máquina. Uma das características deste avanço é a escala de cálculo de correlações entre dados e resultados desejados no sistema que não permite auditoria humana detalhada. Apesar de não permitir a plena compreensão humana das “decisões” do sistema , são usadas assim que cumprem objetivos de negócio. Os impactos comumente são percebidos apenas muito depois da implementação, por jornalistas ou grupos de defesa de direitos humanos.

Vinculado a esta lógica, as grandes corporações de tecnologia rechaçam auditorias algorítmicas ao alegarem “segredo de negócio”. Poucas decisões judiciais buscando reparação de dados firmam a posição pela transparência.

5) Tecnologias do tipo no espaço público pressupõem e fortalecem sociedade vigilantista
Mesmo desconsiderando os fatores acima, a disseminação de tecnologias de vigilância ubíquas e pervasivas favorece uma compreensão da sociedade e espaço público como lugar de suspeição contínua e indiscriminada. O impacto da aceitação da vigilância pervasiva para a saúde do tecido social é um fator ainda desconhecido, que pode promover ainda mais a demonização do espaço público e da rua.

6) Não podemos pressupor boa-fé de corporações de tecnologia
A última década demonstrou inúmeros casos de vínculos problemáticos de corporações de tecnologia – responsáveis por sistemas de inteligência artificial, tecnologias biométricas, dispositivos digitais ou armazenamento de dados – a projetos autoritários e imperialistas. Da influência do Facebook no Brexit e eleições americanas, extremismo digital no YouTube e lobby da Google no Conselho Administrativo de Defesa Econômica, a relação de corporações big tech ou startups de tecnologia com projetos autoritários e eugenistas é comum.

Devido à incompreensão do valor dos dados e colonialismo digital, instituições públicas brasileiras recorrem a usar serviços de tais organizações, pondo não só cidadãos como a própria soberania nacional em risco. Entre exemplos recentes, estão: o relatado pela pesquisa Educação Vigiada, sobre a exportação os dados de universidades e secretarias de educação brasileiras; o uso de servidor Oracle pelo TSE nas eleições 2020; e vazamento de dados de 533 milhões de usuários de Facebook em todo o mundo .

7) Vazamentos de dados vitimam empresas de tecnologias de todos os portes
Mesmo se os argumentos anteriores não estivessem presentes, o vazamento de dados por invasão criminosa de servidores ou problemas técnicos é um risco que desencoraja a permissão do acúmulo de dados massivos, em especial se biométricos. Casos cada vez mais frequentes de vazamento de dados são descobertos e instituições brasileiras que devem abordá-los ou puni-los são coniventes com projetos de privatização do estado. Em eventuais e prováveis vazamento de dados sensíveis como biometria e informações genéticas, o dano à sociedade é irreversível e imprevisível.

8) A infraestrutura de vigilância aumenta potencial violento de projetos autoritários
A disseminação de tecnologias de vigilância estabelecida no espaço público mesmo que seja aplicada apenas para fins do que é considerado hoje socialmente adequado em termos de segurança pública e persecução penal, cria potenciais violentos em governos antidemocráticos. A infraestrutura estabelecida em contextos com alguma garantia institucional pode ser facilmente arma de potencial inédito de dano em ditaduras ou guerras civis.

9) A imprecisão da tecnologia e infrações de direitos humanos são mais intensas para pessoas trans
A ideologia de produção de sistemas de inteligência artificial, em especial o reconhecimento facial, se calca em ideologias patriarcais, eurocêntricas e normativas sobre corpo, sexualidades e gênero. Pesquisadoras da Coding Rights apontam que tecnologias do tipo “reiteram e reforçam estereótipos de gênero ao classificar os rostos a partir de critérios definidos na própria criação das bases de dados que, em geral, são enviesadas tanto nas políticas de gênero, quanto nas políticas raciais” .

10) O custo-benefício para captura de condenados não justifica a coleta massiva
Na milionária implementação de reconhecimento facial em Londres, as bases reuniam fotos de mais de 2.400 suspeitos que geraram apenas 8 prisões. Dados proporcionais ainda piores são reportados no Brasil, onde gigantesca infraestrutura de reconhecimento facial foi implementada na Micareta de Feira de Santana, Bahia, coletando e vulnerabilizando 1,3 milhões de rostos para o cumprimento de apenas 18 mandados.

Imagem do card: https://www.flickr.com/photos/electronicfrontierfoundation/39225139155

Por outros imaginários sociotécnicos

[Texto originalmente publicado na revista Observatório Itaú Cultural, n.28 para dossiê sobre Cultura, Artes e Pandemia]

As tecnologias de todos os tipos são moldadas por contextos históricos, sociais e ideológicos. Não existem tecnologias neutras implementadas em vácuos sociais assépticos: a própria ausência ou presença de um artefato abre ou restringe possibilidades e usos. As tecnologias hegemônicas implementadas em um mundo absurdamente desigual, fruto da interseção da supremacia branca, patriarcado e colonialismo tendem a ser suas reprodutoras. A crise de um mundo em aparente suspensão na pandemia nos faz perguntar: há um futuro melhor pós-pandemia com os aprendizados que podemos acumular?

Um trabalho duro e focado em prol da transformação social é tanto uma questão de economia, política e ativismo quanto o é de construção de imaginários. Aquelas são questões que vão muito além do que pensamos ser o escopo da materialidade da tecnologia ou da ciência. São questões que tratam do que somos capazes de imaginar sobre o possível, o impossível e o desejável.

Provavelmente devemos deixar de lado a ideia de uma lança cortante em direção a um futuro único e com mais e mais progresso através do domínio e subjugação da natureza. Essa ficção ideológica subjaz as sociedades industriais e pós-industriais do capitalismo ocidental. Ela moldou como a ciência e como a arte pensam o próprio passado: um dos cortes mais memoráveis do cinema faz o espectador ligar a descoberta primitiva do uso de um osso como porrete, a suposta gênese da tecnologia, à nave espacial desbravadora do universo, suposto zênite tecnológico da humanidade.

Mas há outras narrativas e abordagens sobre a gênese da tecnologia. A partir dos estudos da antropóloga Elizabeth Fisher, a escritora de ficção científica Ursula K. Le Guin nos ensina que uma tecnologia essencial para a construção da sociedade foi subestimada nos modos hegemônicos de contar a história da humanidade e as estórias dos humanos. Le Guin lembra que “com ou antes da ferramenta que projeta energia, fizemos a ferramenta que traz energia para casa” (LE GUIN, 2017, pos. 2985) – e esta ferramenta é a aparentemente prosaica sacola.

O recipiente, o container e demais objetos para guardar e compartilhar marcaram um momento em que os seres humanos desenvolveram uma relação mais criativa com o tempo e consigo mesmos. As jornadas dos heróis individualistas, porém, historicamente não tiveram espaço para a centralidade destes artefatos. Se a contação de histórias, o storytelling nos discursos anglicistas, é linear com um fio narrativo que emula lanças ou flechas, só temos espaços para a histórica única, um perigo que nos alerta também a Chimamanda Adichie (2019), onde não há espaços para olhares feministas, africanos, indígenas, afrodiaspóricos, decoloniais da tecnologia.

Jurema Werneck concorda ao lembrar que a criação de satélites deslumbra, mas tecnologias de armazenamento, compartilhamento e transporte de alimentos e bens, foram invenções de mulheres na África nos passos essenciais de construção da humanidade (WERNECK, 2019). Mas enviar carros para a órbita ganha mais capas de jornais do que experiências inovadoras de segurança alimentar ou autogestão de comunidades periféricas. 

Precisamos falar do que conseguimos, enquanto sociedades, imaginar de soluções para o presente e o futuro sobre a relação entre tecnologia e sociedade. Evoco aqui a ideia de imaginários sociotécnicos, que são “visões de futuros desejáveis mantidas coletivamente, estabilizadas institucionalmente e publicamente performadas, incentivadas por compreensões compartilhadas de formas de ordem e vida social alcançáveis por e apoiadoras de avanços na ciência e tecnologia” (JASANOFF, 2015, p.19)

E quais são os imaginários sociotécnicos hegemônicos na sociedade brasileira? E para além disto: quais são os imaginários sociotécnicos “importados” nas tecnologias e ideologias dos outros países e culturas que vemos como referência de onde importamos tanto as tecnologias materiais quanto as epistemologias na produção de artefatos? O poeta e pesquisador Amiri Baraka faz uma contundente crítica às tecnologias ocidentais em seus projetos de moldar o mundo à suas próprias reproduções. Não são neutras pois poderiam ter seguido outros caminhos, outros modos de interação com o humano. Se olharmos para as formas das coisas e também para as dinâmicas sociais e culturais da tecnologia para além de tais formas, poderemos nos libertar de seu falso determinismo. Baraka nos lembra que a pólvora nasceu para fins medicinais, se transformou em beleza nos fogos de artifício na China, mas se globalizou como uma ferramenta da violência. Nos pede então que questionemos “o que as máquinas produzirão? O que alcançarão? Qual será sua moralidade? (BARAKA, 1965, p.158).

 Infelizmente, os dados históricos e movimentações mostram que Brasil e EUA se irmanam no que Ruha Benjamin chamou de “imaginação carcerária da tecnologia”. Para Benjamin, precisamos treinar nosso olhar para entender o desenvolvimento tecnocientífico para além da superfície material, observar e mapear “quem e o que é fixado no mesmo lugar – classificado, encurralado e/ou coagido, para permitir a inovação” (BENJAMIN, 2020, p.20). As tecnologias de rastreamento e controle dos cidadãos no espaço público e privado já estavam em crescimento, como mostram dados sobre o reconhecimento facial para policiamento e a profusão de erros técnicos, morais e legais (NUNES, 2019) mas a pandemia é usada como oportunidade para avançar a normalização desta e de outras tecnologias que promovem a restrição e o autoritarismo.

Tecnologias do social como plataformas de compartilhamento, do valor do comum no creative commons, do associativismo digital, movimento wiki e afins resistem para além do que recebe visibilidade nos oligopólios da tecnologia digital do Vale do Silício. O desencanto com a globalização tem muito a ver com essa distinção. Se os entusiastas da internet, das línguas e do transporte globalizados sonharam com os benefícios das trocas em redes massivas, não levaram em conta a dinâmica de conexão preferencial que seguiu a tendência do capital (o financeiro e o social) para acumulação e desigualdade. O coletivismo irmana abordagens feministas e afrofuturistas sobre a tecnologia em prol de projetos igualitários, diametralmente contra a lógica individualista da cultura de startup onde o winner takes all nada tem de meritocracia, apenas reprodução da capacidade de dumping dos mercados financeiros em projetos de automatização de desigualdades para concentração de capital através de aplicativos e plataformas.

Imaginários tratam tanto das lentes usadas para interpretar fenômenos e ações presentes – considerando interpretações do passado – quanto na definição de horizontes de possibilidades. Tecnologia vai muito além de dispositivos digitais. Falar de imaginários é falar também de inspirações e retroalimentações estéticas, afetivas e sociais como o afrofuturismo visto “como um mecanismo para focar discurso substanciador em táticas de produção como design especulativo estende as fronteiras das soluções plausíveis através do engajamento” (WINCHESTER III, 2019, p.56) efetivo com quem produz, usa, inventa e reapropria as tecnologias.

Uma proposição do afrofuturismo como ligada a desenhos e produção liberatórias, como design centrado no humano, inclusividade, frameworks anti-opressivos por padrão e intenção, além da ideação de artefatos pelas comunidades (WINCHESTER III, 2019) aproxima as iniciativas dos aprendizados paradoxais das periferias locais e mundiais. De comunidades periféricas brasileiras como Paraisópolis que já usava tecnologias afetivas, digitais (como vaquinhas online e mapeamentos alternativos do espaço urbano) e políticas em seus “presidentes de rua”, responsáveis por cuidar de grupos de famílias de modo distribuído, a aplicativos como o Market Garden que conecta pequenas feirantes e agricultoras a consumidoras no interior de Uganda, as rápidas e criativas inovações com impacto na proteção de vidas não serão vistas através dos valores de high tech ou disrupção dos grandes eventos de tecnologia. Estarão mais próximas das estórias  que nos dizem “o que as pessoas fazem e sentem, como as pessoas se relacionam com tudo o mais neste amplo e vasto recipiente, esta barriga do universo, este útero das coisas que foram, esta estória contínua” (LE GUIN, 2017, pos.3043) do comum, das pessoas comuns. Se rejeitarmos a centralidade do herói único, do conflito e da competição nas estórias que contamos sobre as tecnologias e o futuro, podemos pensar em um novo normal que dê o devido valor à solidariedade que reinventou tecnologias e redes durante a pandemia.

Fins do mundo já existiram em demasia para diferentes povos, como nos mostram as experiências da Porta do Não Retorno e o sequestro genocida através do Atlântico e nas Américas, que construíram a base cumulativa de valor que hoje desemboca nos oligopólios da tecnologia digital através do capital financeiro. Aílton Krenak, ao falar do fetiche ocidental sobre a ideia de fim do mundo, diz que se preocupa é com os brancos, uma vez que aprendeu “diferentes manobras que os nossos antepassados fizeram e me alimentei delas, da criatividade e da poesia que inspirou a resistência” (KRENAK, 2019, pos.135). Durante e pós-pandemia, nossos futuros possíveis mais igualitários estão pendentes fundamentalmente nas alianças globais que reconheçam e se inspirem no fato de que “as comunidades mais vulneráveis, de novo e de novo, por gerações, ao longo de centenas de anos, criaram beleza e resiliência na vida repetidamente” (NELSON, 2020, s.p.).

Finalizo a redação deste texto no dia em que mais um foguete de parceria público-privada dos EUA decola, alimentando a fantasia de colonização de outros planetas por um bilionário que defendeu o fim do isolamento social quando mais de 300 mil pessoas já estavam mortas pelo COVID-19 – para que suas fábricas de carro voltassem a funcionar. Não é a imaginação dos bilionários que permitirá a inovação em prol da diminuição das desigualdades. E não é o imaginário sociotécnico cartesiano, eurocêntrico, colonial e capitalista que nos salvará enquanto humanos.

Como citar?

SILVA, Tarcizio. Por outros imaginários sociotécnicos no novo normal. Revista Observatório Itaú Cultural, n.28, 2020, pp.37-41.

Referências

ADICHIE, Chimamanda. O perigo de uma história única. São Paulo: Companhia das Letras, 2019.

BARAKA, Imamu Amiri. Technology & Ethos. Raise, Race, Rays, Raze: Essays Since 1965, p. 155-158, 1965.

BENJAMIN, Ruha. Retomando nosso fôlego: Estudos de Ciência e Tecnologia, Teoria Racial Crítica e a imaginação carcerária. In: SILVA, Tarcízio. Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos. São Paulo: LiteraRUA, 2020.

JASANOFF, Sheila. Future Imperfect: Science, Technology, and the Imaginations of Modernity. In: JASANOFF, Sheila; KIM, Sang-Hyun (orgs.). Dreamscapes of modernity: sociotechnical imaginaries and the fabrication of power. Chicago (EUA): The University of Chicago Press, 2015.

LE GUIN, Ursula K. Dancing at the Edge of the Worlds: Thoughts on Words, Women, Places. Open Road+Grove/Atlantic, 2017.

KRENAK, Ailton. Ideias para adiar o fim do mundo. São Paulo: Editora Companhia das Letras, 2019.

NELSON, Alondra. Coronavirus Crisis And Afrofuturism: A Way To Envision What’s Possible Despite Injustice And Hardship. Entrevista concedida a Tonya Mosley, 04 de maio de 2020. Disponível em https://www.wbur.org/hereandnow/2020/05/01/afrofuturism-coronavirus

NUNES, Pablo. Maioria dos presos por reconhecimento facial são negros. Intercept, 21 de novembro de 2019. Disponível em https://theintercept.com/2019/11/21/presos-monitoramento-facial-brasil-negros/

WERNECK, Jurema. Entrevista ao Olabi – Encontro Mulheres Negras Pautando o Futuro. 2019. Disponível em https://www.facebook.com/olabimakerspace/videos/1972206733088143/

WINCHESTER III, Woodrow W. Engaging the Black Ethos: Afrofuturism as a Design Lens for Inclusive Technological Innovation. Journal of Futures Studies, 24(2), 2019.


Humor racista e resistência na mídia social brasileira – entrevista com Luiz Valério P. Trindade

O livro No Laughing Matter: Race Joking and Resistance in Brazilian Social Media foi recentemente lançado por Luiz Valério P. Trindade, doutor pela Univ. de Southampton, pela editora Vernon Press.

A pesquisa investiga o fenômeno social da construção e disseminação de discursos racistas coloniais contra mulheres negras em ascenção através do humor pejorativo nas mídias sociais. No livro, Luiz Valério P. Trindade adota numa perspectiva inovadora, explorando de forma complexa as camadas do que é visto como humor e revela as camadas das ideologias coloniais que permanecem no Brasil. A publicação do livro é de interesse especial pois vai contra ideias ainda promovidas de excepcionalismo e democracia racial no país.

Tive o imenso prazer e honra de escrever o prefácio, que pode ser baixado com a introdução e sumário. Quem conferiu nossa última coletânea teve a oportunidade de ler o Luiz Valério P. Trindade em português através do capítulo Mídias Sociais e a naturalização de discursos racistas no Brasil.

Gentilmente, o prof. Luiz Valério P. Trindade cedeu uma entrevista exclusiva para o blog! Leiam a seguir as respostas à questões desenhadas especialmente para cá:

Tarcízio Silva: Como o humor racista pode ser visto como uma performance da branquitude nas mídias sociais?

Luiz Valério P. Trindade: A disciplina estudo crítico de humor ainda é relativamente incipiente no Brasil e mais ainda no que diz respeito ao estudo do humor de cunho racista, enquanto nos EUA e Inglaterra se estuda este tema deste os anos 1960-70. Já no Brasil, Os principais trabalhos nesta área surgem a partir dos anos 1990 e tem adquirido mais corpo nos últimos 10 anos aproximadamente; e minha pesquisa de doutorado se insere neste cenário.

Contudo, um aspecto comum nos estudos desta disciplina consiste na característica ambígua do humor de cunho depreciativo. Ou seja, como o humor consiste em uma forma de comunicação socialmente aceita em grande parte das interações sociais, isso permite que muitas pessoas transmitam ideologias racistas e preconceituosas sem parecer flagrantemente racistas, xenófobas, intolerantes, etc. Afinal de contas, de acordo com seu ponto de vista, tudo não passa de uma ‘brincadeirinha’.

Sendo assim, para dar um exemplo ilustrativo, quando um humorista usa o Twitter para se referir a uma parlamentar negra e nordestina com uma piada do tipo “pensei que fosse a tia do café”, ele está transmitindo uma série de ideologias preconceituosas. Porém, como seu tuite provoca o riso coletivo, nem todo mundo consegue perceber o que está embutido ali. Acontece que este tipo de piada embute uma ideia de deslegitimização do papel social exercido por aquela mulher negra (Como assim? Ela é uma parlamentar?). Transmite também um estranhamento com relação à sua presença naquele espaço social historicamente dominado por homens brancos de classe média. Por fim, traz também um preconceito com relação ao seu lugar de origem. Ou seja, por ser uma mulher nordestina, é esperado que ela se engaje em profissões de pouca qualificação formal como, por exemplo, copeira.

Portanto, todos estes aspectos representam facetas da ideologia do branqueamento profundamente arraigadas no imaginário coletivo brasileiro, a qual normaliza uma série de atributos positivos a pessoas brancas e, em contrapartida, negativos e subalternos a pessoas negras. E o humor racista permite que se reforce e disseminem estas percepções de forma aberta nas redes sociais, porém, geralmente livre de críticas já que são encaradas como ‘brincadeirinhas’.

TS: As categorias encadeadoras de movimentações racistas online que você descobriu estão em sua maioria ligadas a marcadores de distinção exibidos nas mídias sociais. Essa descoberta parece ser outro indicador da fragilidade do conceito de “filtros bolha”, ainda tão em voga?

LVPT: Não vejo tanto o fenômeno da construção e disseminação de discursos racistas nas redes sociais sob o prisma de ‘filtros bolha’ como cunhado por Eli Pariser. Na verdade, o que observo em meus estudos é a manifestação do que se chama de ‘câmara de eco’, no sentido de que a disseminação de conteúdos racistas e depreciativos atrai inúmeras pessoas com pensamentos e ideologias convergentes e, por consequência, as redes sociais facilitam a amplificação do alcance de discursos desta natureza. Como esta tecnologia digital atua através de poderosas conexões entre seus usuários (os chamados nós das redes sociais) que crescem em proporções exponenciais, isso contribui para a rápida e instantânea disseminação do conteúdo (ou como se diz, popularmente, a viralização).

TS: Sua pesquisa inspirou movimentações de cobrança às plataformas de mídias sociais no Brasil. Inclusive sobre o Twitter, onde o discurso de ódio racista motivou relatórios até da Anistia Internacional. Como você vê as particularidades do ambiente em relação ao Facebook?

LVPT: Naturalmente que o Twitter e o Facebook possuem suas especificidades no que diz respeito à experiência de interação do usuário com a plataforma. No entanto, em se tratando de construção e disseminação de discursos racistas, não vejo muitas diferenças substanciais entre elas. Isso porque ambas capacitam os usuários defensores de ideologias supremacistas, xenófobas, etc. disseminarem conteúdos desta natureza de uma forma instantânea e ampla.

Além disso, é importante salientar também que, invariavelmente, este tipo de conteúdo transita através de diferentes plataformas. Ou seja, um usuário pode começar um ataque racista contra alguém, por exemplo, no Facebook e, muito rapidamente, aquele mesmo conteúdo pode estar circulando pelo Twitter, Instagram, WhatsApp e assim por diante.

Por fim, meus estudos revelaram também que conteúdos de cunho racistas podem, eventualmente, continuar a engajar usuários (tanto novos como recorrentes) por até três anos após a publicação original do post. Em outras palavras, discursos racistas transmitidos pelas redes sociais não se tornam ‘jornal do dia anterior’, o qual se utiliza somente para embrulhar peixe na feira. Pelo contrário, sua ‘vida útil’, por assim dizer, pode ser muito longa. A consequência desse fenômeno é a amplificação do impacto negativo daquele conteúdo racista e depreciativo na vida da pessoa que foi objeto do ataque (mesmo que ele tenha sido proferido na forma de piada).

TS: Considerando que a interface entre racismo/antirracismo, internet e tecnologias é um universo de pesquisa ainda – relativamente – pouco explorado pela perspectiva negra, quais boas questões você recomendaria para os pesquisadores em formação que acompanham o blog?

LVPT: Bem, as redes sociais ainda constituem uma tecnologia digital relativamente nova com menos de duas décadas de existência (ex.: o Facebook foi fundado em 2004 e o Twitter em 2006). Sendo assim, o campo de possibilidades de estudos é ainda bastante vasto e repleto de possibilidades. Em termos metodológicos, por exemplo, considero importante o desenvolvimento de mais estudos qualitativos que nos ajudem a compreender por que os fenômenos ocorrem de determinada forma. O que está embutido neles. Quais as motivações ideológicas por trás deles. Não quero com isso descartar ou minimizar a importância e validade de estudos de cunho quantitativo, mas sim sugerir uma abordagem que nem sempre tem sido suficientemente explorada. Recentemente tive conhecimento também de um novo campo de estudo chamado ‘black Twitter’ que me pareceu muito interessante e promissor.

Por fim, sugiro também que procurem explorar o fenômeno dos chamados bots nas redes sociais e seu impacto em regimes democráticos. Este tema veio à tona com muita força nas eleições presidenciais no Brasil em 2018 e também nos EUA. Já foram publicados estudos muito interessantes a este respeito, mas, até onde sei, a maioria em inglês. Portanto, ainda há bastante espeço para publicações e estudos em português explorando o fenômeno sob o contexto/realidade brasileira.

Acompanhem o trabalho do prof. Luiz Valério P. Trindade no Academia.edu, YouTube e Scholar

Entre a (des)inteligência artificial e a epistemologia da ignorância

O texto “Entre a (des)inteligência artificial e a epistemologia da ignorância” foi publicado em dossiê da Revista seLecT com o tema O Algoritmo. Editado por Giselle Beiguelman, inclui reportagens, artigos traduzidos e entrevistas sobre obras de referências no campo como Kate Crawford, Trevor Paglen, Adam Harvey, Maryam Gharavi, Sonya Rapoport e outros.

Acesse o texto pelo Issuu acima ou na página do site da Revista seLecT.