Black Mirror – Reflexões sobre o ontem para pensarmos o amanhã em Smithereens

No último 11 de novembro participei do ciclo de debates sobre episódios de Black Mirror promovido pelo Itaú Cultural, com mediação de Christian Dunker. O texto abaixo é uma adaptação da fala sobre o episódio Smithereens. O texto está repleto de spoilers, recomendo a leitura apenas para quem assistiu ao episódio.

Talvez um dos motivos do sucesso de Black Mirror e de boas narrativas de ficção científica é a ligação com temas contemporâneos. Através de referências, analogias, metáforas e outros mecanismos de linguagem, narrativas de ficção científica nos fazem pensar – muitas vezes de forma sutil, através da imaginação sobre o futuro e novas tecnologias, relações sociais ou mesmo outros planetas.

Não é o caso de Smithereens, um dos episódios de Black Mirror que poderia ter acontecido ontem. E de certa forma, aconteceu. O episódio não usa tecnologias disruptivas como realidade virtual imersiva, robôs autônomos e inteligência artificial completa. Trata de plataformas de mídias sociais, big data e os chamados – de forma cínica – “aplicativos de economia compartilhada”.

Black Mirror nos lembra, neste episódio, que muito do que a ficção científica discute são relações de poder e controle na sociedade – e o que temos hoje em aparatos sociotecnológicos pode ser assustador, se tivermos tempo para refletir.

Geralmente não temos tempo para esta reflexão. Precisamos cuidar das demandas do dia a dia e vamos sendo integrados quase inconscientemente aos fluxos de comportamento moldados pelas tecnologias eleitas pelo capitalismo ultra tecnológico.

Mas algo de diferente acontece no momento da crise, da controvérsia, de algo que nos tira da normalidade e do cotidiano. Frequentemente pode ser um evento traumático, como o gatilho para as ações do protagonista.  Cada episódio ou trecho de obras como Black Mirror pode ser analisado por várias óticas ou enquadramentos que tocam em variadas camadas de interpretação.

Gostaria de focar meu comentário tratando de cinco delas aqui, brevemente: a) capitalismo de plataforma; b) radicalização por dados; c) assimetrias do conhecimento; d) hierarquia da desconexão; e) e a dualidade entre o sintético e o afetivo.

 

CAPITALISMO DE PLATAFORMA E DESIGUALDADE SOCIAL

Um ponto central do episódio gira em torno das reflexões sobre o capitalismo de plataforma e sua relação com a desigualdade social. O protagonista ser motorista de um aplicativo, chamado Hitcher, tem uma dupla função. A primeira, narrativa, é que o põe em um local de privilégio para conseguir acessar o funcionário da Smithereens de forma verossímil.

A segunda função é a representação da uma mazela gigantesca no mundo atual: a concentração de renda e negócios por um punhado de empresas da tecnologia. Isto empurra pessoas para o desemprego ou informalidade glorificada em aplicativos de transporte, entrega e freelancers com condições cada vez piores.

Antes do título do episódio, o protagonista conversa com uma passageira que visitou a sede do Smithereens que comenta quanto dinheiro a organização possui – a tomada a seguir mostra o protagonista em um restaurante popular irritado com o excesso de uso dos smartphones.

Bem mais para a frente, o negociador fala de um possível motivador – raiva por ser alguém de alto intelecto e baixa renda, com uma espécie de inveja do Billy Bauer. O protagonista era um professor de TI que passou a ser motorista de aplicativo, sujeito às regras definidas de forma impessoal e entregues na tela do smartphone.

No final das contas, não era esse o principal motivador, mas a série mostra o acúmulo de problemas da relação entre cidadão e organizações apenas através de interfaces e algoritmos.

E estes problemas mesmo que não sejam todos relacionados a dinheiro, se multiplicam com a mediação que as plataformas fazem de nossa vida. Consumo de mídia, afetos, alimentação, transporte e outros são permeados e colonizados por plataformas que se tornam intermediárias em nossas vidas.

 

RADICALIZAÇÃO

Um terceiro ponto a ser discutido é a radicalização motivada pelo excesso, erro ou influência de dados e informações. Este tipo de radicalização individual motivada por informações ou métricas digitais tem histórico.

Um caso é o de Dylann Roof, terrorista americano que assassinou 9 pessoas numa igreja em Charleston em 2017. Dylann é o típico terrorista contemporâneo ocidental: branco, homem, jovem e frustrado por não conseguir aproveitar os privilégios de sua posição em um mundo cada vez mais desigual. Foi radicalizado pela internet em fóruns supremacistas brancos, mas um detalhe merece atenção. Foi descoberto que ele acessou desinformação sobre crimes entre brancos e negros nos Estados Unidos. Ao pesquisar termos como “assassinatos de brancos”, Dylann Roof recebeu sugestões na ferramenta do “Autocompletar” na busca da Google que davam a entender que o volume de mortes era muito maior do que o real. Em depoimento ao FBI, citou como motivação represália sobre este crimes. Aqui temos um exemplo claro, ainda que indireto, do potencial de dano que vieses na interface ou algoritmos podem ter.

Um pouco similar, mas não tão trágico, foi o caso de Nasim Aghdam, cidadã iraniana que vivia nos Estados Unidos já há mais de 25 anos. Nasim era uma produtora de conteúdo, sobretudo no YouTube, sobre temas variados: desejava ganhar a vida com conteúdo no YouTube sobre ativismo vegano e fitness. Publicava em 4 línguas diferentes e começou a ganhar notoriedade, mas o YouTube mudou as regras de monetização e seus vídeos pararam de gerar receita.

Depois de tentar mudar a situação e falar com alguém do YouTube para mostrar sua insatisfação, Nasim foi até a sede da plataforma, atirou em 3 pessoas e depois em si mesma, falecendo no local. Não houve nenhuma outra vítima fatal, mas o caso nos leva e pensar como a dualidade entre oportunidades e restrições oferecidas pelas mídias sociais pode ser problemática.

No episódio o caso da amiga do protagonista buscando informações sobre motivações de sua filha para tentar o suicídio é de cortar o coração. Assim como milhões de pessoas, não tem a possibilidade de burlar a interface. A plataforma tem suas regras de suposta “privacidade” que não permitem exceções, a não ser para otimizar os lucros das organizações.

Os “memoriais” são citados no episódio. Na medida em que mais e mais pessoas com presença online faleceram, as plataformas realizaram pesquisa e ofereceram a possibilidade de criação de memoriais com o passado online dessas pessoas. Controversos, os memoriais ainda que ajudem no luto de familiares, tem como resultado financeiro continuar a gerar visualizações e receita de anúncios para as plataformas. No caso do episódio e de muitos outros, o dado registrado continua importante, mas o sentimento do familiar tentando entender a questão, não.

 

ASSIMETRIAS DO CONHECIMENTO

Diretamente relacionado aos temas anteriores, temos também a questão essencial das assimetrias do conhecimento ou do acesso à informação atualmente. O episódio não inclui personagens fortes da polícia londrina e FBI por acaso.

A chefe da polícia londrina e o representante do FBI representam o poder público e estatal em contraposição ao poder comercial das plataformas. Em diversos momentos, as plataformas estão mais equipadas para tanto descobrir informações sobre o protagonista quanto para tomar decisões.

Pesquisadores e ativistas tem observado este fenômeno nos últimos 10 anos. Fala-se de redistribuição dos métodos na sociedade – se historicamente nos últimos séculos, a Igreja, Estado e a Universidade foram as instituições mais equipadas para analisar as populações, hoje são empresas comerciais ligadas a plataformas de mídias sociais, web e tecnologias digitais.

Isto cria desafios para a sociedade e democracia. Se governos e universidades não são capazes de interpretar a realidade social de forma tão precisa quanto organizações comerciais, o poder se direciona ainda mais para a busca desenfreada de lucros, custo o que custar.

Esta é uma crise que estamos vendo agora em diversas frentes. Golpes políticos, linchamentos, desinformação tem sido impulsionados por plataformas como Whatsapp e Facebook, mas estas plataformas alegam serem apenas tecnologia.

Porém, há muitas evidências e um enorme histórico que mostra como organizações como Facebook, Alphabet, Apple, Microsoft e Amazon realizam experimentos de engenharia social de forma constante.

Em 2013 um polêmico experimento realizado por cientistas do Facebook, entretanto, levantou questões sobre a ética sempre duvidosa da empresa: manipularam o feed de um grupo seleto de usuários para testar a influência de “positividade” e “negatividade” nas redes sociais.

Descobriram que, ao exibir menos publicações de caráter negativo (através de um sistema de identificação de termos negativos baseado num dicionário da língua inglesa), os usuários estavam mais propensos a compartilhar mensagens e/ou publicações positivas – e vice-versa, numa espécie de contágio social. O estudo envolveu quase 700 mil pessoas que não sabiam que estavam sendo estudadas e manipuladas. Este foi apenas um de dezenas de estudos publicizados por grupos como o do Facebook, mas a extensão dos experimentos não é conhecida.

A telinha da ferramenta analítica do usuário não é ficção científica. São informações comportamentais que efetivamente podem ser levantadas e cruzadas com milhões de outros pontos de dados. Identificação de palavras, padrões de uso, ausências, likes e amizades podem dizer muito.

 

HIERARQUIAS DA DESCONEXÃO

Temos então disrupções nas práticas éticas, acesso a dados e hierarquias. Assim como as hierarquias do conhecimento, as “Hierarquias da Conexão e da Desconexão” são outro ponto abordado indiretamente pelo episódio. O Billy Bauer, fundador da Smithereens, está num retiro de desconexão, quase inacessível.

Já há inúmeros relatos de como profissionais de tecnologia tem evitado o uso excesso de smartphones e mídias sociais no dia a dia; sobretudo na educação dos filhos.

Mas e quanto aos cidadãos “normais”? Aqui temos uma assimetria gigantesca. As pessoas na base da pirâmide econômica não podem deixar as plataformas digitais totalmente de lado, pois elas colonizaram quase todos os segmentos econômicos. Não ter presença digital ou não usar aplicativos no smartphone é quase impossível.

Numa das cenas finais, depois da aparente resolução da principal questão do episódio, temos um contraste. As cenas mostrando a população vendo a notícia derradeira sobre o sequestro inclui novamente um motorista de aplicativo, em contraste com o dono da Smithereens voltando a seu retiro de silêncio.

Para muitas pessoas não é possível ignorar as plataformas, a gestão do tempo e demandas com os aplicativos é uma questão de sobrevivência.

 

O SINTÉTICO E O AFETIVO

O episódio se encerra com uma reflexão sobre o sintético e o afetivo. Eu gosto muito do termo “sintético”. Originalmente se popularizou para falar de materiais produzidos artificialmente, desenvolvidos em laboratório, em contraposição a materiais extraídos diretamente da natureza como nylon, acrílico e poliestireno, que ficaram populares no século 20. Muitos trabalhos de ficção científica, como Blade Runner, usou o termo “sintético” para se referir a robôs autônomos e ciborgues.

O termo caiu em desuso, mas acho que vale resgatarmos sua raiz. A raiz de “síntese” vem de composição, reunir coisas para formar um todo que não é natural. Mas esta reunião geralmente significa que é um todo menor que suas partes.

Quando pensamos em big data é disto que estamos falando. Apesar de empresas similares à Smithereens conseguirem juntar centenas de dados de milhões de pessoas ao mesmo tempo para identificar um padrão e ter impacto, não significa que servirá para o indivíduo único.

A complexidade de um humano é muito maior do que um relatório que analise 100 milhões de humanos de uma vez só. Mas para os modelos de negócio das plataformas darem certo, os humanos são transformados em um punhado de rastros e traços que os simplificam – ainda que parecem muitos.

Vemos isto nas sugestões dadas a Billy Bauer no telefone, por psicólogos que usaram os dados da plataforma para conduzir a conversa.

Quando as primeiras sugestões dão errado, Billy Bauer é sincero de verdade pela primeira vez: ele não sabe o que responder sobre o relato do protagonista.

A partir daí uma conexão possível é realizada entre o Billy Bauer, que apesar de sua ganância e estar à frente da plataforma, é tolhido por toda a rede da corporação e capital financeiro que define as direções do ambiente.

 

Ao final, por fim, a metalinguagem coloca o toque final do episódio.  Durante 1 hora acompanhamos com ansiedade e suspense o desfecho. Será que Jaden sobreviverá? O que será que Gillhaney irá fazer? E pq a filha de Halley se suicidou?

Saber uma destas respostas nos daria uma descarga de emoção – alívio, raiva, indignação, surpresa… No mundo do episódio, o desfecho sobre Jaden e Gillhaney foi público. Impactou milhões de pessoas que acompanhavam, viciadas em emoções passageiras, e logo depois estas pessoas voltam a seus dia a dia.

Para elas apenas um post emocionante a mais. Para os envolvidos de fato, questão de vida ou morte. O desfecho nos faz lembrar disso: não precisamos ser voyeurs de tudo.

 

Leia mais sobre o tema:

Tecnologias Negras: ciclo no Sesc promove centenas de cursos, atividades e palestras em outubro

Durante outubro e novembro, as unidades do Sesc em São Paulo promoverão um ciclo de atividades sobre Tecnologias e Artes Negras com dezenas de cursos, palestras e oficinas. Segundo a organização, a iniciativa “objetiva articular e dar vazão à efervescente produção de artistas, pesquisadoras(es), intelectuais e mestras(es) do saber negras e negros, nos campos das Artes Visuais e Tecnologias, e, assim, estimular a difusão de práticas educativas não formais, pautadas pelo princípio da equidade. Dessa forma, visa demarcar um espaço democrático de discussão sobre campos presentes na cultura negra, tais como: Tecnologias e Ancestralidade; Tecnologias Digitais e Contemporâneas; Utopias, Distopias e Afrofuturismo; Tecnologias Invisibilizadas e de Resistência; e Estética, Crítica e História da Arte.

As atividades foram divididas em cinco grupos, ligados a adinkras específicos:

Nas mais de 30 unidades na capital e interior, as equipes dos Espaços de Tecnologias e Arte (ETA) fizeram curadoria ativa e abriram chamada para as atividades. É simplesmente gigantesca a programação e lembro que o Sesc possui fim social, então a maior parte das atividades é gratuita ou a preços acessíveis.  Sou curador e professor em uma atividade e participo de outra mesa:

Humanidades Digitais Negras – curso idealizado por mim, com aulas de Morena Mariah, Taís Oliveira, Larissa Pontes e Fernanda Sousa:

Descobrir, resgatar, conectar e visualizar produções históricas, narrativas, artísticas e epistemologias negras tem sido a missão de pesquisadoras e pesquisadores negros em todo o mundo. A atividade “Humanidades Digitais Negras” reunirá aulas e debates entre pesquisadoras/es das áreas da Comunicação, Mídia, Sociologia, Antropologia e Letras para apresentar o campo e suas práticas aos participantes.

Machine Learning, Algoritmos e Mecanismos de Discriminação. Idealizado pelo colega Rodolfo Avelino (Professor Insper, Pesquisador na UFABC e criador do Coletivo Digital), contará também com Fernanda Monteiro tecnóloga, artista digital, oraculista e pesquisadora independente, transitando de maneira “indisciplinar” entre a tecnopolítica, feminismos e transhumanismos; e comigo. Descrição:

Utilizados em larga escala atualmente pelos mais diversos serviços de internet e sistemas da informação, os algoritmos e máquinas orientadas por machine learning prometem uma maneira revolucionária de lidar com dados e criar serviços e plataformas dinâmicas que se adaptam facilmente aos desejos e necessidades de seus usuários. Mas o que acontece quando o desenvolvimento dessas ferramentas possui vieses ocultos, que incorporam e reforçam preconceitos ainda não solucionados em nossa sociedade?

Nem todas as atividades já tem as páginas com informações específicas e inscrições, mas você conferir toda a lista da programação. Difícil selecionar algumas em destaque, mas recomendo especialmente:

 

As ilustrações neste post foram retiradas da cartilha de programação do Sesc e foram criadas pelo Marcelo D’Salete, quadrinista autor de produções como Cumbe. O quadrinista também vai oferecer um curso – História em Quadrinhos.

Raça Depois da Tecnologia: ferramentas abolicionistas contra os novos racismos

Publicado em junho deste ano, o livro Race after Technology: Abolitionist Tools for the New Jim Code, de Ruha Benjamin, é uma louvável adição à atual geração de projetos de intelectuais negras estudando tecnologias da comunicação de um modo crítico e propositivo em busca de um futuro mais justo possível. Ruha Benjamin é antropóloga, doutora em sociologia, professora da Universidade de Princeton e fundadora do JUST Data Lab, além de pesquisadora associada em diversos institutos. Anteriormente publicou livro sobre as dimensões sociais da pesquisa em células tronco e também lançou este ano a coletânea Captivating Technology, sobre tecnociência carcerária e imaginação libertária.

O livro Race After Technology… tem como objetivo discutir as tecnologias digitais e algorítmicas a partir do que Benjamin chama de “Critical STS”, a junção da Teoria Racial Crítica (TRC) e dos Estudos de Ciência, Tecnologia e Sociedade. Para introduções à esta interface, recomendo dois trabalhos: acabei de finalizar um artigo que resume as colaborações da TRC à comunicação; e artigo da própria Ruha Benjamin sobre seu conceito de imaginação carcerária.

Na introdução, Benjamin parte de um exemplo curioso e pouco discutido de codificação indireta: os nomes e sobrenomes como atalhos para aspectos históricos e sociais. Benjamin cita diversos casos de uso de nomes africanos e afroamericanos como atalho para discriminação, de contratação a direcionamento perverso de anúncios. Benjamin usa estes casos cotidianos para lembrar que o cotidiano é codificado em vários aspectos e em suas várias esferas. Métricas, classificações e tecnologias tem políticas, das explícitas às implícitas. A autora evoca o conjunto de leis racistas chamadas de Jim Crow que vigoraram do século XIX à metade do XX nos EUA para propor o conceito de “New Jim Code” – um modo sistêmico e hostil de viés hostil e racista cada vez mais integrado e opaco nas tecnologias digitais.

No primeiro capítulo, Engineered Inequity (Desigualdade Projetada), Benjamin começa pelo caso de um concurso de beleza chamado Beauty AI, que supostamente analisava beleza de forma imparcial. Obviamente esta imparcialidade ou universalidade da beleza é absurda, mas o fato de que um projeto deste foi realizado em pleno 2016 diz muito. Como você pode imaginar, o sistema replicou conceitos de beleza racista e de 44 finalistas, 38 eram brancos. Benjamin segue por outros exemplos para mostrar como o aprendizado de máquina subjacente a estas tecnologias repete desigualdades sociais e culturais e suas concentrações. Em resumo, primeiro capítulo fala de como a desigualdade é replicada e intensificada na interseção de ignorância, omissão e, em alguns casos, intenção. Particularmente interessante neste capítulo é a reprodução de uma página de edição da revista Mechanix Illustrated de 1957, que previa robôs autônomos em breve, veja abaixo:

O texto é simplesmente assustador: “Escravidão está de volta! Todos nós teremos escravos de novo… que vão te vestir, pentear seu cabelo e servir refeições rapidamente. Mas não se alarme. Nós estamos falando de ‘escravos robôs.’” . Através deste e de outros casos, a autora discorre sobre as noções de poder que são evocadas ou projetadas no desenvolvimento de algumas tecnologias.

No segundo capítulo, Default Discrimination (Discriminação por Padrão), Benjamin vai se perguntar se a discriminação pervasiva nas tecnologias digitais é um glitch do sistema. Será que é um erro, que sai do padrão, ou podemos pensar em “discriminação por padrão”? Comparando tecnologias urbanas como o caso de Robert Moses e outros exemplos de arquitetura hostil a policiamento analógico e digital, Benjamin elabora sobre a anti-negritude como padrão na sociedade estadunidense. Lembra que temos de pensar raça em si como tecnologia:

Se considerarmos raça em si como tecnologia, como um modo de ordenar, organizar e desenhar uma estrutura social assim como a compreensão sobre a durabilidade da raça, sua consistência e adaptabilidade, nós poderemos entender mais claramente a arquitetura literal de poder.

No terceiro capítulo, Coded Exposure (Exposição Codificada), a autora se pergunta se a exposição/visibilidade codificada é uma armadilha. Aqui ela relembra casos de tecnologias que falham em ver pessoas negras, como já vimos sobre a pesquisa de Joy Buolamwini e diversos outros. A ideia de visibilidade é codificada também em diversas tecnologias e seu excesso ou falta são diretamente ligadas a dinâmicas raciais de poder.

Benjamin cita o famoso caso dos “Cartões Shirley” que eram usados como padrão para calibração de câmeras, explicando como a imagem de uma mulher branca deixou de ser o único cartão somente bem depois da consolidação da demanda mercadológica por afroamericanos. Entretanto, lembra que ao mesmo tempo disto, empresas como Polaroid ajudaram ativamente o sistema de apartheid na África do Sul, apoiando uma hiper-visibilidade criminosa contra a população negra no país. A partir do conceito polissêmico de exposição, então, Benjamin segue expondo variáveis políticas da branquitude, ciência, diferença e privacidade.

O quarto capítulo, Technology Benevolence (Benevolência da Tecnologia) pergunta se a “benevolência tecnológica vai nos consertar”? A questão é essencial pois, crescentemente, se fala sobre tecnologias como inteligência artificial como soluções para os problemas da sociedade. Não são as soluções, podem piorar os problemas e, em última instância, são mais nocivas pois ainda podem ocultar os problemas em tecnologias e algoritmos fechados e não-auditáveis.

Considerando as inúmeras iniciativas de promoção à “diversidade” e “igualdade” em grandes corporações de tecnologia, Benjamin estuda casos de iniciativas do tipo em empresas de mídias sociais, recrutamento, saúde e outras. Argumenta que essa ideia de “diversidade”

faz parte de um repertório maior de “happy talk”, que envolve a disposição para reconhecer e até valorizar diferença cultural sem desafiar seriamente a desigualdade estrutural sendo reproduzida.

Por fim, no quinto capítulo, de título Retooling Solidarity, Reimagining Justice (Reequipando Solidariedade, Reimaginando Justiça) pensa formas de resistência abolicionistas contra a imaginação carceral continuamente vinculada às tecnologias digitais. Mostra as fragilidades da promoção de “empatia” e de “design thinking” como solução colonizadora para problemas de desigualdade. Citando Paulo Freire, argumenta que “se a estrutura não permite diálogo, a estrutura deve ser mudada”.

Desenvolve a ideia de “auditoria algorítmica” que tem sido aplicada a diversos campos, com diferentes graus de amplitude e compromisso social. As auditorias devem ser independentes e ter poder regulador, algo que as grandes corporações tem evitado. Ruha Benjamin fala de um “toolkit abolicionista”, partindo do uso de dados como instrumentos de liberação desde as visualizações de Du Bois e estatísticas de Ida Wells-Barnett no século XIX até iniciativas recentes através de  diversos projetos que geram mais transparência, ativismo social a favor da regulação e ferramentas narrativas, que permitam contar as histórias de mais pessoas envolvidas e afetadas pelas tecnologias.

Benjamin chama à necessidade a criação de “toolkits abolicionistas” que permitam entender não só as tecnologias emergentes, mas também a sua produção, aplicação e interpretação dos dados. Um dos casos mais interessantes citados é o White Collar Crime Zones, um mapa interativo com o “rosto médio” e localização de criminosos de colarinho branco, o que nos lembra como a lógica de policiamento algorítmico em crimes urbanos é apenas um jeito enviesado de enquadrar a questão da criminalidade.

 

Para uma introdução em vídeo a seu pensamento, recomendo dois vídeos disponíveis gratuitamente. O primeiro fala da incorporação de ideias de design discriminatório de “bancos de parque” a “cadeiras de laboratório” e o segundo é uma aula sobre raça, ciência e subjetividade nos campos de genômica.

 

Para seguir aprendendo com a Ruha Benjamin, compre o livro Race After Technology, visite seu site e siga-a no Twitter.

Teoria Racial Crítica e Comunicação Digital?

Prof. Derrick Bell

A Teoria Racial Crítica é um framework teórico-metodológico proposto inicialmente por pesquisadores do Direito para combater a aplicação racista da legislação. A Teoria Racial Crítica (TRC) transpôs as fronteiras do Direito e tem sido aplicada em diversos países afrodiaspóricos à Educação, Sociologia e outras áreas como a Comunicação, mas ainda tangencial nesta última. Entretanto, há uma geração de pesquisadores que tem provado que a perspectiva da Teoria Racial Crítica fornece lentes apropriadas para superar o que eu chamo de dupla opacidade – “o modo pelo qual os discursos hegemônicos invisibilizam tanto os aspectos sociais da tecnologia quanto os debates sobre a primazia de questões raciais nas diversas esferas da sociedade – incluindo a tecnologia, recursivamente“.

Com o objetivo de colaborar para as conexões deste framework teórico, publiquei no Intercom 2019 o artigo “Teoria Racial Crítica e Comunicação Digital: conexões contra a a dupla opacidade“. O trabalho apresenta a Teoria Racial Crítica e discute do ponto de vista da comunicação digital e de casos de racismo algorítmico seis pilares definidores da TRC:

a) a ordinariedade do racismo;

b) construção social da raça;

c) interseccionalidade e anti-essencialismo;

d) reconhecimento do conhecimento experiencial;

e) agência no combate efetivo da opressão racial;

f) e a interdisciplinaridade

 

Você pode ler o artigo completo já no ResearchGate e em breve será publicada uma versão expandida como capítulo no livro “Fluxos em redes sociais sociotécnicas: das micro-narrativas ao big data