Avançando Literacia Racial na Tecnologia

Em inglês, a ideia de literacy (literacia) vai além da alfabetização sobre letramento de leitura e escrita. Trata-se da compreensão básica de um determinado campo, esfera de conhecimento ou de prática de modo a permitir que as pessoas vejam a realidade de forma crítica gerando autonomia. O título do documento Advancing Racial Literacy in Tech evoca este sentido, ao propor os necessários avanços da literacia racial na tecnologia, sobretudo em um momento em que a plataformização e algoritmização do mundo cria novas ameaças para grupos minorizados como as populações negras.

O projeto financiado pelo Data & Society, reúne diagnóstico e propostas de referências no tema: Jessie Daniels, uma das principais especialistas mundiais sobre racismo online, autora de livros como Cyber Racism; Mutale Nkonde, analista do Data & Society e uma das responsáveis pelo Algorithmic Accountability Act proposta para a Câmara dos Deputados dos EUA; e Darakhshan Mir, professora de Ciência da Computação na Bucknell University.

O subtítulo do documento evoca uma controvérsia sobre os estudos quanto a algoritmos e as várias linhas de atuação propostas por desenvolvedores, empresas, pesquisadores e afins. As autoras propõem que “ética, diversidade na contratação e treinamento sobre viés implícito não são suficientes”. Para adereçar os diferentes impactos raciais da tecnologia, seria preciso seguir três fundamentos:

  • Compreensão intelectual de como racismo estrutural opera em algoritmos, plataformas de mídias sociais e tecnologias ainda não desenvolvidas;
  • Inteligência emocional sobre como resolver situações racialmente estressantes em organizações e;
  • Compromisso na tomada de ação para reduzir danos a grupos racializados.

As autoras citam diversos casos de racismo algorítmico mapeados por ativistas e pesquisadoras para falar da compreensão intelectual sobre o racismo necessária para que o caminho da literacia racial na tecnologia seja trilhado. Alguns pontos são similares à perspectiva histórica da Teoria Racial Crítica: racismo é um problema atual, não apenas histórico; raça intersecta com classe, gênero e sexualidade; identidades raciais são aprendidas através de práticas sociais; um vocabulário é necessário para discutir raça, racismo e anti-racismo; códigos e práticas raciais precisam ser interpretados com precisão; e “Branquitude” tem um valor simbólico na sociedade.

Seguindo para a inteligência emocional necessária para as organizações, as autoras falam de cinco estágios graduais com quem é confrontado sobre os vieses racistas: Negação, Ausência, Confessional, Confortável e Transformacional. Basicamente esta trilha vai da Negação, o “Não vejo um problema” até o Transformacional, que seria o “Tenho o compromisso de agir para impedir os danos do racismo”. Aqui vejo algo similar. Na divulgação dos primeiros mapeamentos de minha tese tenho sido confrontado geralmente com negação impassível, quando não ataque direto. Então acredito que o debate sobre tecnologias justas deve necessariamente irmanar com o debate sobre raça e racismo no Brasil. Em trabalho recente usei o termo “dupla opacidade” justamente para tratar de como a negação tanto da conversa sobre os impactos sociais da tecnologia quanto sobre o caráter pervasivo do racismo estão ligados.

A seção a seguir fala das barreiras à literacia racial na tecnologia. O primeiro, que também já enfrentei na própria academia, é a noção errônea que “códigos e algoritmos são apenas matemática e matemática não pode discriminar“. Para as autoras isto leva a uma rejeição agressiva sobre os trabalhos que tratam de discriminação algorítmica.

Entre as iniciativas já em curso sobre ética no setor da tecnologia, as autoras identificam três abordagens comuns: investigação dos funis para os profissionais de grupos minoritários; apoio a iniciativas de “diversidade e inclusão”; e teste de vieses implícitos. Mas todas estas abordagens tem suas fragilidades. Vale sublinhar a inclusão de profissionais de grupos racializados como panaceia. Além de não representarem efetivamente sua proporção na população, há outros problemas sobre cultura corporativa e capacidade de transformação, como a Safyia Noble cita em seu livro ao falar do Black Girls Code do Google. As autoras do relatório explicam:

As pessoas na área de tecnologia nos disseram que falar sobre “diversidade e inclusão” é comumente um modo de evitar falra sobre temas raciais diretamente. Ao invés, as pessoas falam sobre “background” ou “experiência” ou “grupos sub-representados”, o que pode ocultar o quão sério é o problema do racismo sistêmico. E, para a pequena porcentagem de pessoas negras e latinas que são contratadas em empresas de tecnologia, elas enfrentam fardos múltiplos de ter de fazer o trabalho de literacia racial para seus colegas, supervisores e cultura corporativa.

Finalizando o relatório, as autoras falam de alguns passos e ações para o futuro. Como criar uma série de vídeo sobre literacia racial; desenvolver uma ferramenta de avaliação; propor currículos para disciplinas em ciência da computação; experimentos e pesquisas sobre literacia racial na tecnologia.

Para finalizar, segue um pequeno resumo do trabalho da Mutale Nkonde sobre o atraso do governo dos EUA em reagir e tentar entender o avanço da inteligência artificial, assim como passos futuros de sua pesquisa como etnografia no congresso para entender o que os times dos deputados e senadores efetivamente sabem sobre o tema:

Baixe o documento em https://racialliteracy.tech

O racismo por trás dos filtros do FaceApp e de outras tecnologias

Na última semana tive o prazer de conversar com a jornalista Beatriz Sans, do R7, sobre o caso recente da controvérsia em torno do FaceApp. A jornalista escreveu matéria muito interessante sobre o aplicativo e citou outros casos que tenho mapeados na Timeline. Você pode clicar abaixo para ver a reportagem e colo, em seguida, a íntegra das minhas respostas:

Por que o FaceApp pode ser considerado racista?

Em 2017 o FaceApp viralizou pela primeira vez e jornalistas e ativistas ingleses identificaram como o aplicativo tinha um filtro chamado “Hot”, que deixaria as selfies mais atraentes, que embranqueceu rostos de todos usuários, inclusive de usuários negros e indianos de forma aberrante.

Na pesquisa desenvolvo o conceito de “racismo algorítmico” para tratar de como sistemas e práticas racistas se manifestam em aplicativos e agentes artificiais. Em minha tese mapeio dezenas de casos explícitos como o do FaceApp, mas mais do que apontar um aplicativo ou outro, é importante entender como a desigualdade resultante de séculos de exploração, ainda vigentes, se desdobra também em tecnologias do cotidiano.

 

Quais são as preocupações que o usuário precisa ter ao usar esses aplicativos? De que forma essas imagens podem ser utilizadas no futuro? Quais são os principais problemas com o reconhecimento facial?

Eu defendo que as pessoas sejam cautelosas com procedimentos e aplicativos de processamento automático de conteúdo e inteligência artificial. Individualmente podem ter impactos negativos pontuais: no caso do FaceApp, insultos à estética e beleza não-europeia, por exemplo. Mas de modo mais amplo alguns destes aplicativos somam informações para o treinamento de sistemas de aprendizado de máquina que, posteriormente, podem ter desdobramentos nocivos.

O mais recorrente deles é o uso desses dados coletivos para sistemas de reconhecimento facial que ajudem projetos opressivos em países autoritários ou em declínio democrático. Por exemplo, nos EUA funcionários da Amazon estão protestando e tentando impedir que a empresa trabalhe para órgãos como o ICE que documenta e persegue imigrantes no país.

Outro uso em crescimento é a construção dos chamados deep fakes, que são simulações de fotografias e vídeos de pessoas que não existem ou de pessoas reais, mas em situações falsas. Podem e são usados para projetos de desinformação que se multiplicam em torno do mundo em controvérsias políticas.

Mesmo o reconhecimento facial para fins de identificação cotidiana em contextos democráticos e justos é criticado em torno do mundo. Muitos juristas e ativistas defendem que o uso de reconhecimento facial como tecnologia biométrica não deveria ser disseminado. Mas, ao contrário, já está sendo usado por polícias de todo o mundo – e de forma desastrosa.

Em estudo recente, se descobriu que 81% dos casos de reconhecimento de suspeitos na região de Londres foram errados. No Brasil algumas cidades estão usando o recurso e já há casos de erros documentados no Rio de Janeiro. Estas tecnologias não deveriam ser implementadas sem amplo debate com a sociedade e organizações de direitos civis.

 

Como o racismo algorítmico impacta em outras áreas da tecnologia?

Há casos documentados não só na comunicação e em plataformas de mídias sociais, mas em diversas áreas. Diversos sistemas de inteligência artificial para recrutamento já foram analisados como falhos neste sentido e um dos casos recentes mais chocantes foi da inovação na indústria automotiva.  Pesquisadores da George Institute of Technology mostraram que alguns sistemas de visão computacional usados em carros autônomos em desenvolvimento identificariam pedestres negros com menos precisão. Ou seja, literalmente teriam mais chance de ser atropelados se estes carros já estivessem circulando.

 

Como as empresas de tecnologia colaboram para a continuação do racismo?

Há três modos principais que são parte causa e parte consequência. O mais simples é no próprio viés de contratação de desenvolvedores, engenheiros e gerentes de produto em empresas de tecnologia de mídias sociais e/ou inteligência artificial. Dados do relatório EEO-1 Comissão Governamental de Igualdade no Emprego dos EUA mostram que os profissionais do Vale do Silício não representam a multiplicidade da população americana. Isto tem impactos nas plataformas e dispositivos pois, em consequência, abarcarão menos a diversidade de usos e usuários.

O segundo é a questão da omissão, em parte, resultante do primeiro motivo. Boa parte das manifestações de racismo algorítmico documentadas nos últimos anos se tratou de sistemas que intensificam procedimentos racistas por terem sido treinados com bases de dados criadas por sistemas enviesados, com pouca representatividade racial e cultural. Mas a omissão também é um problema relevante, uma vez que nem sequer foram testados corretamente antes de ir ao ar alguns sistemas problemáticos.

Por fim, um grande desafio é que o próprio modelo de negócio dessas empresas promove a ideia de que “tecnologias são neutras” quando não o são. Nos EUA há trabalhos fantásticos de auditoria e análise dessas plataformas por pesquisadoras de universidade de ponta, como Joy Buolamwini, Safiya Noble e Ruha Benjamim. Entretanto, criar sistemas efetivamente justos gera mais custos – então as plataformas defendem que são “apenas tecnologia” e não sistemas de mídia, com responsabilidade constitucional como tais.

 

Quais medidas podem ser tomadas para que as minorias não sofram com o racismo algorítmico?

A primeira medida, e mais importante, é compreender que a concentração midiática em poucas plataformas, sobretudo de empresas de tecnologia advindas dos países de sempre, não é positiva. Uma internet plural e diversa em tecnologias, sites e ambientes remedia os potenciais nocivos dessa concentração atual.

Além disso, tecnologias e ambientes digitais do tipo devem ser regulados pela sociedade, através de representantes em instituições civis, casas legislativas e órgãos governamentais. Sociedades saudáveis e democráticas olham para a inovação e tecnologia de forma responsável, buscando o bem comum.

Por fim, a ideia de “literacia midiática e algorítmica” busca promover o conhecimento sobre como mídias e tecnologias são consumidas e produzidas. Idealmente toda a sociedade deveria entender e poder analisar as tecnologias de uma forma crítica, não apenas pesquisadores acadêmicos e jornalistas especializados. Para democracias saudáveis no futuro, é indispensável que este tipo de reflexão esteja inclusa também no ensino básico.

 

Você pode citar outros exemplos de racismo algorítmico?

Gostaria de destacar dois deles. Em 2016, grupos americanos descobriram que o Facebook possui uma opção que permite excluir afro-americanos e asiático-americanos de anúncios em sua plataforma, inclusive pra categorias como habitação. Ao mesmo tempo, não permitia excluir caucasianos. O mais grave é que infringia claramente o chamado Fair Housing Act, criado nos anos 1960 para evitar discriminação racial na compra, aluguel e venda de imóveis nos EUA. O recurso ilegal ficou anos no ar, prejudicando a equidade no mercado imobiliário.

Talvez o caso mais famoso e grave, da área da justiça, foi o do COMPAS. O sistema tem um recurso de análise de probabilidade de reincidência que dá um escore de possibilidade preditiva de ex-infratores cometerem novos delitos. Foi descoberto que as recomendações eram enviesadas negativamente contra negros e suavizavam contra brancos. Ou seja, o COMPAS destruiu famílias ao encarcerar por mais tempo injustamente pessoas que cometeram pequenos delitos (como furto) simplesmente por serem negras.

 

Há alguma forma segura para pessoas negras e outras minorias que desejam participar das redes sociais e outros apps sem que sua privacidade seja violada?

No atual ecossistema midiático extremamente concentrado a resposta pode ser um simples “não”. Ou ao menos não com nomes, imagens e identidades reais. Mas ainda mais importante do que preservar a privacidade nestes ambientes, precisamos incentivar o uso múltiplo da internet. Websites pessoais, blogs, fóruns alternativos, wikis e sites de redes sociais locais e segmentados podem ajudar a reduzir a dependência das mesmas velhas mídias sociais.

“Tranças feias” e “tranças bonitas”: como Google intensifica racismo

Viralizou na última semana um exercício de interrogação crítica do buscador Google: basicamente pesquisar “tranças feias” e “tranças bonitas” e conferir quais imagens são destacadas na aba de resultados de imagens do buscador. Longe de ser algo pontual, estes casos, mecanismos e problemas no excelente livro de Safiya Noble “Algoritmos de Opressão: como mecanismos de busca reforçam o racismo“. Outros casos similares mantenho na minha Timeline do Racismo Algorítmico. Ontem falei com o jornalista Tiago Rugero, do blog do Ancelmo (O Globo) sobre a questão. Seguem minhas respostas:

Você considera esse um caso de racismo algorítmico?
Sim. Racismo não se trata apenas de xingamentos horrorosos contra uma minoria. Trata-se também da manutenção de desigualdades estruturadas e microagressões no cotidiano que podem ser resultado de como sistemas automatizados, como buscadores, reagem ao comportamento dos usuários. No caso que está sendo viralizado, sobre as tranças feias e bonitas, o buscador não apenas reflete percepções da sociedade, mas também pode intensificá-las ao repetir em massa sem responsabilidade. Se uma criança negra, por exemplo, vê estes resultados continuamente, sem ver outros conteúdos positivos, isto gera sentimentos negativos sobre sua estética e autoestima. Há vários pesquisadores e pesquisadoras em universidades internacionais, como Joy Buolamwini, Safiya Noble, Frank Pasquale, Cathy O’Neill, Sil Bahia, Sérgio Amadeu que tratam de impactos sociais dos algoritmos há anos, mas agora o debate se populariza.

As tecnologias não são neutras. Mas isto não quer dizer que são negativas ou positivas. Significa que podemos gerar esforços coletivamente para criar ambientes favoráveis a todas as pessoas. Algumas plataformas digitais já possuem esforços neste sentido. Microsoft e IBM, por exemplo, já reagiram a pesquisas sobre casos anteriores. É importante debater tudo isto entre desenvolvedores, sociedade, jornalistas e afins.

O que é racismo algorítmico?
O racismo algorítmico trata de entender como sistemas regidos por algoritmos podem tomar decisões negativas contra um grupo racial específico. Há casos mapeados em áreas claramente muito graves, como decisões judiciais automatizadas ou reconhecimento facial que podem gerar, por exemplo, a prisão injusta de uma pessoa inocente. Isto mostra a necessidade, já avançada em alguns países, de permitir a “auditoria algorítmica” para que sistemas contratados por governos sejam justos e não possam ser usados para fins nocivos.
Mas na comunicação também há problemas possíveis para milhões de pessoas, uma vez que hoje nós passamos a maior parte do nosso tempo em ambientes como Google e Facebook. Assim como acontece com a publicidade tradicional, a invisibilidade ou representação nociva de grupos minorizados deve ser debatida pois prejudica os grupos citados, a sociedade e a própria economia e consumo.
Na maioria dos casos, os estudos mostram que os problemas não são claramente “intencionais”. Não é um desenvolvedor racista, geralmente, que vai incluir aquelas decisões que prejudicarão alguém. Mas pecar por omissão pode ser tão negativo quanto por intenção. Por isto tanto a pressão pela transparência das plataformas quanto falar sobre casos como este é importante para gerar o debate que vai ajudar os próprios criadores destes ambientes a melhorar seus sistemas. O campo da inteligência artificial, de modo amplo, está desenvolvendo modos de treinar melhor os sistemas e desenhar melhor as interfaces para isto, com apoio também das humanidades, artes, sociólogos e jornalistas.

 

Horas depois, a Google emitiu uma nota, que reproduzo a seguir:

“Construir uma experiência de busca é um desafio complexo, dinâmico e em constante evolução. Como nossos sistemas encontram e organizam informações disponíveis na web, eventualmente, a busca pode espelhar estereótipos existentes na internet e no mundo real em função da maneira como alguns autores criam e rotulam seu conteúdo. Entendemos que pessoas de todas as raças, gêneros e grupos podem ser afetadas por essas representações. Compartilhamos essa preocupação e continuaremos trabalhando para melhorar os resultados de busca de imagens para todos nossos usuários.”

Esta pretensão de neutralidade, de que o buscador é “só uma tecnologia” está sendo combatida internacionalmente. Gostaria de destacar o artigo “Por que empresas de mídia insistem que não são empresas de mídia, por que estão erradas e por que isso importa“, de Philip Napoli e Robyn Caplan, que explicam como discursos tais como o acima são problemáticos.

Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código

Apresentei nesta última semana o artigo Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código no Simpósio da LAVITS, em Salvador. O trabalho compõe minha pesquisa de doutorado e parte da análise de ambientes como Facebook, Twitter, YouTube e marketplaces de aplicativos mobile, que são mecanismos centrais do capitalismo de vigilância. Os vieses algorítmicos e affordances racistas nestas plataformas digitais de publicidade estão sendo crescentemente analisados nos últimos 15 anos por pesquisadoras informadas por perspectivas variadas. Como resultado estão em desenvolvimento iniciativas de auditoria de algoritmos e plataformas, construção de datasets e procedimentos mais responsáveis, além de indicações regulatórias. A opacidade presente nas caixas-pretas dos grupos de sistemas automatizados e semi-automatizados baseados em algoritmos que regem visibilidade, classificação, vigilância e regras de uso nas plataformas digitais complexifica e dificulta esta investigação. Esta questão se aplica tanto ao desenho de processos internos quanto à configuração de algoritmos e é agravada pela ideologia da “cegueira racial”, tática que compõe historicamente do genocídio negro, que também é epistemológico.

O trabalho propõe colaborar ao campo de estudos sobre vieses algorítmicos ao aproximar a investigação sobre vieses raciais nos algoritmos de plataformas digitais ao conceito de microagressões raciais (Pierce, 1970). Estas seriam definidas como mensagens rotineiras que comunicam insultos e desprezo racial e podem ser apresentadas de forma verbal, comportamental ou ambientalmente contra grupos racializados. A pesquisa sobre microagressões raciais propõe modos de analisar, entender e combater este tipo de violência em contextos de socialização, midiáticos ou educacionais com o objetivo de minimizar o impacto na formação e pleno desenvolvimento de populações negras, entre outras. Aplicando a tipologia de microagressões proposta por Tynes et al (2018) a partir de Sue (2007) a mapeamento realizado pelo autor, o artigo discute casos de comunicação algorítmica racista em plataformas digitais ligando aspectos das plataformas a categorias e subcategorias propostas sobre microagressões.

Acesse o artigo completo no ResearchGate e confira mais publicações.

Interrogando Plataformas e Algoritmos Digitais

Acabou de ser publicado o ebook da edição 2018 do Congresso Nacional de Estudos Comunicacionais da PUC Minas Poços de Caldas. Fui um dos conferencistas e apresentei a palestra Interrogando Plataformas e Algoritmos Digitais. A publicação inclui um resumo da palestra que transcrevo abaixo logo depois do slideshow utilizado (confira também no ResearchGate). Ao final do post, referências e como citar.

A crença tanto em que os algoritmos estatísticos e softwares são neutros quanto a crença de que são substitutos da ciência são erradas em dimensão comparável apenas à sua aceitação por um número cada vez mais crescente de grupos sociais filiados à ideais neoliberais e tecnocráticos de eficácia e otimização de processos. Estas presunções de neutralidade dos algoritmos e sistemas automatizados em campos da comunicação, direito, segurança e políticas públicas (SILVEIRA, 2017) impactam efetivamente indivíduos e comunidades de modo relativo à distribuição de poder quanto às classes, gênero, raças e grupos sociais que os constroem e gerenciam. Quanto ao aspecto de racialização, podemos falar de uma opacidade dupla. De um lado os algoritmos – e a tecnologia de modo geral – são vistos como neutros, como se fossem construídos, desenvolvidos e performados independente do contexto e pessoas envolvidas. De outro, a ideologia da negação e invisibilidade da categoria social “raça” na sociedade como um todo impede consensos e avanços quanto à justiça e equidade de representação.

Esta construção possui tanto impactos diretos quanto indiretos, tal como o gap de capacidade de interpretação da realidade social, demográfica e política contemporâneas. Ecossistemas de plataformas e infraestruturas digitais como Google, Amazon, Facebook e Apple (chamados pelo acrônimo GAFA) construíram capacidades de análise de dados internos e externos que ultrapassam em muito o potencial de universidades de ponta e até de estados. E tudo isto sem as prerrogativas de transparência e accountability exigidas pelas populações da maioria das democracias. Investigar e entender os impactos de algoritmos e plataformas na democracia e nas populações é um desafio ainda mais – aparentemente – intransponível.

Estas perspectivas neoliberais ativistas tem sido centrais no reforço de lógicas que são “antidemocratic, anti-affirmative-action, antiwelfare, antichoice, and antirace discourses that place culpability for individual failure on moral failings of the individual, not policy decisions and social systems”, inclusive em esferas tecnológicas (NOBLE, 2018, pos.2781). A opacidade dos sistemas é vista de forma acrítica, desde que não traga malefícios para o sujeito em sua individualidade e fins pragmáticos. E quando acontece são vistas como responsabilidade do próprio indivíduo que deveria ser “gerente de si mesmo”, como acontece com os sistemas de autogestão de escores de créditos, cada vez mais pervasivos. Impactos no social e no comunitário são ignorados. A legitimidade das “data-driven decision-making hinges not only on the presumed objectivity of its methods, but on the unquestioned acceptance of productivity, performance, merit” (RIEDER, 2016a, p.51). É preciso, então, ver as atuais práticas em torno de big data e análise pervasiva dos indivíduos com olhares multiculturais. Os dados, como “a medium or representational form and envelops data science within a cultural matrix. Data criticism also tackles data science’s idealistic view of data head-on, in addition to its self-proclaimed democratic leanings and liberalism” (BEATON, 2016, p.368).

A chamada à crítica dos dados e plataformas vai ao encontro do que Dardot e Laval (2017) diagnosticam como uma falta de compreensão das relações entre as condutas dos neossujeitos e as formas de controle, vigilância e análise exercidas na suposta hiper-racional contemporaneidade. Alertam que é preciso “examinar de perto tecnologias de controle e vigilância de indivíduos e populações, sua medicalização, o fichar, o registro de seus comportamentos, inclusive os mais precoces” (DARDOT & LAVAL, 2017, pos.7932). Mesmo antes da popularidade esmagadora de plataformas como o Facebook, a ligação entre inteligência artificial e pilares do neoliberalismo, como o capital financeiro, podem ser sentidas como aponta Achille Mbembe, ao descrever como este, “simultaneamente força viva e criadora […] e processo sangrante de devoração […] aumentou descontroladamente a partir do momento em que os mercados bolsistas escolheram apoiar-se na inteligência artificial para optimizar movimentos de liquidez” (MBEMBE, 2017, p.30).

Neste sentido, acreditamos ser essencial a realização de esforço de pesquisa e atuação crítica na realidade para combater os vieses não só algorítmicos, mas também a opacidade destes vieses fruto da lógica neoliberal que glorifica corporações de tecnologia do Vale do Silício enquanto deixa sujeitos atomizados em busca de uma autogestão cada vez mais opressiva. E levando em conta o “contrato racial” (MILLS, 2014) que cria processos de racialização nas mais diferentes esferas sociais com objetivos de dominação, é preciso esforço conjunto para entender a fundo novas tecnologias como plataformas de comunicação e suas relações com dados e inteligência artificial.

As proposições que estão surgindo nos últimos anos para interrogar as plataformas e sistemas algorítmicos merecem circulação e aplicação em diferentes contextos (BROCK, 2016; RIEDER, 2016; OSOBA & WELSER VI, 2017; SILVEIRA, 2017; NOBLE, 2017; WILLIAMS, BROOKS & SHMARGAD, 2018; BUOLAMWINI & GEBRU, 2018), sendo ainda raras as proposições que levam em conta a estruturação do racismo na sociedade ocidental e como impacta produções de centros de tecnologia como o Vale do Silício.

A Teoria Racial Crítica (Critical Race Theory), fruto e atuante nos movimentos de direitos civis desde a década de 60, aplicada no Brasil por estudiosos do Direito e da Educação, merece o seu lugar também na Comunicação. É baseada em pilares de compreensão da sociedade especialmente úteis para compreender os pontos de contato entre opacidade algorítmica e invisibilidade dos processos de racialização, tais como: compreensão desta como de relações raciais hierarquizadas estruturantes e estruturadas pelo racismo; percepção da ordinariedade do racismo nas mais diferentes esferas sociais, econômicas, políticas e biopolíticas; a convergência interseccional do determinismo material dos interesses de grupos dominantes; a visão das relações raciais como construção social; e, por fim, a TRC é agente efetiva no combate da opressão racial (CRENSHAW, GOTANDA & PELLER, 1995; MATSUDA et al, 1993; DELGADO, STEFANCIC & HARRIS, 2017).

Vemos estes esforços como um trabalho internacional em progresso e propomos três estratégias para reunir a colaboração da Teoria Racial Crítica ao estudo dos algoritmos: a) análise crítica, localizada e com consciência racial das particularidades do contexto brasileiro, onde entram também hierarquias de dominação imperialistas mediadas pelo Vale do Silício e cultura de startups; b) uso de colaborações das ciências sociais, humanidades digitais e computação social para entender e interrogar as plataformas; e c) uso de métodos mistos (JOHNSON & ONWUEGBUZIE, 2004), incluindo também mapeamento, engajamento de profissionais e ativistas para compreender toda a rede produtiva a partir de um olhar da economia política de produção dos algoritmos e sistemas. A governança algorítmica tende a ser cada vez mais presente e comunicadores e cientistas sociais devem mergulhar na temática para agir junto a desenvolvedores e legisladores pra analisar danos individuais, discriminação ilegal e práticas injustas, perda de oportunidades, perdas econômicas e estigmatização social.

Referências

BEATON, Brian. How to Respond to Data Science: Early Data Criticism by Lionel Trilling. Information & Culture, v. 51, n. 3, p. 352-372, 2016.

BROCK, André. Critical technocultural discourse analysis. New Media & Society, p. 1461444816677532, 2016.

BUOLAMWINI, Joy; GEBRU, Timnit. Gender shades: Intersectional accuracy disparities in commercial gender classification. In: Conference on Fairness, Accountability and Transparency. 2018. p. 77-91.

CRENSHAW, Kimberlé; GOTANDA, Neil; PELLER, Garry. Critical race theory: The key writings that formed the movement. The New Press, 1995.

DARDOT, Pierre; LAVAL, Christian. A nova razão do mundo. Boitempo Editorial, 2017.

DELGADO, Richard; STEFANCIC, Jean. Critical race theory: An introduction. NYU Press, 2017.

JOHNSON, R. Burke; ONWUEGBUZIE, Anthony J. Mixed methods research: A research paradigm whose time has come. Educational researcher, v. 33, n. 7, p. 14-26, 2004.

MATSUDA, Mari J.; LAWRENCE III, Charles R.; DELGADO, R.; CRENSHAW, Kimberlè W. Words That Wound – Critical Race Theory, Assaultive Speech, and the First Amendment. Nova Iorque: Routledge, 1993.

MBEMBE, Achille. Políticas da Inimizade. Lisboa (Portugal: Antígona, 2017.

MILLS, Charles W. The racial contract. Cornell University Press, 2014.

NOBLE, Safiya Umoja. Algorithms of Oppression: How search engines reinforce racism. NYU Press, 2018.

OSOBA, Osonde A.; WELSER IV, William. An intelligence in our image: The risks of bias and errors in artificial intelligence. Rand Corporation, 2017.

RIEDER, Bernhard. Big Data and the Paradox of Diversity. Digital Culture & Society, v. 2, n. 2, p. 39-54, 2016a.

SILVEIRA, Sérgio Amadeu da. Tudo sobre Tod@s: redes digitais, privacidade e venda de dados pessoais. São Paulo: Edições Sesc, 2017.

WILLIAMS, Betsy Anne; BROOKS, Catherine F.; SHMARGAD, Yotam. How algorithms discriminate based on data they lack: Challenges, solutions, and policy implications. Journal of Information Policy, v. 8, p. 78-115, 2018.

 

Como citar
SILVA, Tarcízio. Interrogando Plataformas e Algoritmos Digitais. In: Congresso Nacional de Estudos Comunicacionais da PUC Minas, 2018, Poços de Caldas, Minas Gerais, Brasil. Anais do 3 CONEC Congresso Nacional de Estudos Comunicacionais da PUC Minas, 2018. p. 32-26. Disponível em < https://conec.pucpcaldas.br/wp-content/uploads/2019/06/anais2018.pdf >