Tecnologia & Ethos Negro – ensaio de Amiri Baraka

Amiri Baraka (1934-2014) foi um escritor, poeta, professor, ativista pan-africano e crítico musical precursor do hip-hop. Seu livro “Black Music” de 1967 é um marco na área. Através de sua atuação, propôs ideias particulares sobre combate ao racismo e colonialismo – mas é pouco conhecido seu ensaio sobre tecnologia, branquitude e um ethos especulativo do que poderia ser a tecnologia preta contemporânea.

No ensaio Technology & Ethos, de 1969, Baraka reflete sobre os aspectos políticos e raciais da tecnologia em argumentos que precederam muitas obras hoje vistas como basilares no tema. O texto original pode ser lido no site da artista Marilyn Nance, mas fiz uma tradução tentativa para apoiar estudantes que não leem inglês. Há algumas particularidades de supressão de letras e estruturas frasais que não fui capaz de traduzir/adaptar plenamente – então quem puder prefira ler o original. Segue:

Tecnologia & Ethos

Amiri Baraka

Máquinas (como Norbert Wiener disse) são uma extensão de seus inventores-criadores. Isto não é tão simples quanto parece. Máquinas e toda a tecnologia do Ocidente são apenas isto: a tecnologia do Ocidente.

Nada precisa parecer ou funcionar do jeito que faz. A liberdade do homem do Ocidente, que foi conquistada não-cientificamente às custas dos povos do resto do mundo, o permitiu expandir suas disposições mentais e sensibilidades onde quer que foram e assim moldaram o mundo e seus poderosos artefatos-motores.

Poder político também é o poder de criar – não apenas o que será criado de fato – mas a liberdade de ir onde quiser ir (mentalmente e fisicamente). Criação Preta – criação impulsionada pelo ethos Preto traz resultados especiais.

Imagine a si mesmo, um criador Preto, livre de amarras europeias que significam de início as amarras ao desenvolvimento mental autodeterminado. Pense quais seriam os resultados de gerações libertas de inventores-criadores com o apoio dos recursos de suas nações. Imaginar-pensar-construir-energizar!!!

Como você se comunica com grandes massas do povo Preto? Como você usa a terra para alimentar massas de pessoas? Como você cura pessoas? Como você previne doenças? Quais são os objetivos do povo Preto em viagem espacial?

Isto atordoa a mente. Para se libertar, deixe a mente fazer o que deve como uma força construtiva de progresso, aproveitando toda a energia dos recursos de conhecimento de uma nação.

Estes cientistas brancos com bolsas vitalícias ou pensando problemas no Instituto de Estudos Avançados de Princenton.

Então um telefone é uma solução para uma cultura para o problema de enviar palavras através do espaço. É poder político que permitiu esta tecnologia emergir e parece ser (o poder político) o destino dos resultados desejados.

Uma máquina de escrever? – porque deveria usar apenas as pontas dos dedos como pontos de contato de criatividade multi direcional? Se eu tivesse inventado uma máquina de inscrição de palavras, uma “escriba-de-expressões”, se você digamos, então teria feito um instrumento onde eu poderia pisar & sentar ou espalhar ou pendurar & usar não apenas meus dedos para fazer palavras expressarem sentimentos mas também cotovelos, pés, cabeça, costas e todos os sons que eu quisesse, gritos, toques, arranhões. Teria gravado magneticamente, ao mesmo tempo & traduzido em palavras – ou talvez mesmo na expressão final o pensamento/sentimento não apenas palavra ou folha, mas a coisa em si, a expressão, tridimensional – capaz de ser tocada, saboreada ou sentida ou entrada ou ouvida ou carregada como um feitiço falante cantante comunicando constantemente. Uma máquina de escrever é tola!

Os chamados artistas percebem, aqueles que se libertaram, que nossas criações não precisam emular as do homem branco, mas é a hora de engenheiros, arquitetos, químicos, artesões eletrônicos, isto é, também [seus] filmes, rádios, sons etc entenderem que aprender tecnologia ocidental não deve ser o fim de nossa compreensão da disciplina particular com a qual nos envolvemos. A maioria da informação moldada pelo Ocidente é como lama e areia quando você está peneirando por ouro!

Os atuais começos de nossas expressões são pós-Ocidentais (assim como certamente são pre-ocidentais). É necessário que nos armemos com o completo auto-conhecimento de toda a tecnologia (que afinal de contas é apenas expressão dos criadores) para mudar e refletir a essência de um povo liberto. Livre de um opressor, mas também como Touré nos lembrou devemos nos “livrar do espírito do opressor”. É este espírito como um construto emocional que pode se manifestar como expressão de arte ou tecnologia ou qualquer forma.

Mas qual é nosso espírito, o que ele vai projetar? O que as máquinas irão produzir? O que irão alcançar? Qual será sua moralidade? Veja a diferente moralidade dos fogos de artifício nos aniversários chineses e as bombas dos garotos brancos. Máquinas tem a moralidade de seus inventores.

Veja tudo fresco e “sem forma” – então faça formas que irão nos expressar verdadeiramente e totalmente – e certamente nos libertarão eventualmente.

A nova tecnologia precisa ser espiritualmente orientada porque deve aspirar a levantar a espiritualidade do homem e expandir sua consciência. Deve começar sendo “humanística” apesar de que os garotos brancos ainda hão de alcançar isto. Testemunhe as tecnologias que matam plantas & animais, envenena o ar & degenera ou escraviza o homem.

A tecnologia em si deve representar os desafios humanos. Deve representar cada ponto na perfeição temporária do homem em evolução. E deve ser obsoleta apenas porque nada nunca é perfeito, a única constante é a mudança.

Raça Depois da Tecnologia: ferramentas abolicionistas contra os novos racismos

Publicado em junho deste ano, o livro Race after Technology: Abolitionist Tools for the New Jim Code, de Ruha Benjamin, é uma louvável adição à atual geração de projetos de intelectuais negras estudando tecnologias da comunicação de um modo crítico e propositivo em busca de um futuro mais justo possível. Ruha Benjamin é antropóloga, doutora em sociologia, professora da Universidade de Princeton e fundadora do JUST Data Lab, além de pesquisadora associada em diversos institutos. Anteriormente publicou livro sobre as dimensões sociais da pesquisa em células tronco e também lançou este ano a coletânea Captivating Technology, sobre tecnociência carcerária e imaginação libertária.

O livro Race After Technology… tem como objetivo discutir as tecnologias digitais e algorítmicas a partir do que Benjamin chama de “Critical STS”, a junção da Teoria Racial Crítica (TRC) e dos Estudos de Ciência, Tecnologia e Sociedade. Para introduções à esta interface, recomendo dois trabalhos: acabei de finalizar um artigo que resume as colaborações da TRC à comunicação; e artigo da própria Ruha Benjamin sobre seu conceito de imaginação carcerária.

Na introdução, Benjamin parte de um exemplo curioso e pouco discutido de codificação indireta: os nomes e sobrenomes como atalhos para aspectos históricos e sociais. Benjamin cita diversos casos de uso de nomes africanos e afroamericanos como atalho para discriminação, de contratação a direcionamento perverso de anúncios. Benjamin usa estes casos cotidianos para lembrar que o cotidiano é codificado em vários aspectos e em suas várias esferas. Métricas, classificações e tecnologias tem políticas, das explícitas às implícitas. A autora evoca o conjunto de leis racistas chamadas de Jim Crow que vigoraram do século XIX à metade do XX nos EUA para propor o conceito de “New Jim Code” – um modo sistêmico e hostil de viés hostil e racista cada vez mais integrado e opaco nas tecnologias digitais.

No primeiro capítulo, Engineered Inequity (Desigualdade Projetada), Benjamin começa pelo caso de um concurso de beleza chamado Beauty AI, que supostamente analisava beleza de forma imparcial. Obviamente esta imparcialidade ou universalidade da beleza é absurda, mas o fato de que um projeto deste foi realizado em pleno 2016 diz muito. Como você pode imaginar, o sistema replicou conceitos de beleza racista e de 44 finalistas, 38 eram brancos. Benjamin segue por outros exemplos para mostrar como o aprendizado de máquina subjacente a estas tecnologias repete desigualdades sociais e culturais e suas concentrações. Em resumo, primeiro capítulo fala de como a desigualdade é replicada e intensificada na interseção de ignorância, omissão e, em alguns casos, intenção. Particularmente interessante neste capítulo é a reprodução de uma página de edição da revista Mechanix Illustrated de 1957, que previa robôs autônomos em breve, veja abaixo:

O texto é simplesmente assustador: “Escravidão está de volta! Todos nós teremos escravos de novo… que vão te vestir, pentear seu cabelo e servir refeições rapidamente. Mas não se alarme. Nós estamos falando de ‘escravos robôs.’” . Através deste e de outros casos, a autora discorre sobre as noções de poder que são evocadas ou projetadas no desenvolvimento de algumas tecnologias.

No segundo capítulo, Default Discrimination (Discriminação por Padrão), Benjamin vai se perguntar se a discriminação pervasiva nas tecnologias digitais é um glitch do sistema. Será que é um erro, que sai do padrão, ou podemos pensar em “discriminação por padrão”? Comparando tecnologias urbanas como o caso de Robert Moses e outros exemplos de arquitetura hostil a policiamento analógico e digital, Benjamin elabora sobre a anti-negritude como padrão na sociedade estadunidense. Lembra que temos de pensar raça em si como tecnologia:

Se considerarmos raça em si como tecnologia, como um modo de ordenar, organizar e desenhar uma estrutura social assim como a compreensão sobre a durabilidade da raça, sua consistência e adaptabilidade, nós poderemos entender mais claramente a arquitetura literal de poder.

No terceiro capítulo, Coded Exposure (Exposição Codificada), a autora se pergunta se a exposição/visibilidade codificada é uma armadilha. Aqui ela relembra casos de tecnologias que falham em ver pessoas negras, como já vimos sobre a pesquisa de Joy Buolamwini e diversos outros. A ideia de visibilidade é codificada também em diversas tecnologias e seu excesso ou falta são diretamente ligadas a dinâmicas raciais de poder.

Benjamin cita o famoso caso dos “Cartões Shirley” que eram usados como padrão para calibração de câmeras, explicando como a imagem de uma mulher branca deixou de ser o único cartão somente bem depois da consolidação da demanda mercadológica por afroamericanos. Entretanto, lembra que ao mesmo tempo disto, empresas como Polaroid ajudaram ativamente o sistema de apartheid na África do Sul, apoiando uma hiper-visibilidade criminosa contra a população negra no país. A partir do conceito polissêmico de exposição, então, Benjamin segue expondo variáveis políticas da branquitude, ciência, diferença e privacidade.

O quarto capítulo, Technology Benevolence (Benevolência da Tecnologia) pergunta se a “benevolência tecnológica vai nos consertar”? A questão é essencial pois, crescentemente, se fala sobre tecnologias como inteligência artificial como soluções para os problemas da sociedade. Não são as soluções, podem piorar os problemas e, em última instância, são mais nocivas pois ainda podem ocultar os problemas em tecnologias e algoritmos fechados e não-auditáveis.

Considerando as inúmeras iniciativas de promoção à “diversidade” e “igualdade” em grandes corporações de tecnologia, Benjamin estuda casos de iniciativas do tipo em empresas de mídias sociais, recrutamento, saúde e outras. Argumenta que essa ideia de “diversidade”

faz parte de um repertório maior de “happy talk”, que envolve a disposição para reconhecer e até valorizar diferença cultural sem desafiar seriamente a desigualdade estrutural sendo reproduzida.

Por fim, no quinto capítulo, de título Retooling Solidarity, Reimagining Justice (Reequipando Solidariedade, Reimaginando Justiça) pensa formas de resistência abolicionistas contra a imaginação carceral continuamente vinculada às tecnologias digitais. Mostra as fragilidades da promoção de “empatia” e de “design thinking” como solução colonizadora para problemas de desigualdade. Citando Paulo Freire, argumenta que “se a estrutura não permite diálogo, a estrutura deve ser mudada”.

Desenvolve a ideia de “auditoria algorítmica” que tem sido aplicada a diversos campos, com diferentes graus de amplitude e compromisso social. As auditorias devem ser independentes e ter poder regulador, algo que as grandes corporações tem evitado. Ruha Benjamin fala de um “toolkit abolicionista”, partindo do uso de dados como instrumentos de liberação desde as visualizações de Du Bois e estatísticas de Ida Wells-Barnett no século XIX até iniciativas recentes através de  diversos projetos que geram mais transparência, ativismo social a favor da regulação e ferramentas narrativas, que permitam contar as histórias de mais pessoas envolvidas e afetadas pelas tecnologias.

Benjamin chama à necessidade a criação de “toolkits abolicionistas” que permitam entender não só as tecnologias emergentes, mas também a sua produção, aplicação e interpretação dos dados. Um dos casos mais interessantes citados é o White Collar Crime Zones, um mapa interativo com o “rosto médio” e localização de criminosos de colarinho branco, o que nos lembra como a lógica de policiamento algorítmico em crimes urbanos é apenas um jeito enviesado de enquadrar a questão da criminalidade.

 

Para uma introdução em vídeo a seu pensamento, recomendo dois vídeos disponíveis gratuitamente. O primeiro fala da incorporação de ideias de design discriminatório de “bancos de parque” a “cadeiras de laboratório” e o segundo é uma aula sobre raça, ciência e subjetividade nos campos de genômica.

 

Para seguir aprendendo com a Ruha Benjamin, compre o livro Race After Technology, visite seu site e siga-a no Twitter.

Teoria Racial Crítica e Comunicação Digital?

Prof. Derrick Bell

A Teoria Racial Crítica é um framework teórico-metodológico proposto inicialmente por pesquisadores do Direito para combater a aplicação racista da legislação. A Teoria Racial Crítica (TRC) transpôs as fronteiras do Direito e tem sido aplicada em diversos países afrodiaspóricos à Educação, Sociologia e outras áreas como a Comunicação, mas ainda tangencial nesta última. Entretanto, há uma geração de pesquisadores que tem provado que a perspectiva da Teoria Racial Crítica fornece lentes apropriadas para superar o que eu chamo de dupla opacidade – “o modo pelo qual os discursos hegemônicos invisibilizam tanto os aspectos sociais da tecnologia quanto os debates sobre a primazia de questões raciais nas diversas esferas da sociedade – incluindo a tecnologia, recursivamente“.

Com o objetivo de colaborar para as conexões deste framework teórico, publiquei no Intercom 2019 o artigo “Teoria Racial Crítica e Comunicação Digital: conexões contra a a dupla opacidade“. O trabalho apresenta a Teoria Racial Crítica e discute do ponto de vista da comunicação digital e de casos de racismo algorítmico seis pilares definidores da TRC:

a) a ordinariedade do racismo;

b) construção social da raça;

c) interseccionalidade e anti-essencialismo;

d) reconhecimento do conhecimento experiencial;

e) agência no combate efetivo da opressão racial;

f) e a interdisciplinaridade

 

Você pode ler o artigo completo já no ResearchGate e em breve será publicada uma versão expandida como capítulo no livro “Fluxos em redes sociais sociotécnicas: das micro-narrativas ao big data

Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código

Apresentei nesta última semana o artigo Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código no Simpósio da LAVITS, em Salvador. O trabalho compõe minha pesquisa de doutorado e parte da análise de ambientes como Facebook, Twitter, YouTube e marketplaces de aplicativos mobile, que são mecanismos centrais do capitalismo de vigilância. Os vieses algorítmicos e affordances racistas nestas plataformas digitais de publicidade estão sendo crescentemente analisados nos últimos 15 anos por pesquisadoras informadas por perspectivas variadas. Como resultado estão em desenvolvimento iniciativas de auditoria de algoritmos e plataformas, construção de datasets e procedimentos mais responsáveis, além de indicações regulatórias. A opacidade presente nas caixas-pretas dos grupos de sistemas automatizados e semi-automatizados baseados em algoritmos que regem visibilidade, classificação, vigilância e regras de uso nas plataformas digitais complexifica e dificulta esta investigação. Esta questão se aplica tanto ao desenho de processos internos quanto à configuração de algoritmos e é agravada pela ideologia da “cegueira racial”, tática que compõe historicamente do genocídio negro, que também é epistemológico.

O trabalho propõe colaborar ao campo de estudos sobre vieses algorítmicos ao aproximar a investigação sobre vieses raciais nos algoritmos de plataformas digitais ao conceito de microagressões raciais (Pierce, 1970). Estas seriam definidas como mensagens rotineiras que comunicam insultos e desprezo racial e podem ser apresentadas de forma verbal, comportamental ou ambientalmente contra grupos racializados. A pesquisa sobre microagressões raciais propõe modos de analisar, entender e combater este tipo de violência em contextos de socialização, midiáticos ou educacionais com o objetivo de minimizar o impacto na formação e pleno desenvolvimento de populações negras, entre outras. Aplicando a tipologia de microagressões proposta por Tynes et al (2018) a partir de Sue (2007) a mapeamento realizado pelo autor, o artigo discute casos de comunicação algorítmica racista em plataformas digitais ligando aspectos das plataformas a categorias e subcategorias propostas sobre microagressões.

Acesse o artigo completo no ResearchGate e confira mais publicações.

8 livros e pesquisadoras sobre tecnologia digital, plataformas, algoritmos e genética

Neste Dia Internacional da Mulher vale notar/celebrar um resultado dos vieses de experiência, expectativas laborais e educação no mundo: as mulheres pesquisadoras estão liderando o debate sobre plataformas e algoritmos digitais e seus impactos na sociedade. Então aproveito a data para celebrar 8 livros publicados nos últimos anos indispensáveis para quem deseja compreender a contemporaneidade:

 

#1 Algorithms of Oppression: How Search Engines Reinforce Racism

Em Algorithms of Oppression: How Search Engines Reinforce Racism (2018), Safiya Noble apresenta pesquisa focada em como plataformas de busca de informação – sobretudo buscadores como Google – reproduzem e reforçam aspectos nocivos da sociedade como o racismo. Através de experimentos, levantamento bibliográfico, histórico e entrevistas, Safiya Noble mostra casos e ações relacionadas à populações minorizadas sobretudo dos EUA, como afro-americanas, latinas, judeus e asiáticos.

Clique na imagem ao lado para ler uma resenha e assista TEDx com Noble em:

 


 

#2 Artificial UnIntelligence: How Computer Misunderstand the World

Em Artificial UnIntelligence: How Computers Misunderstand the World (2018), Meredith Broussard explica os problemas dos sistemas considerados inteligência artificial hoje (como carros autônomos, métricas de plataformas digitais e outros) em três partes: “Como computadores funcionam”, “Quando computadores não funcionam” e “Trabalhando juntos”. Um destaque da publicação é que Broussard apresenta alguns conceitos através de tutoriais no Python acessíveis até para quem nunca escreveu uma linha de código na vida.

Clique na imagem ao lado para ler uma resenha e assista entrevista com Broussard abaixo:


 

#3 The Intersectional Internet: Race, Sex, Class and Culture Online

Intersectional Internet: Race, Sex, Class and Culture Online (2016) é uma coletânea editada por Safiya Noble e Brendesha Tynes. Reúne capítulos de pesquisadoras e pesquisadores estudando questões de raça, gênero e classe na internet tais como: políticas de viralidade e virilidade em masculinidades asiáticas; moderação comercial de conteúdo; análise interseccional de apps de encontros; memes no Instagram e adolescentes negras e outros.

Assista entrevista com Brendesha Tynes abaixo:

Expert Interview with Dr. Brendesha Tynes from The Steve Fund on Vimeo.


 

#4 Twitter and Tear Gas: the power and fragility of networked protest

Zeynep Tufekci é pesquisadora, ativista e jornalista turca. Em Twitter and Tear Gas: the power and fragility of networked protest, Tufekci trouxe em 2017 um outro olhar sobre os ainda festejados protestos impulsionados por plataformas de mídias sociais, como a “Primavera Árabe”. Como a veloz história mostrou, o resultado de movimentos como estes, inclusive no Brasil, foi muito diferente do que os mais empolgados da esquerda previam. Nos últimos 5 anos sobretudo a inocência sobre as mídias sociais ficou de lado em grande medida, mas o livro de Tufekci traz a tecno-sociológico sobre a contemporaneidade que vai além do simplista. O livro está disponível em versão impressa, ebook, audiobook e também um PDF de acesso livre, exigência da autora devido à importância do debate.

Assista palestra da autora em:


#5 Fatal Invention – how science, politics, and big business re-create race in the twenty-first century

Em um mundo supremacista branco, a ciência, política e grandes empresas de tecnologia estão empenhadas em recriar a noção biológica de raça através de sistemas pervasivos de tecnologia como inteligência artificial, reconhecimento de imagens, biometria e testes genéticos. Este é o tema de Fatal Invention – how science, politics, and big business re-create race in the twenty-first century de Dorothy Roberts (2012). O livro revisa conceitos de raça, eugenia, o papel da ciência racial na supremacia branca e trata de manifestações contemporâneas na genética, desenvolvimento de farmacológicos customizados, vigilância genética e outras tecnologias.

Abaixo um vídeo no qual Roberts explica o problema com medicina baseada em “raça”:


#6 The Social Life of DNA: Race, Reparations, and Reconciliation after the Genome

Em The Social Life of DNA: Race, Reparations, and Reconciliation after the Genome (2016),  Alondra Nelson traz um outro olhar ao discutir como a tecnologia de identificação de DNA, sobretudo levantamento de genealogia e origens geográficas da diáspora africana possuem impactos relevantes. Uma vez que os milhões de africanos sequestrados entre os séculos XVI e XIX foram torturados, desumanizados e impedidos de desenvolver sua educação, história e memória, Alondra Nelson mostra como das já numerosas iniciativas de afro-diaspóricos de se reconectar com a África emergem potencial e os benefícios dessa tendência.

Alondra Nelson também é autora de outros livros como Body and Soul: The Black Panther Party and the Fight Against Medical Discrimination (2011), Technicolor: Race, Technology, and Everyday Life (2001) e editora de um número especial de revista Social Text que discutiu afrofuturismo em 2002. Veja entrevista com a autora sobre o tema:

 


#7 A Networked Self and Human Augmentics, Artificial Intelligence, Sentience

Zizi Papacharissi pesquisa comunicação digital há décadas e é responsável por algumas coletâneas mais influentes no campo, como o excelente A Networked Self: Identity, Community, and Culture on Social Network Sites. Em 2018 Papacharissi lançou nada menos que três coletâneas a partir da ideia de networked self: um com recorte sobre nascimento, vida, morte e família; outro sobre plataformas, estórias e conexões; e, por fim, o que destaco sobre inteligência artificial, senciência e augmentics: A Networked Self and Human Augmentics, Artificial Intelligence, Sentience (2018). O livro reúne 14 capítulos sobre aspectos tecnológicos e éticos como direitos de agentes artificiais e impactos da IA no self.

Palestra recente da Papacharissi:

 


#8 Digital Sociologies

Organizado por Jessie Daniels, Karen Gregory e Tressie Mcmillan Cottom, Digital Sociologies (2016) é fruto de conferência sobre as sociologias digitais plurais. Na primeira parte, em 7 capítulos, trata da sociologia digital na vida cotidiana, falando de temas como estudos de comunidades online, análise de discurso digital em pequenos espaços ou gerenciamento de impressões digitais na “economia do compartilhamento. A segunda parte foca em instituições e traz 11 capítulos em torno de desigualdade e instituições, papel dos algoritmos em decisões educacionais, raça e racismo na educação e convergência de audiências online em torno de produtos culturais. A terceira parte traz mais 10 capítulos e é repleta de estudos de caso sobre corpos e corporeidade nas interseções com raça, gênero, classe e sexualidades em ambientes como Twitter, websites, apps de quantified self e tecnologias vestíveis.

Assista palestra de Tressie McMillan Cottom:

 

Quer acompanhar em tempo real o que algumas destas pesquisadoras estão produzindo? Siga lista curada no Twitter!