W. E. B. Du Bois e a visualização de dados sobre os negros nos EUA no início do século XX

W. E. B. Du Bois (1863 – 1963) foi um dos maiores sociólogos e ativistas americanos desde a virada do século XX até sua morte nos anos 60. Invisibilizado pelo racismo generalizado também na ciência social, Dubois teve uma prolífica produção através de livros acadêmicos, revistas científicas e fundador do Movimento Niagara de ativismo pelos direitos humanos. Também foi Secretário do Primeiro Congresso Pan-Africano e fundou a importante National Association for the Advancement of Colored People (NAACP). Apesar da enorme produção, seu único livro traduzido para o português é o essencial The Souls of Black Folk, publicado em 1903 e traduzido para o português como As Almas do Povo Negro apenas em 1998, esgotado e sem novas edições (veja tradução/transcrição alternativa por José da Costa).

Primeiro negro a prestigiar Harvard com sua pesquisa de doutorado, nunca permitiu que seu pensamento e trabalho se restringissem ao mundo puramente acadêmico. Entre seus maiores feitos está a exposição American Negro Exhibit, que tomou lugar corajosamente na Exposição Universal de Paris de 1900. Na virada do século XIX ao XX as feiras mundiais tomaram lugar nas grandes metrópoles e tinham o objetivo de celebrar os avanços da humanidade – sobretudo dos países patrocinadores – em termos de indústria, maquinaria, invenções, arquitetura e ciência de todo o tipo. A Exposição Universal de Paris de 1900 foi visitada por cerca de 50 milhões de pessoas de todo o mundo. Thomas Junius Calloway, advogado, educador e jornalista, com o apoio de Booker T. Washington, solicitou ao governo dos EUA espaço no pavilhão estadunidense para mostrar o suposto compromisso do país com reformas sociais através da exposição, com colaborações de universidades e colégios industriais afro-americanos.

W. E. B. Du Bois foi convidado a participar com estudos sociais sobre a vida dos afro-americanos. Reuniu, então, dois grupos de visualizações de dados produzidas por sua equipe de estudantes e alunos da Universidade de Atlanta. O primeiro deles, chamado The Georgia Negro: A Social Study, apresentou informações sobre a população negra do estado da Georgia, então o estado com a maior população negra nos EUA. O segundo grupo de infográficos foi chamado de A Series of Statistical Chats Illustrating the Condition of the Descendants of Former African Slaves Now in Residance in the United States of America. Este grupo reuniu informações sobre educação, emprego, aspectos financeiros e outros.

Lançado no final de 2018, o livro W. E. B. Du Bois’s Data Portrais: VIsualizing Black America traz esta história, artigos, fotografias da exposição e visualizações produzidas por Du Bois com o enfoque na visualização de dados e seu impacto. Foi organizado por Whitney Battle-Baptiste e Britt Rusert,  do Departamento de Estudos Afro-Americanos W. E. B. Dubois da Universidade de Massachusetts Amherst.  Com 200 páginas, 150 são dedicadas a impressões em boa definição dos gráficos, mapas e linha do tempo apresentadas por Du Bois. Para as organizadoras, “as políticas da visualidade e a questão específica da visualidade negra eram centrais para o pensamento de Du Bois e sua teoria da dupla consciência foi expressa em um registro visual único”.

Depois da introdução pelas organizadoras, o livro inclui também textos de convidados. O primeiro é American Negro at Paris, 1900, de Aldon Morris, onde o autor traz mais informações sobre a exposição e conclui que “previu novas possibilidades de comunicar conhecimento sociológico para o público geral. Do vantajoso ponto de vista da virada do século, a sociologia inovadora na exposição segue resistindo ao teste do tempo”.

Em The Cartography of W. E. B. Du Bois’s Color Line, Mabel O. Wilson se debruça com mais atenção aos mapas e cartografias incluídas na exposição, partindo da visualização sobre o sequestro e tráfico negreiro para as Américas e Europa. A autora destaca especialmente como Du Bois conseguiu, a partir de seu trabalho e visualizações, combater a desinformação racista proposta por Hegel, que dedicou textos a negar a história da África e promover o racismo “científico”.

Por fim, em Introduction to the Plates, Silas Munro sublinha o aspecto inovador das produções de Du Bois e como avançou e aplicou na prática as invenções de William Playfair e Florence Nightingale. Para Munro, “A inovação retórica nas ciências sociais combinada com uma estética visual no início do século XX tornou a exposição um material presciente de trabalho em design. Estas visualizações ofereceram um protótipo de práticas de design que não foram amplamente usadas até um século depois, antecipando as tendências – hoje vitais no mundo contemporâneo – de design para inovação social, visualização de dados em serviço de justiça social e a decolonização da pedagogia”.

Veja algumas das visualizações e imagens do livro (algumas fotografias minhas e outras da Smithsonian mas todas estão no livro):

a) Índice das visualizações

 

b) Visualização do sequestro e tráfico negreiro

 

c) Cartão postal da exposição Pan-Americana em Nova Iorque, realizada no ano seguinte

 

d) Ocupação dos negros americanos depois da emancipação

 

e) Estudantes negros em escolas da Georgia

 

f) População negra e status de escravidão/liberdade de 1790 a 1870

 

g) Comparação de ocupação entre negros e brancos na Georgia

Negação do racismo no TripAdvisor: estratégias discursivas

O racismo, como elemento pervasivo, se manifesta de formas particulares nos campos do turismo e hospitalidade. Viajantes, pesquisadores e ativistas experienciam e analisaram isto em novas plataformas digitais semi-automatizadas por interfaces e algoritmos como Airbnb, levando empreendedores a criar plataformas de hospedagemagências de turismo mais seguras.

Durante viagens para outros locais ou países, os viajantes racializados são mais fragilizados, estando sujeitos a atos racistas que dificilmente serão confrontados imediatamente devido ao risco intensificado. Plataformas de reviews online, entretanto, pode(ria)m ser um dos espaços de reação através do relato das experiências negativas.

Leia texto relacionado “Traveling while black” no blog For Harriet

O artigo Traveling Across Racial Borders: TripAdvisor and the Discursive Stragies Business Use to Deny Racism, entretanto, apresenta resultados assustadores de pesquisa de Heather M. Dalmage da Roosevelt University. Publicado na revista Sociology of Race and Ethnicity, o artigo aplica análise de discurso para entender como os hotéis e restaurantes respondem e negam atitudes racistas especificamente ao receber casais interraciais.

A autora apresenta um histórico sobre os processos de racialização do Outro e como são especialmente intensos em países de maioria branca. Escrevendo do ponto de vista de uma pesquisadora estadunidense, Dalmage revisa as categorias de casais e comunidades inter-, multi- e bi-raciais para, em seguida, adentrar nas particularidades das plataformas digitais. Citando Hughey e Daniels, explica que “raça e racismo persistem online em modos que são tanto novos e específicos na Internet, junto a vestígios de formas seculares que reverberam tanto off quanto online“. Ao analisar a interface da plataforma, guias de como responder a avaliações de hóspedes de consultorias e da própria TripAdvisor, a autora identificou que as recomendações explicitamente invisibilizam a questão, ignorando como lidar com casos de racismo.

O estudo inédito reuniu 233 casos no TripAdvisor, através de buscas por termos como relacionamento interracial. Deste total, apenas 50 foram respondidos e entraram na fase de análise de discurso. A autora identificou que a maior parte seguem um padrão discursivo de negação da raça e do episódio racista, com o objetivo de patologizar os casais avaliadores.

Quatro táticas foram identificadas e são detalhadas na seção seguinte: (a) “Você está errado! Eu não sou racista”; (b) Explicação não ligada à raça; (c) “Nós tratamos todos do mesmo jeito”; (d) “Você entendeu errado e/ou poderia ter evitado a experiência negativa se tivesse agido diferente”. Nas conclusões, a autora explica como, em um mundo racializado e estruturado pela supremacia Branca, as práticas de evasão de debate sobre raça e racismo servem aos ideais neoliberais deste mundo. A análise do discurso é especialmente importante pois “as fronteiras raciais, desenvolvidas através da colonização e capitalismo global e infundidas em identidades, ideologias e instituições agora estão sendo criadas em novos e não tão novos modos online”.

Leia o artigo completo na revista Sociology of Race and Ethnicity.

Formas Contemporâneas de Racismo e Intolerância nas Redes Sociais

O documento Formas Contemporâneas de Racismo e Intolerância nas Redes Sociais foi publicado pelo Dr. Luiz Valério P. Trindade, como um dos resultados de seu doutorado na University of Southampton (Reino Unido). O documento traz informações sobre o racismo nas mídias sociais e recomendações de políticas públicas direcionadas a juventude, autoridades governamentais, legisladores e as próprias empresas de mídias sociais.

Merece destaque o mapeamento de quais os “gatillhos” para movimentos articulados de ódio racista. Os itens impressionam pela crueldade:
a. expressar discordância com algum post ou comentário anterior de cunho negativo contra Negros;
b. evidência de engajamento com profissões consideradas mais ‘nobres’ e de prestígio (por exemplo: medicina, jornalismo, direito, engenharia, etc.);
c. relacionamento interacial;
d. exercer posição de liderança ou bem-sucedida em programa de televisão ou até mesmo como convidada de honra;
e. desfrutar de viagens de férias no exterior (sobretudo em países localizados no Hemisfério Norte);
f. utilizar e/ou enaltecer a adoção de cabelo cacheado natural estilo Afro;
g. vencer concurso de beleza; e
h. rejeitar proposta de relacionamento afetivo.
Trindade também fala, entre outros itens, do Efeito Eco Infinito, no qual posts antigos, de até mais de 03 anos, continuam a reverberar por negligência das plataformas.
Saiba mais sobre o trabalho de Trindade em https://soton.academia.edu/LuizValerioTrindade

Pensando Raça a partir da Teoria da Informação: a diferença que faz diferença

Praticamente qualquer aluno meu já me viu citar a frase “informação é a diferença que faz diferença”. Atribuída ao matemático Gregory Bateson, é um ótimo modo de debater a distinção entre dados e informação antes de chegar aos conceitos da pirâmide DIKW (Data, Information, Knowledge e Wisdom). O que Bateson quis dizer é que informação é uma observação que faz diferença para algum “objetivo” ou em termos de “efeitos” possíveis. Em sala de aula, uso o exemplo das cores das camisas e número de notebooks. As cores das roupas dos alunos podem compor uma “diferença” observável. Posso contar a distribuição das cores. O mesmo acontece com o número de notebooks. Mas, enquanto professor, somente esta segunda diferença “faz diferença” para meus objetivos: a partir do número de notebooks em sala posso planejar melhor as atividades práticas. As cores das roupas não são informação relevante pra mim. Por outro lado, podem se tornar informação em algum exemplo sobre análise cultural e moda (ex: anti-esquerdismo diminuiu o uso de vermelho? cariocas usam mais cores que paulistas?).

É a partir desta famosa frase do Gregory Bateson que o pesquisador Syed Mustafa Ali (Open University) inicia o artigo Race: The Difference that Makes a Difference publicado na tripleC em 2012. O autor busca entender as interseções das disciplinas da Teoria Racial Crítica e da Teoria Crítica da Informação e como elas tem abordado a questão.

Quanto às múltiplas áreas da Teoria da Informação, o autor resgata diferentes abordagens, sobretudo as colaborações do filósofo Luciano Floridi em torno da filosofia da informação, que se debruça sobre tópicos, métodos e teorias do campo para estudar suas definições e colaborações. Mais recentemente, a perspectiva das ciências sociais como o trabalho de Scott Lash e Christian Fuchs (autor também de Social Media: A Critical Introduction) trazem panoramas críticos de classe, gênero e raça mas, segundo Ali, priorizando a primeira a partir de frameworks neo-Marxistas.

A colaboração da Teoria Racial Crítica, então, é essencial para a questão de pesquisa proposta. Depois de citar a crescente re-leitura informada por discurso crítico sobre raça de filósofos pós-Iluminismo a partir do trabalho de Emmanuel Chukwudi Eze nos últimos 20 anos, Ali chega à conclusão de que a perspectiva informacional não tem sido realizada. Quando é realizada, tende a ser de um olhar mais sociológico do que filosófico, em itens como: a) exclusão digital; b) representação e relações de poder em ambientes online; c) o uso de tecnologias digitais para agendas de supremacistas brancos; e d) contribuições africanas e afro-americanas à teoria dos sistemas e cibernética.

 

Mas qual a colaboração que Teoria dos Sistemas e Teoria da Informação podem trazer ao entendimento sobre raça, racismo e processos de racialização?

A proposta que se aproxima do que o Mustafa Ali procura seria, para o autor, a formulação de racismo oferecida por Fuller Jr.:

“Um sistema de pensamento, discurso e ação operado por pessoas que se classificam como “brancas” e que usam engano, violência e/ou ameaça de violência para subjugar, usar e/ou abusar de pessoas classificadas como “não-brancas” sob condições que promovam a falsidade, injustiça e incorrigibilidade em uma ou mais áreas de atividade, para o fim último de manter, expandir e/ou refinar a prática da supremacia branca (racismo)” (1984, 301)

Na visão de Fuller Jr. racismo equivale a supremacia branca e é um sistema global composto de 9 áreas principais de atividades ou sub-sistemas: economia, educação, entretenimento, trabalho, lei, política, religião, sexo e guerra. Para Ali, a colaboração de Fuller Jr. é uma formulação que é orientada para raça de forma radicalmente alternativa a outros pensadores críticos como Giddens, Bourdieu e Habermas.

Em seguida, as definições de Teoria Racial Crítica e Teoria Crítica da Informação são vinculadas para propor uma abordagem hermenêutica reflexiva sobre raça e informação. Quanto ao termo informação, polissêmico, Ali referencia von Bayer para explicar que informação pode ser vista de forma dual tanto como inform-ação quanto in-formação. No primeiro sentido, se refere à transmissão de significados e no segundo se refere à transmissão de forma, que pode ser configuração, ordem, organização, padrão, estrutura ou relacionamento. Neste sentido, a circulação de alguns padrões de pensamento no mundo pode ser vista como informação, tal como a ideia de hierarquia racial, discriminação e dominação associadas à diferença racial.

Assim, é possível ver raça como sistema e como processo. Como sistema, Ali cita Charles Mills para afirmar que racismo pode e de fato existe em potência puramente estrutural, isto é, em termos de relações de poder incorporadas diferencialmente que não são sempre explicitamente intenacionais então não são dependentes de consciência para a continuidade de sua existência. Assim, a ideia de “contrato racial” proposta por Mills pode ser vista como:

that set of formal or in-formal agreements or meta-agreements (higher-level contracts about contracts, which set the limits of the contract’s validity) between the members of one subset of humans, henceforth designated by (shifting) “racial” (phenotypical/genealogical/cultural) criteria C1, C2, C3… as “white”, and coexten-sive (making due allowance for gender differentiation) with the class of full persons, to categorise the remaining subset of humans as “nonwhite” and of a different and inferior moral status

Barnor Hesse é a referência citada a seguir para falar de raça como processo. Para Ali,  mais do que estar correlacionado com a presença (ou ausência) de marcadores materiais no corpo,

“racialization [is] embodied in a series of onto-colonial taxonomies of land, climate, history, bodies, customs, language, all of which became sedimented metonymically, metaphorically, and normatively, as the assembled attributions of race”

Deste modo, a perspectiva consegue dar conta dos processos pelos quais racialização acontece nas interseções com contextos e projetos político-econômicos de poder em cada período, como o acirramento do ódio contra islâmicos nos EUA nos últimos 30 anos. Por fim, o artigo enfatiza a importância dessa aproximação entre as áreas da ciência da informação e da teoria racial crítica para abordar os processos de resgate de argumentos e ideais biológicos do conceito de raça graças a biometria, barateamento de testes genéticos e afins.

Para saber mais sobre o trabalho do Syed Musfata Ali, acompanhe suas páginas na Open UniversityResearchGate  ou confira a palestra abaixo:

Os Riscos dos Vieses e Erros na Inteligência Artificial

O relatório An Intelligence in Our Image – The Risks of Bias and Errors in Artificial Intelligence foi lançado em 2017 pela RAND Corporation com o objetivo de lançar luz sobre vieses e erros na inteligência artificial e pontuar a relevância do debate sobre o tema. Foi escrito por Osonde Osoba, Doutor em Engenharia, e William Welser IV, Mestre em Finanças, ambos analistas da RAND.

O texto é estruturado em quatro capítulos: Introdução; Algoritmos: definição e avaliação; O Problema em Foco: fatores e remediações; Conclusão. Na introdução e parte inicial do segundo capítulo, os autores revisam histórico, definições e nuances dos principais tipos de “agentes artificiais” (conceito que engloba a junção de inteligência artificial em algoritmos efetivamente aplicados em sistemas decisórios). Sublinham em interessante trecho a opacidade dos sistemas algorítmicos com exemplos clássicos como a Google Flu Trends, crise financeira de 2008 e outros desastres em gestão pública.

Com a abundância de dados na “era do big data”, entretanto, a emergência dos sistemas de machine learning traz o debate para os modos pelos quais são construídos e suas vulnerabilidades quanto ao datasets de treino, etapa essencial mas comumente deixada de lado (e pouquíssimo debatida).

“Learning algorithms tend to be vulnerable to characteristics of their training data. This is a feature of these algorithms: the ability to adapt in the face of changing input. But algorithmic adaptation in response input data also presents an attack vector for malicious users. This data diet vulnerability in learning algorithms is a recurring theme.”

Partindo de casos documentados por Batya Friedman e Nissenbaum 22 anos atrás em Bias in Computer Systems, os autores trazem casos contemporâneos de redlining e até discriminação baseada em proxies de raça (como nomes tipicamente afro-americanos), chegando ao conceito de scored society de Citron e Pasquale.

they mean the current state in which unregulated, opaque, and sometimes hidden algorithms produce authoritative scores of individual reputation that mediate access to opportunity. These scores include credit, criminal, and employability scores. Citron and Pasquale particularly focused on how such systems violate reasonable expectations of due process, especially expectations of fairness, accuracy, and the existence of avenues for redress. They argue that algorithmic credit scoring has not reduced bias and discriminatory practices.

O relatório cita então trabalhos de Solon Barocas e Helen Nissenbaum que argumentam firmemente que o uso de big data para alimentar algoritmos não os torna mais neutros e justos, mas justamente o contrário. Além disto, os cuidados comumente empregados é esconder campos “sensíveis” nos dados em algoritmos de aprendizado, como raça e gênero. Porém, diversos estudos já mostraram que estas variáveis podem ser descobertas implicitamente e inseridas nos modelos para classificação discriminatória.

Em algumas áreas como vigilância e segurança pública, a aplicação inadequada de algoritmos e aprendizado de máquina podem ser fatais. Como demonstra trabalho da ProPublica, um sistema de “avaliação de risco criminal” que tinha como objetivo prever reincidência criminal errou de forma criminosa e racista. Réus negros estiveram sujeitos em dobro a serem classificados erroneamente como potenciais reincidentes violentos, enquanto réus brancos efetivamente reincidentes foram classificados erroneamente como de baixo risco 62.3% mais frequentemente que réus negros.

Departamentos de polícia tem usado algoritmos também para decidir onde e como alocar recursos de vigilância, para direcionar policiamento “preditivo”. Porém, a lógica inerente ao sistema tende a gerar mais erros e discriminação. O gráfico abaixo é uma simulação feita pelos autores sobre um hipotético sistema que aloca mais vigilância policial em uma determinada área ou grupo demográfico, por alguma decisão inicial no setup do sistema. Poderia ser, por exemplo, a série histórica de dados (uma região periférica que tenha histórico maior de crimes recebe mais vigilância inicialmente). No padrão destes sistemas de alocação, a vigilância maior nesta área vai crescentemente direcionar mais vigilância pois mais dados de crime serão gerados nesta área por causa, justamente, da vigilância. E nas interseções de classe, raça, país de origem e afins, esta dinâmica aumenta a desigualdade continuamente, criminalizando e piorando as condições das populações que inicialmente possuíam alguma desvantagem econômica ou de status.

No terceiro capítulo, os autores resumem os principais tipos de causas dos problemas e possíveis soluções. Sobre os vieses, relembram que um agente artificial é tão bom quanto os dados a partir dos quais aprende a tomar decisões. Uma vez que a geração de dados é um fenômeno social, está repleta de vieses humanos. Aplicar algoritmos tecnicamente corretos a dados enviesados apenas ensina os agentes artificiais a imitar e intensificar os vieses que os dados contêm. Outro ponto dos vieses é que os julgamentos nas esferas sociais e morais são difusas, raramente são critérios simples ou binários.  Quanto aos fatores técnicos, apontam problemas como disparidade de amostragem, adaptação e hacking social dos sistemas e variáveis sensíveis inferidas dos dados.

Mas, como combater todos estes problemas? O relatório também aponta alguns caminhos possíveis.

a) Algoritmos de Raciocínio Causal – os autores citam casos na Suprema Corte de uso de métodos quantitativos empíricos para ilustrar a desproporção de penas capitais no estado da Georgia (EUA), nos quais foram contestadas as relações causais. Algoritmos devem ser auditados quanto suas pretensões de fatores causais nas decisões – uma posição necessária uma vez que há defensores do poder da correlação no contexto do big data (o argumento de que o volume de dados seria suficiente para direcionar escolhas).

b) Literacia e Transparência sobre Algoritmos – combater vieses algoritmos passa também por um público educado a ponto de compreender os mecanismos pelos quais as desigualdades e injustiças podem ser geradas por sistemas mal construídos. Transparência informada e clara sobre os algoritmos presentes em plataformas de comunicação, educação e jurídicas pode avançar ainda mais o papel dos usuários em questionar, criticar e debater os sistemas.

c) Abordagens de Pessoal – Identificar os vieses e erros sistêmicos em algoritmos requerem não apenas conhecimento computacional, matemático e estatístico, mas também exposição à questionamentos e reflexões sobre questões da sociedade e políticas públicas. Frequentemente, entretanto, os criadores ou detentores das plataformas, sistemas e algoritmos não foram treinados ou expostos a formação sobre ética, sociologia ou ciência política.

d) Regulação – por fim, o papel de organismos regulatórios do estado e sociedade civil são essenciais e devem ser impulsionados pelo interesse da sociedade e campo acadêmico. Os autores apontam que a auditoria de algoritmos pode ser complexa tecnica, social e mercadologicamente. Entretanto, apoiam a proposta de Christian Sandvig de olhar não para as minúcias e tecnicalidades internas dos agentes artificiais, mas sim para as consequências de seus resultados, decisões e ações:

Certain audit types ignore the inner workings of artificial agents and judge them according to the fairness of their results. This is akin to how [ we often judge human agents: by the consequences of their outputs (decisions and actions) and not on the content or ingenuity of their code base (thoughts).

Para finalizar, mais uma dica de conteúdo. O pequeno vídeo abaixo é uma palestra de Osonde Osoba no TEDx Massachussets de dezembro de 2017. Osoba fala sobre os desafios de “tornar inteligência artificial justa”.

Confira mais trabalhos de Osoba em https://scholar.google.com/citations?user=w5oYjbYAAAAJ