Pensando Raça a partir da Teoria da Informação: a diferença que faz diferença

Praticamente qualquer aluno meu já me viu citar a frase “informação é a diferença que faz diferença”. Atribuída ao matemático Gregory Bateson, é um ótimo modo de debater a distinção entre dados e informação antes de chegar aos conceitos da pirâmide DIKW (Data, Information, Knowledge e Wisdom). O que Bateson quis dizer é que informação é uma observação que faz diferença para algum “objetivo” ou em termos de “efeitos” possíveis. Em sala de aula, uso o exemplo das cores das camisas e número de notebooks. As cores das roupas dos alunos podem compor uma “diferença” observável. Posso contar a distribuição das cores. O mesmo acontece com o número de notebooks. Mas, enquanto professor, somente esta segunda diferença “faz diferença” para meus objetivos: a partir do número de notebooks em sala posso planejar melhor as atividades práticas. As cores das roupas não são informação relevante pra mim. Por outro lado, podem se tornar informação em algum exemplo sobre análise cultural e moda (ex: anti-esquerdismo diminuiu o uso de vermelho? cariocas usam mais cores que paulistas?).

É a partir desta famosa frase do Gregory Bateson que o pesquisador Syed Mustafa Ali (Open University) inicia o artigo Race: The Difference that Makes a Difference publicado na tripleC em 2012. O autor busca entender as interseções das disciplinas da Teoria Racial Crítica e da Teoria Crítica da Informação e como elas tem abordado a questão.

Quanto às múltiplas áreas da Teoria da Informação, o autor resgata diferentes abordagens, sobretudo as colaborações do filósofo Luciano Floridi em torno da filosofia da informação, que se debruça sobre tópicos, métodos e teorias do campo para estudar suas definições e colaborações. Mais recentemente, a perspectiva das ciências sociais como o trabalho de Scott Lash e Christian Fuchs (autor também de Social Media: A Critical Introduction) trazem panoramas críticos de classe, gênero e raça mas, segundo Ali, priorizando a primeira a partir de frameworks neo-Marxistas.

A colaboração da Teoria Racial Crítica, então, é essencial para a questão de pesquisa proposta. Depois de citar a crescente re-leitura informada por discurso crítico sobre raça de filósofos pós-Iluminismo a partir do trabalho de Emmanuel Chukwudi Eze nos últimos 20 anos, Ali chega à conclusão de que a perspectiva informacional não tem sido realizada. Quando é realizada, tende a ser de um olhar mais sociológico do que filosófico, em itens como: a) exclusão digital; b) representação e relações de poder em ambientes online; c) o uso de tecnologias digitais para agendas de supremacistas brancos; e d) contribuições africanas e afro-americanas à teoria dos sistemas e cibernética.

 

Mas qual a colaboração que Teoria dos Sistemas e Teoria da Informação podem trazer ao entendimento sobre raça, racismo e processos de racialização?

A proposta que se aproxima do que o Mustafa Ali procura seria, para o autor, a formulação de racismo oferecida por Fuller Jr.:

“Um sistema de pensamento, discurso e ação operado por pessoas que se classificam como “brancas” e que usam engano, violência e/ou ameaça de violência para subjugar, usar e/ou abusar de pessoas classificadas como “não-brancas” sob condições que promovam a falsidade, injustiça e incorrigibilidade em uma ou mais áreas de atividade, para o fim último de manter, expandir e/ou refinar a prática da supremacia branca (racismo)” (1984, 301)

Na visão de Fuller Jr. racismo equivale a supremacia branca e é um sistema global composto de 9 áreas principais de atividades ou sub-sistemas: economia, educação, entretenimento, trabalho, lei, política, religião, sexo e guerra. Para Ali, a colaboração de Fuller Jr. é uma formulação que é orientada para raça de forma radicalmente alternativa a outros pensadores críticos como Giddens, Bourdieu e Habermas.

Em seguida, as definições de Teoria Racial Crítica e Teoria Crítica da Informação são vinculadas para propor uma abordagem hermenêutica reflexiva sobre raça e informação. Quanto ao termo informação, polissêmico, Ali referencia von Bayer para explicar que informação pode ser vista de forma dual tanto como inform-ação quanto in-formação. No primeiro sentido, se refere à transmissão de significados e no segundo se refere à transmissão de forma, que pode ser configuração, ordem, organização, padrão, estrutura ou relacionamento. Neste sentido, a circulação de alguns padrões de pensamento no mundo pode ser vista como informação, tal como a ideia de hierarquia racial, discriminação e dominação associadas à diferença racial.

Assim, é possível ver raça como sistema e como processo. Como sistema, Ali cita Charles Mills para afirmar que racismo pode e de fato existe em potência puramente estrutural, isto é, em termos de relações de poder incorporadas diferencialmente que não são sempre explicitamente intenacionais então não são dependentes de consciência para a continuidade de sua existência. Assim, a ideia de “contrato racial” proposta por Mills pode ser vista como:

that set of formal or in-formal agreements or meta-agreements (higher-level contracts about contracts, which set the limits of the contract’s validity) between the members of one subset of humans, henceforth designated by (shifting) “racial” (phenotypical/genealogical/cultural) criteria C1, C2, C3… as “white”, and coexten-sive (making due allowance for gender differentiation) with the class of full persons, to categorise the remaining subset of humans as “nonwhite” and of a different and inferior moral status

Barnor Hesse é a referência citada a seguir para falar de raça como processo. Para Ali,  mais do que estar correlacionado com a presença (ou ausência) de marcadores materiais no corpo,

“racialization [is] embodied in a series of onto-colonial taxonomies of land, climate, history, bodies, customs, language, all of which became sedimented metonymically, metaphorically, and normatively, as the assembled attributions of race”

Deste modo, a perspectiva consegue dar conta dos processos pelos quais racialização acontece nas interseções com contextos e projetos político-econômicos de poder em cada período, como o acirramento do ódio contra islâmicos nos EUA nos últimos 30 anos. Por fim, o artigo enfatiza a importância dessa aproximação entre as áreas da ciência da informação e da teoria racial crítica para abordar os processos de resgate de argumentos e ideais biológicos do conceito de raça graças a biometria, barateamento de testes genéticos e afins.

Para saber mais sobre o trabalho do Syed Musfata Ali, acompanhe suas páginas na Open UniversityResearchGate  ou confira a palestra abaixo:

Fake News. Velha prática, novo nome: o papel das mídias sociais

“Fake News” foi eleita a palavra do ano em 2016 pelo Dicionário Macquarie e em 2017 pela “Sociedade Americana do Dialeto” (The American Dislect Society”). A abundância informacional e aparente aceleração de mudanças comportamentais tem gerado novos termos tais como fake news, pós-verdade, selfie e afins. Na maioria dos casos estes novos termos trazem uma nova popularidade a práticas que já existiam como literalmente notícias falsas ou as barrigadas no jornalismo.

Eu, particularmente, não gosto de neologismos. Fake News sempre existiram seja por incompetência jornalística seja por projetos organizados. Há casos emblemáticos que se tornaram livros e são estudados e ensinados por nós em faculdades e disciplinas de análise do discurso. O impacto de notícias falsas sempre foi relevante pois a cobertura incompetente ou má intencionada costuma ser em manchetes  e destaques, enquanto as correções e erratas são notas de rodapé. Porém, historicamente, sabemos que alguns grupos sociais, como a esquerda ou minorias políticas e identitárias são alvos mais frequentes de fake news.

Mas será que as pessoas acreditam em fake News? Em levantamento recente realizado pelo INCT, brasileiros foram consultados sobre “fake News”. Será que os brasileiros acham que acreditam em fake News? Quase 70% acredita que não caem em fake news.

Além disto, a desconfiança depende do emissor e veículo. Os brasileiros confiam em notícias compartilhadas por amigos e familiares, o que sua viza a desconfiança com plataformas de redes sociais. Se é um amigo ou familiar compartilhando na própria mídia social, esta desconfiança diminui. Então fake news é um conceito performativo. A perseguição contra as chamadas “fake news” pode ajudar a criar ou intensificar novas relações de poder que podem, não paradoxalmente, ter malefícios na circulação de informações, sobretudo políticas.

Nos EUA podemos ver partidários do Trump chamando toda e qualquer notícia crítica ao político como “fake news”? Quem define o que é verdade e quem define o que é falso? No Brasil, o grupo que mais declara receber fake news, na pesquisa do INCT Instituto da Democracia e da Democratização da Comunicação, são os auto-declarados no extremo ideológico da direita.

 

Então trata-se de batalhas discursivas que tem a ver com poder. E queria trazer aqui uma definição de poder a partir do Latour. Ao falar das redes, o sociólogo usou a ideia de “ponto obrigatório de passagem”. Nos desenhos das redes e seus fluxos, poder é tornar-se na rede um ponto, um nó no qual todos precisam passar para agir. Monopólio sobre um tipo de força – hoje, trata-se da audiência, do tempo das pessoas.

De fato, estamos falando do poder de controlar boa parte da audiência, mídia e rastros de atividades humanas. Mas, para além disso, empresas como Facebook tem investido em outras áreas como tecnologias materiais, drones, satélites, realidade aumentada e infraestrutura de acesso. E as forças das interfaces entre tecnologia e comunicação estão concentradas sobretudo no chamado GAFA = sigla para dar conta de Google, Apple, Facebook e Amazon. Juntas, tem valor de mercado superior ao nosso PIB. Mas este poder é produzido sobretudo pela análise e aplicação da ciência.

A interpretação da realidade social mudou de locus. Os grandes levantamentos de dados sociais e demográficos nas últimas décadas são frutos de instituições do estado e universidades. O Censo, na maioria dos países, é o exemplo mais claro. Levanta dados de milhões de domicílios, mas a cada 5 ou 10 anos. Entretanto, velhas e novas corporações são cada vez mais intensamente calcadas em levantamento e cruzamento de bases de dados sobre seus clientes e usuários. Hoje, em certa medida, empresas como Facebook, Google, Amazon, Twitter, Uber e afins podem realizar alguns tipos de análises que deixam universidades de ponta a ver navios. Publicamos no blog do IBPAD uma lista de 10 coisas impressionantes que somente o Facebook consegue estudar sobre a sociedade.

Mas esta abundância de dados festejada por muitos como um novo momento da sociedade ou mesmo de ciências, como ideias de “viradas computacionais” escondem um aprofundamento do gap entre o que a sociedade civil, universidades ou mesmo estados conseguem fazer em relação a grandes corporações como Facebook e Google.

Assim como temos opacidade nos algoritmos que regem as plataformas digitais, também temos opacidade em como os dados que nós geramos são usados. Foram raros e assustadores alguns artigos publicados por cientistas do Facebook.

Nas eleições de 2012, o Facebook realizou experimento mostrando para parte dos americanos um banner sobre o dia das eleições. Para outra parte de usuários, mostrou o mesmo banner marcando quais amigos já foram votar. A estimativa de votos gerados pelo uso desse reforço social foi de 280 mil votos. Ou seja, uma pequena mudança na interface do Facebook fez 280 mil pessoas saírem de casa pra votar, por pressão dos amigos. Mas pressão mediada e escolhida pelo Facebook.

Dois anos depois, Facebook o publicou artigo sobre um experimento psicológico em massa. Modificou o algoritmo de exibição de notícias de 700 mil pessoas e para parte dessas pessoas, ofereceu publicações mais positivas, alto astral. Para outra parte, publicações negativas, sobre tragédias e afins. A partir daí provou que a exposição a mensagens positivas tem um impacto psicológico, pois as pessoas publicam mais coisas positivas. E vice-versa. Ou seja, brincou com as emoções de centenas de milhares de pessoas. Não preciso nem falar o quanto isto é problemático.

Desse modo, escândalos como Cambridge Analytica são úteis para gerar mais noção e consciência sobre os problemas mas, a rigor, a Cambridge Analytica foi um bode expiatório. O grande problema foi a microssegmentação que a Cambridge realizou, a rigor baseada em recursos do próprio Facebook.

A idealização de mídias sociais como mecanismos persuasivos por si só não é nova e utilizou como experimento aplicativos  jogos sociais dentro das plataformas. Em 2008 esteve muito em voga a captologia, que é a disciplina focada em gerar tecnologias de persuasão. Em alguns casos, para persuasão positiva na área de saúde, por exemplo, mas em outros focadas em mercado e política. O B J Fogg, pesquisador de Stanford, propôs em 2008 o conceito de “persuasão interpessoal de massa”.

Pela primeira vez, segundo B J Fogg, alguns sistemas reuniam estas seis características. Experiência Persuasiva, Estrutura Automatizada, Distribuição Social, Ciclo Rápido, Grafo Social Imenso e Impacto Mensurável. Alguns casos de sucesso mercadológico foram empresas como a Zynga que rapidamente alcançou centenas de milhões de usuários e permitiram empresas como o Facebook aprenderem bastante sobre mecanismos de persuasão com gamificação.

Então estudar os modos pelos quais as interfaces são construídas e editadas para fins específicos é essencial.

E aí temos um ponto cego nas pesquisas em comunicação. Este ponto cego são as plataformas de auto serviço publicitário em Facebook e Google anúncios. Falamos muito de algoritmos, mas esquecemos com frequência de suas aplicações na área de anúncios microssegmentados. Em parte me parece que isso acontece porque pesquisadores de comunicação não tem dinheiro, então experimentos que envolvem investimento deste tipo ficam de fora dos escopos.

Só que nestas eleições, a legislação eleitoral cedeu ao lobby de Facebook e de Google. E seus dois modelos de anúncio são os únicos aprovados para campanha eleitoral na internet. Entretanto, o modelo de leilão destas plataformas permite não só que grandes partidos dominem o ambiente com mensagens criadas para “viralizar” (em detrimento de qualidade de propostas e debate) como permite que outros atores interfiram de forma indireta

As soluções possíveis não são fáceis e passam por reconhecer pelo menos 5 grandes necessidades: a) Plataformas de mídias sociais devem ser vistas como construídas também por seus milhões de usuários – trabalho imaterial gratuito; b) Plataformas de mídias sociais são empresas de comunicação, não de “tecnologia” – reguladas por interesse público). c) “Auditoria” algorítmica e crítica da economia política das plataformas. d) Papel social do jornalismo abraçado pela sociedade. e) Promoção de alternativas midiáticas abertas (plataformas open source de blogs plataformas).

Projeto de Joy Buolamwini (@jovialjoy) combate discriminação nos algoritmos

Joy Buolamwini é mestre por Oxford e doutoranda e pesquisadora no MIT e, a partir de sua pesquisa motivada por experiências pessoais de discriminação através de vieses dos algoritmos, ela lançou os projetos Coded Gaze e Algorithmic Justice League, para combater os problemas causados pela tecnologia e algoritmos falsamente objetivos. Ela ainda é co-fundadora do Myavana Hair, sistema de recomendação de produtos, serviços e expertise para cada tipo de cabelo. Em novembro, deu uma palestra no TEDxBeaconStreet sobre o tema. Pode ser vista no vídeo abaixo, mas infelizmente ainda não há legendas em português. Então traduzi, em seguida, a transcrição oferecida pelo próprio website, para facilitar a compreensão:

Tradução da Transcrição

0:12

Olá, eu sou a Joy, uma poeta do código, com uma missão de enfrentar uma força invisível que está crescendo, uma força que eu chamei de “o olhar codificado”, meu termo para vieses algorítimicos.

0:26

Viés algorítmico (algorithmic bias), assim como o viés humano, resulta em injustiça. Entretanto, algoritmos, como vírus, podem compartilhar vieses em uma escala massiva com muita velocidade. Viés algorítmico pode também levar a experiências excludentes e práticas discriminatórias. Deixe-me mostrar o que quero dizer.

0:47

(Vídeo) Joy Boulamwini: Oi, câmera. Eu tenho um rosto. Você pode ver meu rosto? E meu rosto em óculos? Você pode ver o rosto dela. E o meu rosto? Agora tenho uma máscara. Você pode ver minha máscara?

1:07

Joy Boylamwini: Então, como isto aconteceu? Por que estou em frente a um computador com uma máscara branca, tentando ser detectada por uma câmera barata? Bem, quando não estou lutando contra o “olhar codificado” como uma poeta do código, eu sou uma estudante de pós-graduação no MIT Media Lab, e lá eu tenho a oportunidade de trabalhar em todos os tipos de projetos fantásticos, incluindo o Aspire Mirror, um projeto que eu fiz para projetar máscaras digitais em meus reflexos. Então, de manhã, se eu quiser me sentir poderosa, posso colocar uma máscara de leão. Se quero me sentir pra cima, posso colocar uma citação. Então, usei software genérico de reconhecimento facial para construir o sistema, mas descobri que era muito difícil de testá-lo a não ser que eu usasse uma máscara branca.

1:55

Infelizmente, já passei por este problema antes. Quando eu era graduando na Georgia Tech estudando Ciência da Computação, eu trabalhava com robôs sociais e uma de minhas tarefas era fazer um robô brincar de peek-a-boo, uma brancadeira simples onde as pessoas brincando cobrem sua própria face e a descobrem dizendo “Peek-a-boo!”. O problema é: peek-a-boo não funciona se eu não posso ver você, e meu robô não conseguia me ver. Mas eu emprestei o rosto de minha colega de quarto para fazer o projeto, submeti o trabalho e percebi, sabe de uma coisa, outra pessoa vai resolver este problema.

2:32

Não muito tempo depois disto, eu estava em Hong Kong para uma competição de empreendedorismo. Os organizadores decidiram levar os participantes a um tour pelas statups locais. Uma das startups tinha um robô social e eles decidiram fazer uma demonstração. A demo funcionou com todo mundo, exceto comigo, como você pode adivinhar. Não conseguiu detectar meu rosto. Perguntei aos desenvolvedores o que estava acontecendo e disseram que também estavam usando o mesmo software genérico de reconhecimento facial. Do outro lado do mundo, aprendi que o viés algorítmico pode viajar tão rápido quanto baixar alguns arquivos da internet.

3:14

Então o que estava acontecendo? Por que minha face não estava sendo detectada? Bem, precisamos nos debruçar como damos visão às máquinas. Visão computacional usa aprendizado de máquina para fazer reconhecimento facial. Então funciona da seguinte forma. Você cria uma base de treinamento com exemplos de rostos. Este é um rosto. Este é um rosto. Isto não é um rosto. E ao longo do tempo, você pode ensinar um computador a como reconhecer outros rostos. Entretanto, se a base de treinamento não é diversa, qualquer rosto que se desvie da norma estabelecida será difícil de detectar, o que aconteceu comigo.

3:48

Mas não se preocupe – há boas notícias. Bases de treinamento não se materializaram do nada. Na verdade, nós criamos eles. Então há uma oportunidade para criar bases de treinamento realmente abrangentes que reflitam um retrato mais rico da humanidade.

4:03

Agora vocês viram em meus exemplos com robôs sociais como eu descobri sobre exclusão com viés algorítmico. Mas viés algorítmico também pode levar a práticas discriminatórias. Nos EUA, departamentos de polícia estão começando a usar softwares de reconhecimento facial em seu arsenal contra o crime. Georgetown Law publicou um relatório mostrando como um a cada dois adultos nos EUA – cerca de 117 milhões de pessoas – já tem seus rostos em redes de reconhecimento facial. Departamentos de polícia atualmente acessam estas redes desreguladas, usando algoritmos que não foram auditados para precisão. Mas sabemos que reconhecimento facial é falível e identificar rostos consistentemente continua sendo um desafio. Você pode ter visto isto no Facebook. Meus amigos e eu rimos toda hora vendo pessoas marcadas de forma errada em nossas fotos. Mas identificar de forma errônea um suspeito de crime não é uma piada, assim como não é infringir as liberdades civis.

5:11

Aprendizado de máquina tem sido usado para reconhecimento fácil, mas também está se ampliando além do reino da visão computacional. Em seu livro “Weapons of Math Destruction”, a cientista de dados Cathy O’Neil fala sobre o crescimento dos novos WMDs – widespread, mysterious e destructive algoritmos que estão sendo cada vez mais usados para tomada de decisões que impactam mais e mais aspectos de nossas vidas. Então quem é contratado ou demitido?  Você consegue aquele empréstico? Você consegue seguro? Você é aprovado na faculdade que queria? Você e eu pagamos o mesmo preço pelo menos produto comprado na mesma plataforma?

5:55

Instituições da lei estão começando a aplicar aprendizado de máquina para polícia preditiva. Alguns juízes usam escores de risco gerados por máquinas para determinar quanto um indivíduo vai ficar na prisão. Então realmente temos que pensar nestas decisões. Elas são justas? E o que estamos vendo é que o viés algorítmico não necessariamente leva a resultados justos.

6:19

E o que podemos fazer sobre isto? Bem, podemos começar a pensar sobre como criar código mais inclusivo e empregar práticas de programação inclusivas. Realmente começa com as pessoas. Então quem programa importa. Estamos criando times abrangentes com indivíduos diversos que podem checar os pontos cegos uns dos outros? No lado técnico, como se programa importa. Estamos adicionando equidade enquanto desenvolvemos sistemas? E, finalmente, o porquê de programarmos importa. Usamos ferramentas de criação computacional para gerar riqueza imensa. E agora temos a oportunidade de gerar ainda mais igualdade se tornarmos mudança social uma prioridade e não apenas algo secundário. E são estes os três princípios que fazem o movimento “incoding”. Quem programa importa, como programamos importa e quem programa importa

7:14

Então para ir em direção a “incoding”, nós podemos começar a pensar em construir plataformas que identifiquem vieses ao coletar as experiências das pessoas como as que eu compartilhei, mas também auditando software existente. Nós podemos começar a criar bases de treinamento mais inclusivas. Imagine uma campanha “Selfies para Inclusão” onde você e EU podemos ajudar desenvolvedores testar e criar bases de treinamento mais inclusivas. E nós podemos pensar mais conscientemente sobre o impacto social da tecnologia que estamos desenvolvendo.

7:48

Para começar este movimento de “incoding”, lancei a Liga da Justiça Algorítmica (Algorithmic Justice League), onde qualquer pessoa que se importa com equidade pode ajudar a lugar o olhar codificado. Em codedgae.com, você pode reportar viés, pedir auditorias, se tornar um testador e se juntar ao debate contínuo – #codedgaze

8:11

Então, eu te convido a se juntar a mim na criação de um mundo onde a tecnologia trabalha para todos nós, não apenas alguns de nós, um mundo onde valorizamos inclusão e centralizamos mudança social.

8:24

Obrigado.

8:25

(Aplausos)

8:31

Mas eu tenho uma questão: vocês vão se juntar a mim na luta?

8:36

Risadas

8:38

Aplausos