“Tecnologias não são neutras” – trecho do levantamento PretaLab

[O texto abaixo faz parte do levantamento inédito PretaLab, levantamento realizado pela Olabi com 570 mulheres negras e índigenas no Brasil. Artigos analíticos, dados completos e destaques podem ser acessados em www.pretalab.com ]

Um estudo feito em 2017 pelo Law’s Center on Privacy and Technology, o centro sobre privacidade e tecnologia da faculdade de direito da Universidade de Georgetown, estima que 117 milhões de cidadãos já estejam nos bancos de dados que a polícia pode usar. “O reconhecimento facial vai afetar afroamericanos desproporcionalmente. Muitos departamentos de polícia não percebem isso”, diz o estudo. Outro documento do FBI sugere que “o reconhecimento facial é menos preciso em negros. Além disso, devido à desproporção no número de negros presos, sistemas que utilizam fotos realizadas no momento da prisão incluem mais afroamericanos. “Apesar dessas descobertas, não há nenhum estudo independente com testes para viés racistas nestes programas”, conclui o estudo.

Iniciativas como a Algorithmic Justice League [em português, Liga da Justiça do Algoritmo] buscam denunciar e acabar com o racismo implícito em programas de inteligência artificial. Fundadora da iniciativa, Joy Buolamwini percebeu que programas de reconhecimento artificial nem sempre conseguem detectar rostos negros, problema causado pela falta de diversidade das equipes que criam esses programas e das imagens que as máquinas recebem para aprender a “enxergar” esses rostos. “A visão do computador usa inteligência artificial para fazer o reconhecimento facial. Você cria uma série de imagens com exemplos de rostos. No entanto, se essas séries não são diversas o suficiente, qualquer rosto que desvie da ‘norma’ será difícil de reconhecer”, ela disse em uma Ted Talk.

Enquanto as estatísticas, estudos e políticas públicas voltadas para mulheres negras ignorarem a importância da tecnologia, as mulheres negras vão estar à margem de decisões cada vez mais centrais na sociedade. “Se as mulheres negras não estiverem nesse processo, se não existirem ações para que elas estejam nesse processo, vamos perder totalmente nosso poder de integração no mundo”, afirma Silvana.

A tecnologia representa ainda uma possibilidade de geração de renda e de emancipação econômica, já que o setor cresce e costuma ter salários atrativos. Nos Estados Unidos, dados compilados pela pesquisa econômica Glassdoor mostra que os empregos da área de tecnologia, engenharia e ciência foram os mais bem pagos de 2017. Mas o desigual acesso à educação e a forte presença de estereótipos e preconceitos seguem afastando as mulheres negras dos estudos e de uma carreira nessas áreas.

A desigualdade e as barreiras já surgem quando são observados apenas os dados de gênero na tecnologia. Uma pesquisa que analisou a presença feminina em Ciência, Tecnologia e Engenharia no Brasil, China, EUA e Índia concluiu que mulheres abandonam a indústria tecnológica porque são tratadas injustamente, recebem salários menores e apresentam menos chances de serem promovidas do que seus colegas do sexo masculino. No Brasil, 29% das mulheres entrevistadas se sentem estagnadas em seus trabalhos e 22% acham que podem desistir da carreira no próximo ano.

Apesar de todas as barreiras que precisam enfrentar, estudos mostram que o trabalho das mulheres nesta área pode ser tão bem ou melhor avaliado do que de seus colegas do sexo masculino. Pesquisadores descobriram que os usuários do repositório de software GitHub aprovaram os códigos escrito por mulheres a uma taxa maior do que aqueles escritos por homens, mas apenas caso seu gênero não fosse identificado.

 

Acesse completo em https://www.pretalab.com/

Disparidades interseccionais em sistemas de classificação automatizada de gênero

Mecanismos de inteligência artificial tal como reconhecimento automatizado de faces são, como toda tecnologia, repletos de particularidades sociais de produção que muitas vezes são deixados de lado em prol de supostas eficiências que trazem mais problemas – geralmente para grupos desprivilegiados.

No artigo Gender Shades – Intersectional Accuracy Disparities in Commercial Gender Classification, as pesquisadoras Joy Buolamwini (MIT Media Lab) e Timnit Gebru (Microsoft Research) apresentam pesquisa sobre vieses interseccionais negativos em sistemas automatizados de classificação. Um agravante é que, na medida em que sistemas de inteligência artificial se baseiam em bases de dados construídas a partir de inputs preexistentes, a tendência é que sistemas derivados intensifiquem os vieses já presentes nas sociedades.

Os exemplos destes vieses são inúmeros. Já falamos aqui sobre estudos sobre reconhecimento de rostos (realizado pela própria Buolamwini), mecanismos de buscas e modelos preditivos para intensificação de vigilância. Nos EUA, mais de 117 milhões de pessoas estão inclusas em redes policiais de identificação de faces – e diferenças na precisão destes sistemas podem arruinar vidas.

No artigo, as autoras apresentam histórico de estudos e debate sobre a construção de bases de treinamento para identificação de gênero para aprendizado de máquina, partindo da discussão de duas bases públicas bastante utilizadas: a IJB-A e o gerado pela Adience. O primeiro, IJB-A, foi criado pelo Intelligence Advanced Research Projects Activity do governo americano e incluía, no momento de produção do artigo, 500 imagens de rostos indivíduos públicos. Já o Adience, por sua vez, possui imagens cerca de 2.284 indivíduos únicos e foi gerada a partir de coleta no Flickr.

Detalhes sobre a base Adience

Mas usar estas bases públicas de treinamento gera bons resultados? Entender os vieses em bases públicas é essencial pois inúmeros softwares e sistemas podem ser construídos de forma derivada a partir deles, reforçando os problemas. E a investigação sobre estas bases permite estabelecer procedimentos para auditoria de sistemas comerciais e sistemas criados/contratados por instituições públicas. Para fim de comparação, então, a autoras criaram uma base de dados própria com procedimentos mais rigorosos.

A Pilot Parliaments Benchmark reúne fotos de 1270 membros parlamentares de seis países: Ruanda, Senegal, África do Sul, Finlândia, Islândia e Suécia. Estes países foram escolhidos por terem proporção relativamente alta de distribuição entre homens e mulheres e representarem tons de pele variados, dos mais escuros aos mais claros. Levando em conta que o construto “raça” é contextual de acordo com cada cultura e país, as autoras optaram por fazer a intersecção de gênero com a variável de cor de pele, a partir da tipologia Fitzpatrick Skin Type, muito usada também por dermatologistas.

Exemplo de faces no Pilot Parliaments Benchmark

Depois de construir o PPB mais preciso e confiável do que as outras bases citadas, as autoras partem então para comparar os resultados dos classificadores comerciais. Buolamwini e Gebru selecionaram IBM Watson, Microsoft Cognitive Services e o Face++  para avaliar a precisão de identificação de gênero no dataset construído. Os resultados variaram de forma impressionante:

  • Todos classificadores foram mais precisos em faces de homens (8,1% – 20,6% diferência de taxa de erro)
  • Todos classificadores performaram melhor em faces mais claras do que faces mais escuras (11,8% contra 19,2% de erro)
  • Todos classificadores performaram pior em faces mais escuras de mulheres (20,8% comparado a 34,7%)
  • Os classificadores da Microsoft e IBM performaram melhor em rotos de homens de pele clara (taxas de erro de 0,0% e 0,3%)
  • Os classificadores do Face++ performaram melhor em rostos masculinos de pele escura (0,7% de taxa de erro)
  • A diferença máxima de taxa de erro entre dois grupos foi de 34,4%!

Ao longo da seção de análise do artigo, as autoras apresentam detalhamento de resultados e comparações entre sub-datasets controlando variáveis como qualidade das imagens. Os resultados apontam inconsistência nas classificações que deixam negros e, sobretudo, mulheres negras em desvantagens, enfatizando a importância de auditoria algorítmica e acompanhamento da sociedade civil sobre agentes artificiais que possam tomar decisões quanto a identificação de pessoas, comunicação automatizada e, sobretudo, aplicações relacionadas a vigilância.

Algorithmic transparency and accountability reach beyond technical reports and should include mechanisms for consent and redress which we do not focus on here. Nonetheless, the ndings from this work concerning benchmark representation and intersectional auditing provide empirical support for increased demographic and phenotypic transparency and accountability in arti cial intelligence.

Assista abaixo um sumário em vídeo do artigo:

O “politicamente correto” e a avaliação crítica de leitores nas mídias sociais

A ideia e o termo “politicamente correto” passou e passa por batalhas discursivas nas últimas décadas. Autores da linha da Teoria Racial Crítica, por exemplo, explicam como a Primeira Emenda na constituição dos Estados Unidos (que trata de liberdade de expressão) tem sido usada por alguns grupos para defender discurso violento, racista, misógino e afins. A interpretação insubordinada de leis que defendem discursos que servem apenas à ódio é vista como essencial, uma vez que “o objetivo de maximizar o debate público não é alcançado em um mercado de ideias distorcido por coerção e privilégio” (LAWRENCE & MATSUDA, 1993)

Nos últimos anos termos como “politicamente correto” passaram a ser usados sobretudo por indivíduos contra qualquer tipo de sensibilidade e respeito à minorias políticas. O professor Ricardo Alexino Ferreira utiliza o termo “socioacêntricos” para dar conta de grupos com baixa representação política, social e econômica, que lutaram e lutam por ocupar espaços de poder, inclusive na comunicação, com objetivo de enfrentar – ou ao menos suavizar – as desvantagens e opressões sistêmicas que sofrem.

No artigo “Etnomidialogia e a interface com o politicamente correto“, o professor Alexino (2012) apresenta um histórico do termo, suas aplicações e controvérsias indo do impacto do trabalho de Michel Foucault (relação entre poder/conhecimento), Barthes (códigos e convenções “invisíveis” de experiência nas linguagens) e Derrida sobre a não-neutralidade da língua.

Enfatizando o papel do jornalismo, o professor faz uma ligação das “cartilhas” do politicamente correto e manuais de redação. A rigor, estes últimos instrumentos desde a década de 1950 institucionalizam as melhores práticas discursivas para o fazer jornalístico. Desde a década de 1990, sobretudo, no tratamento de grupos socioacêntricos também seria percebida

“é possível observar que os princípios do politicamente correto ou um esmerado cuidado ao abordar grupos sócio-acêntricos tem se constituído em preocupação dos veículos. No entanto, nem sempre essas orientações são seguidas. São muitos casos flagrantes de exposição de indivíduos pertencentes a esses grupos. Porém, é possível perceber que nesta última década tem diminuído substancialmente estes tipos de ocorrências, enquanto forma. Porém, enquanto conteúdo, ainda são frequentes.” (FERREIRA, 2012, p.15)

Quanto ao ponto de crítica dos leitores, é excelente observar alguns ambientes de conflitos nas audiências em plataformas digitais de publicação ou divulgação de reportagens, sobretudo as mídias sociais. Os ambientes digitais tornaram-se uma fonte que pode ser muito rica (e por vezes insalubre) para compreensão dos níveis de engajamento dos leitores na análise dos enquadramentos e decisões editoriais. Um termo muito caro à mim é o de “sociologia vernacular”, bastante explorado pelo pesquisador David Beer para tratar da análise “sociológica” que os indivíduos de todos os tipos de formações fazem em algum sentido. De forma similar, poderíamos falar de uma “análise vernacular do texto jornalístico” que muito se apresenta nos ambientes online. Os leitores percebem e discutem como padrões de escrita associam termos e enquadramentos de forma diferente a depender da vulnerabilidade dos personagens de matérias:

 

Porém basta clicar nos tweets acima e ler dezenas de usuários subestimando – de forma violenta, com frequência – a crítica às diferentes abordagens jornalísticas acima. Entre otimismos e pessimismos, a figura do “politicamente escroto” continuará firme, como aponta o professor Wilson Gomes:

“Pois bem, os conservadores e preconceituosos encontraram uma expressão para desqualificar todo o esforço de “descondicionamento” verbal voltado à tolerância e ao respeito – “somos perseguidos e oprimidos pela polícia da correção política” dizem por meio desta frase, do mesmo jeito que Feliciano grita que é vítima (não algoz) de “perseguição religiosa” e “cristofobia”. Sim, senhores, é para politicamente canalhas que respeito e consideração é uma deplorável “correção política”. Curiosamente, no Brasil, virou chique dar-se um toque de rebeldia e irreverência e começar ou terminar frases com “acho um saco o politicamente correto”. Sei. Já eu acho chato pra caramba ser politicamente escroto.”

 

 

Referências

FERREIRA, Ricardo Alexino. Etnomidialogia e a interface com o politicamente correto. Revista Extraprensa, v. 5, n. 2, p. 1-18, 2012.

GOMES, Wilson. Em Defesa da Vida e da Família e contra o politicamente correto…Here we go. Online, 2013. Disponível em http://www.aldeianago.com.br/outros-baianos/7665-em-defesa-da-vida-e-da-familia-e-contra-o-politicamente-corretohere-we-go-por-wilson-gomes

LAWRENCE, Charles R.; MATSUDA, Mari J. Epilogue: Burning Crosses and the RAV Case. In: Words That Wound. Routledge, 1993. p. 133-136.

Formas Contemporâneas de Racismo e Intolerância nas Redes Sociais

O documento Formas Contemporâneas de Racismo e Intolerância nas Redes Sociais foi publicado pelo Dr. Luiz Valério P. Trindade, como um dos resultados de seu doutorado na University of Southampton (Reino Unido). O documento traz informações sobre o racismo nas mídias sociais e recomendações de políticas públicas direcionadas a juventude, autoridades governamentais, legisladores e as próprias empresas de mídias sociais.

Merece destaque o mapeamento de quais os “gatillhos” para movimentos articulados de ódio racista. Os itens impressionam pela crueldade:
a. expressar discordância com algum post ou comentário anterior de cunho negativo contra Negros;
b. evidência de engajamento com profissões consideradas mais ‘nobres’ e de prestígio (por exemplo: medicina, jornalismo, direito, engenharia, etc.);
c. relacionamento interacial;
d. exercer posição de liderança ou bem-sucedida em programa de televisão ou até mesmo como convidada de honra;
e. desfrutar de viagens de férias no exterior (sobretudo em países localizados no Hemisfério Norte);
f. utilizar e/ou enaltecer a adoção de cabelo cacheado natural estilo Afro;
g. vencer concurso de beleza; e
h. rejeitar proposta de relacionamento afetivo.
Trindade também fala, entre outros itens, do Efeito Eco Infinito, no qual posts antigos, de até mais de 03 anos, continuam a reverberar por negligência das plataformas.
Saiba mais sobre o trabalho de Trindade em https://soton.academia.edu/LuizValerioTrindade

Por que empresas de mídia insistem que não são empresas de mídia, por que estão erradas e por que isso importa?

Mais um caso de racismo em plataformas de mídias sociais. Desta vez, o criador de “conteúdo” ou “influenciador” Cocielo, que já trabalhou pra marcas como Coca Cola, Asus, Submarino e outras publicou um tweet racista contra o jogador Mbappé e deletou em seguida, preocupado com os impactos comerciais que teriam. Quando o print do tweet começou a circular, tanto o youtuber quanto amigos e fãs argumentaram que “quem conhecece o Cocielo sabe que ele não é assim” e variantes. Foi o estopim para mostrar que sempre foi assim, na verdade: publicações racistas, misóginas, homofóbias, transfóbicas e violências de todo o tipo foram descobertas por outros tuiteiros e a reincidência em crimes de ódio ficou mais que evidente.

O absurdo de marcas e agências contratarem gente como o Cocielo, permitindo que suas vozes sejam replicadas e fortalecidas (uma vez que os remuneram aumentando seu público) foi coberto por várias analistas, como  Stephanie Ribeiro que comentou que “marcas patrocinam qualquer um, menos os negros com discurso engajado“. Em reportagem no Alma Preta, Thalyta Martins cita fala da historiadora Suzane Martins sobre as “desculpas” do YouTube – “Isso seria trabalhar a política racial em um âmbito individual mediado por conceitos como ‘culpa’ ou ‘perdão’, que dizem mais sobre uma visão cristã e maniqueísta do mundo do que sobre política e projeto de sociedade”. Anderson França em postagem relembra que “eleger pessoas negras engajadas nessa pauta, mudar leis, agir, de cima pra baixo, na educação, no judiciário, nas polícias, nas estruturas fundamentais do estado e da sociedade, para que possamos evitar os novos atos de racismo e mais: eliminar a cultura do racismo.”

Mas este caso está longe de ser novo. Como ocorreu em vários momentos nos últimos anos, criadores de conteúdo, atores e apresentadores de TV cometem repetidamente crimes de ódio nas mídias sociais. Então este caso é um ótimo momento para refletir: por que as plataformas de mídias sociais protegem criminosos? E por que não estamos falando disto?

Plataformas como Twitter, YouTube e Facebook devem ser vistas como mídia, não só como tecnologia. Algoritmos, recursos como Moments, termos de uso e aplicação restrita ou alargada dos Termos de Uso (como encobrir e até remunerar racistas com recursos como Conta Verificada) são, efetivamente, decisões editoriais. Elas não possuem o formato de decisão editorial como em jornais tradicionais, mas o são. E precisamos falar sobre isso.

Um ótimo ponto de partida é o artigo Por que empresas de mídia insistem que não são empresas de mídia, por que estão erradas e por que isso importa?, escrito por Philip Napoli e Robyn Caplan e publicado ano passado na First Monday. Acabou de ser publicado em versão em português, com tradução feita por mim e Willian Araújo na revista Parágrafo. Esta edição da revista Parágrafo inclui um dossiê completo sobre mediações algorítmicas, editado por Willian Araújo e Carlos D’Andrea, com artigos, traduções e entrevista.

No caso do artigo em questão de Napoli e Caplan, resumo pode ser visto a seguir:

Uma posição comum entre plataformas de mídia social e agregadores de conteúdo é sua resistência em ser caracterizados como empresas de mídia. Ao contrário, empresas como Google, Facebook e Twitter tem constantemente insistido que deveriam ser pensadas como puramente empresas de tecnologia. Este artigo critica a opinião que estas plataformas são empresas de tecnologias ao invés de empresas de mídia, explora seus argumentos subjacentes e considera as implicações políticas, legais e regulatórias associadas com o aceite ou recusa desta opinião. Como o artigo ilustra, não é apenas uma distinção semântica, dado que o histórico de classificação precisa de tecnologias e serviços da comunicação possui profundas implicações em como estas tecnologias e serviços da comunicação são avaliadas por decisores políticos e tribunais.

Os autores cobrem os vários argumentos usados por estas plataformas para se posicionarem no campo da “tecnologia”, contra-argumenta mostrando suas fragilidades e, por fim, apresentam a importância desta crítica e os papéis que a academia e sociedade civil podem exercer para uma internet mais justa.

Acesse o artigo diretamente e confira todo o dossiê em http://revistaseletronicas.fiamfaam.br/index.php/recicofi/issue/view/59/showToc