Curso “Raça e Tecnologias Digitais de Comunicação” acontece em março

Desenvolvi um curso sobre “Raça e Tecnologias Digitais de Comunicação: das redes sociais aos algoritmos“. A atividade tem como objetivo apresentar um panorama do debate sobre raça, racismo, branquitude e negritude nas tecnologias digitais de comunicação em quatro encontros. O conteúdo abordará o histórico e estudos da tecnologia e mídias sociais até bibliografia acadêmica, mapeamento de casos e pesquisas empíricas e mercadológicas recentes sobre plataformas e algoritmos. Usaremos como referencial publicações afrocentradas, incluindo a coletânea “Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos”, que será lançada início de março! Clique abaixo para saber mais e se inscrever:

Newsletter Desvelar: conhecimento sobre tecnologia e sociedade

Que tal receber semanalmente uma lista curada e comentada de notícias, artigos, vídeos e referências sobre tecnologia e sociedade? E o melhor: com ênfase em abordagens decoloniais e afrodiaspóricas? Esta é a newsletter da Desvelar, que foi lançada no último dia 09. Clique abaixo para ler a primeira e se inscreva:

Premiação de Jornalismo incentiva o technochauvinismo do Estadão e Microsoft

Qual o limite entre as decisões e direcionamento editoriais quanto a aspectos narrativos e de reportagem de fatos do jornalismo e a seleção de técnicas e ferramentas aparentemente neutras? Que o Estadão é um veículo que frequentemente representa o pior que há no jornalismo brasileiro é algo pouco questionável mas e sobre o excelente trabalho técnico das equipes de jornalismo de dados e infografia?

Gostaria de tratar aqui de um caso que me chocou nas eleições passadas. O Estadão buscou usar uma técnica de “inteligência artificial” para supostamente medir em tempo real as emoções dos candidatos durante o debate presidencial. No dia do debate comentei no Twitter sobre os problemas da matéria, mas para minha surpresa o projeto foi indicado ao Prêmio de Inovação em Jornalismo de Dados do Data Journalism Award em 2019.

(Clique para abrir no Wayback Machine)

Considerando o absurdo de uma matéria deste tipo ser indicada a um prêmio deste monte, vale adicionar algumas reflexões, comentários e dados para que jornalistas reflitam sobre o uso destas tecnologias.

Análise de emoções por visão computacional deveria ser estreada em um debate eleitoral à presidência? Este primeiro ponto é uma simples questão de responsabilidade. Assumindo por enquanto que a tecnologia tenha algum nível de precisão, será que os jornalistas deveriam fazer suas primeiras reportagens com a tecnologia justamente em algo tão relevante quanto um debate presidencial? A atribuição de juízos pode ser feita na imagem abaixo, por exemplo. Em trecho sobre Marina, afirma que a candidata “entra no grupo dos candidatos infelizes”.

Gráfico desenvolvido pelo Estadão

A atribuição a um grupo específico associa a imagem da candidata a valores que são rejeitados por eleitores (como inércia, fragilidade, falta de espontaneidade) a partir da avaliação de uma ferramenta automatizada. Até que ponto esta avaliação é justa?

Seduzidos pela quantidade de dados – que estão longe de se transformarem em informação -, os redatores chegam a falar de “depressão na reta final” ao comentar sobre a mensuração das supostas emoções do Álvaro Dias. A empolgação com a tecnologia leva a outros absurdos conceituais sobre emoções e condições mentais que nos fazem lembrar que a reportagem não incluiu um psicólogo entre os redatores, caso típico de colonialismo de campo: a tecnologia é mais importante que os especialistas?

Um veículo jornalístico deveria depender um fornecedor que oferece seu serviço como “caixa preta”? A ideia de caixa preta na Engenharia e nos Estudos de Ciência e Tecnologia se refere a dispositivos ou sistemas que se baseiam em entradas (“inputs”) e saídas (“outputs”) sem que o usuário entenda o que acontece entre estas duas etapas. Mas como funciona em suas minúcias? Quais fatores estão sendo levados em conta? Boa parte dos sistemas de aprendizado de máquina caem nesta categoria, sobretudo os sistemas proprietários e fechados oferecidos através de APIs como a Microsoft.

A Microsoft tem histórico de erros terríveis com inteligência artificial e visão computacional. Isto não deveria ser levado em conta? Talvez o caso mais famoso de auditoria algorítmica seja o projeto Gender Shades de Joy Buolamwini e colaboradoras. Num dos primeiros estudos (realizado por Buolamwini e Timnit Gebru), as pesquisadoras identificaram que a Microsoft a taxa de acerto em classificadores de gênero, por exemplo, foi de 79,2% em mulheres de pele escura em comparação a 100% em homens de pele clara.

O estudo acima é um dos mais robustos na história da auditoria algorítmica e gerou diversos resultados, como alguma melhoria do sistema pela Microsoft e competidores. Mas são inúmeros os outros estudos que mostram os problemas interseccionais do uso de análise de emoções em tecnologias do tipo, como o trabalho de Laura Rhue:

Por que usar especificamente uma API comercial? E por que a Microsoft? Um ponto relevante é que análises similares ao que foi feito na reportagem podem ser feitas com conjuntos de deep learning como a TensorFlow. Não acredito que o jornalismo em sua área mais importante, política, deve se pautar por lobby de corporações, sobretudo estrangeiras. Para além disto, a Microsoft seria a melhor opção? Em projeto que o Andre Mintz e eu lideramos sobre image labelling, o produto da Microsoft esteve muito aquém de seus principais competidores, a IBM e a Google:

Como é possível ver acima, em projeto realizado em janeiro de 2019, o recurso de etiquetamento de imagens da Microsoft esteve muito atrás de seus principais competidores em datasets que analisamos. É importante olhar para este dado para lembrar que a análise de imagens é uma tarefa muito complexa e ideias de “neutralidade” ou “objetividade” são risíveis.

Análise (automatizada) de emoções deveria ser utilizada pelo jornalismo? Aqui é importante que eu esclareça que não tenho restrições à tecnologia de reconhecimento de emoções ou etiquetamento de imagens em si. Pelo contrário, além do projeto que referencio nas imagens acima também aplico a tecnologia em algumas áreas como análise de consumo e tendências para clientes de várias áreas. Mas jamais usaria para atribuir julgamentos de performance ou disposições a seres humanos em um evento tão relevante para o futuro do país.

Há muitas controvérsias sobre a efetividade das propostas do Paul Ekman, o psicólogo que inventou esta tipologia de emoções e suas técnicas para supostamente identificá-las, assim como sua metodologia para interrogar suspeitos. Expressões faciais não são universais como se pensava e Ekman usou literalmente a metáfora da “mina de ouro” para falar de sua pesquisa – ganhando milhões em aplicações questionáveis ideologicamente.

Em conclusão, acredito que tanto a idealização da matéria quanto a injusta indicação ao prêmio pelo Data Journalism Awards são exemplos do technochauvinismo. Este é um conceito proposto por Meredith Broussard no livro Artificial Unintelligence. Segundo Broussard, seria:

a crença de que mais “tecnologia” é sempre a solução. Tecnochauvinismo é frequentemente acompanhado por meritocracia neoliberal, defesa distorcida da “liberdade de expressão” para manter discurso de ódio; da ideia de que computadores seria objetivos e uma fé de que o mundo com mais computadores resolveriam problemas sociais.

Mais pirotecnia tecnológica não é a solução pro jornalismo, sobretudo em temas e eventos sensíveis, sobretudo quando se trata de normalizar o produto de corporações tecnológicas que estão bem longe da precisão. Uma premiação para a reportagem como a citada pode dar a impressão a jovens jornalistas que os campos da infografia, análise e visualização de dados devam ser um fim em si mesmos, independente dos impactos nocivos que possam trazer.

É preciso pensar no papel social não só do jornalismo “em si”, mas também como escolhe, aplica e reproduz tecnologias.

Sistema da SPTrans impede usuária de usar foto com cabelo solto

A publicitária e professora Larissa Macêdo denunciou o sistema da SPTrans que a impediu de usar fotografia com o cabelo solto em 17 tentativas seguidas com fotos diferentes – para depois aprovar sua foto com o cabelo preso.

Ironicamente, o vídeo da SPTrans de orientação para a foto usa a ilustração de um rapaz negro como exemplo. O acúmulo de decisões discriminatórias na auto-apresentação dos indivíduos gera bases de dados que posteriormente são usadas no treinamento de sistemas automatizados e deve ser levado em conta na crítica à tecnologia.

Leia o texto da publicitária sobre o caso:

Ei, SPTRANS! Tenho uma pergunta: se todas as fotos estão dentro dos critérios técnicos de tamanho e formato designados por vcs, pq tive 17 imagens REPROVADAS (de cabelo solto) e apenas a que estou de cabelo preso APROVADA? 🧐

Pessoal, como vcs estão acompanhando, estamos desde ontem tentando subir minha foto no site da SPTRANS para que eu possa fazer o bilhete único. Sem a foto no sistema, não é possível finalizar o processo de criação do cartão.

Pois bem, os requisitos para incluir a foto no sistema da SPTRANS e listados no site do bilhete único, são:

a) Formato: 3×4;
b) Tamanho máximo do arquivo: 60kb;
c) Tipos do arquivo: jpg ou jpeg;
d) Posição do usuário: Deve estar de frente e com rosto em primeiro plano;
e) Fundo da foto: Deve ser neutro, como nas fotos utilizadas em documentos oficiais (ex: RG, Carteira de Habilitação, Passaporte), sem objetos visíveis;
IMPORTANTE: Não serão aprovadas fotos com a pessoa de perfil, fazendo selfie, ao lado de outras pessoas, usando óculos de sol, boné/chapéu ou adereços que cubram parte do rosto, e com baixa resolução ou qualidade.

Após exatas 17 tentativas (todas atendendo os requisitos de tamanho e formato da imagem) tive uma foto aprovada. A questão é: todas as fotos REPROVADAS são as que apareço de cabelo solto (black power), a foto APROVADA foi a ÚNICA em que eu estou de cabelos presos! Ela inclusive foi APROVADA DE PRIMEIRA.

Sei que muitos de vocês me deram dicas e tentaram ajudar pq tiveram e têm problemas para subir essa foto nesse sistema (que é péssimo!). Mas, infelizmente, na sociedade RACISTA que vivemos não considero esses episódios como meras coincidências.

É relevante notar o caso uma vez que as infraestruturas de transporte estão entre as principais habilitadoras do racismo algorítmico. Segundo estudo da Igarapé, a categoria “Transporte” é o tipo de aplicação mais comum de reconhecimento facial no país. Em São Paulo, a concessionária de transportes ViaQuatro foi uma das primeiras a tentar normalizar o reconhecimento facial em locais públicos para otimização de anúncios. Do consumo rapidamente o estado de São Paulo pulou para a necropolítica: as demais linhas do metrô estão investindo cerca de 70 milhões de reais em reconhecimento facial para vigilância.