Qual o limite entre as decisões e direcionamento editoriais quanto a aspectos narrativos e de reportagem de fatos do jornalismo e a seleção de técnicas e ferramentas aparentemente neutras? Que o Estadão é um veículo que frequentemente representa o pior que há no jornalismo brasileiro é algo pouco questionável mas e sobre o excelente trabalho técnico das equipes de jornalismo de dados e infografia?
Gostaria de tratar aqui de um caso que me chocou nas eleições passadas. O Estadão buscou usar uma técnica de “inteligência artificial” para supostamente medir em tempo real as emoções dos candidatos durante o debate presidencial. No dia do debate comentei no Twitter sobre os problemas da matéria, mas para minha surpresa o projeto foi indicado ao Prêmio de Inovação em Jornalismo de Dados do Data Journalism Award em 2019.
Considerando o absurdo de uma matéria deste tipo ser indicada a um prêmio deste monte, vale adicionar algumas reflexões, comentários e dados para que jornalistas reflitam sobre o uso destas tecnologias.
Análise de emoções por visão computacional deveria ser estreada em um debate eleitoral à presidência? Este primeiro ponto é uma simples questão de responsabilidade. Assumindo por enquanto que a tecnologia tenha algum nível de precisão, será que os jornalistas deveriam fazer suas primeiras reportagens com a tecnologia justamente em algo tão relevante quanto um debate presidencial? A atribuição de juízos pode ser feita na imagem abaixo, por exemplo. Em trecho sobre Marina, afirma que a candidata “entra no grupo dos candidatos infelizes”.
A atribuição a um grupo específico associa a imagem da candidata a valores que são rejeitados por eleitores (como inércia, fragilidade, falta de espontaneidade) a partir da avaliação de uma ferramenta automatizada. Até que ponto esta avaliação é justa?
Seduzidos pela quantidade de dados – que estão longe de se transformarem em informação -, os redatores chegam a falar de “depressão na reta final” ao comentar sobre a mensuração das supostas emoções do Álvaro Dias. A empolgação com a tecnologia leva a outros absurdos conceituais sobre emoções e condições mentais que nos fazem lembrar que a reportagem não incluiu um psicólogo entre os redatores, caso típico de colonialismo de campo: a tecnologia é mais importante que os especialistas?
Um veículo jornalístico deveria depender um fornecedor que oferece seu serviço como “caixa preta”? A ideia de caixa preta na Engenharia e nos Estudos de Ciência e Tecnologia se refere a dispositivos ou sistemas que se baseiam em entradas (“inputs”) e saídas (“outputs”) sem que o usuário entenda o que acontece entre estas duas etapas. Mas como funciona em suas minúcias? Quais fatores estão sendo levados em conta? Boa parte dos sistemas de aprendizado de máquina caem nesta categoria, sobretudo os sistemas proprietários e fechados oferecidos através de APIs como a Microsoft.
A Microsoft tem histórico de erros terríveis com inteligência artificial e visão computacional. Isto não deveria ser levado em conta? Talvez o caso mais famoso de auditoria algorítmica seja o projeto Gender Shades de Joy Buolamwini e colaboradoras. Num dos primeiros estudos (realizado por Buolamwini e Timnit Gebru), as pesquisadoras identificaram que a Microsoft a taxa de acerto em classificadores de gênero, por exemplo, foi de 79,2% em mulheres de pele escura em comparação a 100% em homens de pele clara.
O estudo acima é um dos mais robustos na história da auditoria algorítmica e gerou diversos resultados, como alguma melhoria do sistema pela Microsoft e competidores. Mas são inúmeros os outros estudos que mostram os problemas interseccionais do uso de análise de emoções em tecnologias do tipo, como o trabalho de Laura Rhue:
Por que usar especificamente uma API comercial? E por que a Microsoft? Um ponto relevante é que análises similares ao que foi feito na reportagem podem ser feitas com conjuntos de deep learning como a TensorFlow. Não acredito que o jornalismo em sua área mais importante, política, deve se pautar por lobby de corporações, sobretudo estrangeiras. Para além disto, a Microsoft seria a melhor opção? Em projeto que o Andre Mintz e eu lideramos sobre image labelling, o produto da Microsoft esteve muito aquém de seus principais competidores, a IBM e a Google:
Como é possível ver acima, em projeto realizado em janeiro de 2019, o recurso de etiquetamento de imagens da Microsoft esteve muito atrás de seus principais competidores em datasets que analisamos. É importante olhar para este dado para lembrar que a análise de imagens é uma tarefa muito complexa e ideias de “neutralidade” ou “objetividade” são risíveis.
Análise (automatizada) de emoções deveria ser utilizada pelo jornalismo? Aqui é importante que eu esclareça que não tenho restrições à tecnologia de reconhecimento de emoções ou etiquetamento de imagens em si. Pelo contrário, além do projeto que referencio nas imagens acima também aplico a tecnologia em algumas áreas como análise de consumo e tendências para clientes de várias áreas. Mas jamais usaria para atribuir julgamentos de performance ou disposições a seres humanos em um evento tão relevante para o futuro do país.
Há muitas controvérsias sobre a efetividade das propostas do Paul Ekman, o psicólogo que inventou esta tipologia de emoções e suas técnicas para supostamente identificá-las, assim como sua metodologia para interrogar suspeitos. Expressões faciais não são universais como se pensava e Ekman usou literalmente a metáfora da “mina de ouro” para falar de sua pesquisa – ganhando milhões em aplicações questionáveis ideologicamente.
Em conclusão, acredito que tanto a idealização da matéria quanto a injusta indicação ao prêmio pelo Data Journalism Awards são exemplos do technochauvinismo. Este é um conceito proposto por Meredith Broussard no livro Artificial Unintelligence. Segundo Broussard, seria:
a crença de que mais “tecnologia” é sempre a solução. Tecnochauvinismo é frequentemente acompanhado por meritocracia neoliberal, defesa distorcida da “liberdade de expressão” para manter discurso de ódio; da ideia de que computadores seria objetivos e uma fé de que o mundo com mais computadores resolveriam problemas sociais.
Mais pirotecnia tecnológica não é a solução pro jornalismo, sobretudo em temas e eventos sensíveis, sobretudo quando se trata de normalizar o produto de corporações tecnológicas que estão bem longe da precisão. Uma premiação para a reportagem como a citada pode dar a impressão a jovens jornalistas que os campos da infografia, análise e visualização de dados devam ser um fim em si mesmos, independente dos impactos nocivos que possam trazer.
É preciso pensar no papel social não só do jornalismo “em si”, mas também como escolhe, aplica e reproduz tecnologias.
Concordo plenamente que é uma burrice usar a “inteligência artificial” para supostamente medir em tempo real as emoções dos candidatos/eleitores durante o debate presidencial. Por outro lado, que a imprensa brasileira (e do resto do mundo) tem problemas não há dúvida. Mas não dá para entender porque o Tarcízio Silva parte da premissa de que o Estadão representa o que há de pior na imprensa brasileira, tomando como exemplo (ou ‘linkando’…) o editoral “Uma escolha muito difícil” (08/10/2018).