Newsletter Desvelar: conhecimento sobre tecnologia e sociedade

Que tal receber semanalmente uma lista curada e comentada de notícias, artigos, vídeos e referências sobre tecnologia e sociedade? E o melhor: com ênfase em abordagens decoloniais e afrodiaspóricas? Esta é a newsletter da Desvelar, que foi lançada no último dia 09. Clique abaixo para ler a primeira e se inscreva:

Premiação de Jornalismo incentiva o technochauvinismo do Estadão e Microsoft

Qual o limite entre as decisões e direcionamento editoriais quanto a aspectos narrativos e de reportagem de fatos do jornalismo e a seleção de técnicas e ferramentas aparentemente neutras? Que o Estadão é um veículo que frequentemente representa o pior que há no jornalismo brasileiro é algo pouco questionável mas e sobre o excelente trabalho técnico das equipes de jornalismo de dados e infografia?

Gostaria de tratar aqui de um caso que me chocou nas eleições passadas. O Estadão buscou usar uma técnica de “inteligência artificial” para supostamente medir em tempo real as emoções dos candidatos durante o debate presidencial. No dia do debate comentei no Twitter sobre os problemas da matéria, mas para minha surpresa o projeto foi indicado ao Prêmio de Inovação em Jornalismo de Dados do Data Journalism Award em 2019.

(Clique para abrir no Wayback Machine)

Considerando o absurdo de uma matéria deste tipo ser indicada a um prêmio deste monte, vale adicionar algumas reflexões, comentários e dados para que jornalistas reflitam sobre o uso destas tecnologias.

Análise de emoções por visão computacional deveria ser estreada em um debate eleitoral à presidência? Este primeiro ponto é uma simples questão de responsabilidade. Assumindo por enquanto que a tecnologia tenha algum nível de precisão, será que os jornalistas deveriam fazer suas primeiras reportagens com a tecnologia justamente em algo tão relevante quanto um debate presidencial? A atribuição de juízos pode ser feita na imagem abaixo, por exemplo. Em trecho sobre Marina, afirma que a candidata “entra no grupo dos candidatos infelizes”.

Gráfico desenvolvido pelo Estadão

A atribuição a um grupo específico associa a imagem da candidata a valores que são rejeitados por eleitores (como inércia, fragilidade, falta de espontaneidade) a partir da avaliação de uma ferramenta automatizada. Até que ponto esta avaliação é justa?

Seduzidos pela quantidade de dados – que estão longe de se transformarem em informação -, os redatores chegam a falar de “depressão na reta final” ao comentar sobre a mensuração das supostas emoções do Álvaro Dias. A empolgação com a tecnologia leva a outros absurdos conceituais sobre emoções e condições mentais que nos fazem lembrar que a reportagem não incluiu um psicólogo entre os redatores, caso típico de colonialismo de campo: a tecnologia é mais importante que os especialistas?

Um veículo jornalístico deveria depender um fornecedor que oferece seu serviço como “caixa preta”? A ideia de caixa preta na Engenharia e nos Estudos de Ciência e Tecnologia se refere a dispositivos ou sistemas que se baseiam em entradas (“inputs”) e saídas (“outputs”) sem que o usuário entenda o que acontece entre estas duas etapas. Mas como funciona em suas minúcias? Quais fatores estão sendo levados em conta? Boa parte dos sistemas de aprendizado de máquina caem nesta categoria, sobretudo os sistemas proprietários e fechados oferecidos através de APIs como a Microsoft.

A Microsoft tem histórico de erros terríveis com inteligência artificial e visão computacional. Isto não deveria ser levado em conta? Talvez o caso mais famoso de auditoria algorítmica seja o projeto Gender Shades de Joy Buolamwini e colaboradoras. Num dos primeiros estudos (realizado por Buolamwini e Timnit Gebru), as pesquisadoras identificaram que a Microsoft a taxa de acerto em classificadores de gênero, por exemplo, foi de 79,2% em mulheres de pele escura em comparação a 100% em homens de pele clara.

O estudo acima é um dos mais robustos na história da auditoria algorítmica e gerou diversos resultados, como alguma melhoria do sistema pela Microsoft e competidores. Mas são inúmeros os outros estudos que mostram os problemas interseccionais do uso de análise de emoções em tecnologias do tipo, como o trabalho de Laura Rhue:

Por que usar especificamente uma API comercial? E por que a Microsoft? Um ponto relevante é que análises similares ao que foi feito na reportagem podem ser feitas com conjuntos de deep learning como a TensorFlow. Não acredito que o jornalismo em sua área mais importante, política, deve se pautar por lobby de corporações, sobretudo estrangeiras. Para além disto, a Microsoft seria a melhor opção? Em projeto que o Andre Mintz e eu lideramos sobre image labelling, o produto da Microsoft esteve muito aquém de seus principais competidores, a IBM e a Google:

Como é possível ver acima, em projeto realizado em janeiro de 2019, o recurso de etiquetamento de imagens da Microsoft esteve muito atrás de seus principais competidores em datasets que analisamos. É importante olhar para este dado para lembrar que a análise de imagens é uma tarefa muito complexa e ideias de “neutralidade” ou “objetividade” são risíveis.

Análise (automatizada) de emoções deveria ser utilizada pelo jornalismo? Aqui é importante que eu esclareça que não tenho restrições à tecnologia de reconhecimento de emoções ou etiquetamento de imagens em si. Pelo contrário, além do projeto que referencio nas imagens acima também aplico a tecnologia em algumas áreas como análise de consumo e tendências para clientes de várias áreas. Mas jamais usaria para atribuir julgamentos de performance ou disposições a seres humanos em um evento tão relevante para o futuro do país.

Há muitas controvérsias sobre a efetividade das propostas do Paul Ekman, o psicólogo que inventou esta tipologia de emoções e suas técnicas para supostamente identificá-las, assim como sua metodologia para interrogar suspeitos. Expressões faciais não são universais como se pensava e Ekman usou literalmente a metáfora da “mina de ouro” para falar de sua pesquisa – ganhando milhões em aplicações questionáveis ideologicamente.

Em conclusão, acredito que tanto a idealização da matéria quanto a injusta indicação ao prêmio pelo Data Journalism Awards são exemplos do technochauvinismo. Este é um conceito proposto por Meredith Broussard no livro Artificial Unintelligence. Segundo Broussard, seria:

a crença de que mais “tecnologia” é sempre a solução. Tecnochauvinismo é frequentemente acompanhado por meritocracia neoliberal, defesa distorcida da “liberdade de expressão” para manter discurso de ódio; da ideia de que computadores seria objetivos e uma fé de que o mundo com mais computadores resolveriam problemas sociais.

Mais pirotecnia tecnológica não é a solução pro jornalismo, sobretudo em temas e eventos sensíveis, sobretudo quando se trata de normalizar o produto de corporações tecnológicas que estão bem longe da precisão. Uma premiação para a reportagem como a citada pode dar a impressão a jovens jornalistas que os campos da infografia, análise e visualização de dados devam ser um fim em si mesmos, independente dos impactos nocivos que possam trazer.

É preciso pensar no papel social não só do jornalismo “em si”, mas também como escolhe, aplica e reproduz tecnologias.

Black In AI – evento sobre inteligência artificial abre chamada de apoios para afro-brasileiros

[Caras/os leitoras/es, o Black In AI lançou nova chamada de apoios para bolsas-viagem específica para afro-brasileiros. Por favor, divulguem a chamada para colegas cientistas da computação ou pesquisadoras de outras áreas, tais como estudos de ciência e tecnologia]

É com imenso prazer que anunciamos que este ano o workshop Black in AI terá uma chamada direcionada a população Afro-brasileira. Mais da metade da população brasileira se identifica como Afro-brasileira e trazer essa população para o debate é muito importante para a diversificação do pensamento. Essa chamada convida alunos, professores e outros associados que se identificam como Afro-Brasileiros para participar do Workshop Black in AI, incluindo recepção e a conferência NeurIPS. O workshop acontecerá no dia 9 de Dezembro de 2019 e a recepção do workshop acontecerá no dia 13 de Dezembro de 2019. Serão oferecidas bolsas-viagem que cobrirão inscrição para o workshop e para a conferência (NeurIPS), passagens e hospedagem, além de despesas associadas ao workshop. Em caso de dúvidas, favor enviá-las para bai2019_usa@googlegroups.com (Em Inglês) ou para vsilva@ualberta.ca (em Inglês ou Português).

Gostaríamos também de encorajar os/as selecionados(as) a participar da Conferência NeurIPS – A maior conferência científica de Inteligência Artificial do mundo. A conferência acontecerá de 8 a 14 de dezembro de 2019, também em Vancouver, Columbia Britânica, Canada.
Convidamos todos(as) aqueles(as) que se auto-identificam como Afro-brasileiros(as) e são estudantes, graduados(as), professores(as), dentre outros, a aplicar para as bolsas-viagem e submeter resumos expandidos para o workshop. Os/As interessados(as) podem também aplicar para bolsas-viagem mesmo que não tenha submetido um abstrato expandido. Mais detalhes sobre o processo podem ser encontrados abaixo.

Datas importantes
Data limite para submissão do resumo: 28 de outubro de 2019 as 11 da noite, UTC.
Data limite para aplicar para bolsa-viagem: 28 de outubro de 2019 as 11 da noite, UTC.

Chamada de Resumos Expandidos
Convidamos todos(as) os/as autores(as) a submeter resumos expandidos EM INGLÊS para o Terceiro workshop Black in AI (co-localizado com o NeurIPS 2019), que acontece no dia 9 de dezembro de 2019 no Centro de Convenções de Vancouver, em Vancouver, Columbia Britânica, Canada. Tópicos de Interesse incluem, mas não estão limitados a:

  • Inteligência Artificial
  • Aprendizado de Máquina
  • Neurociência Computacional
  • Aprendizado Profundo
  • Descoberta de conhecimento
  • Sistemas multi-agente
  • Teoria da Computação
  • Visão computacional
  • Processamento de Linguagem Natural
  • Robótica
  • Inteligência Artificial e Saúde
  • Inteligência Artificial e Educação
  • Justiça, Ética e Transparência em Inteligência Artificial

Resumos expandidos podem introduzir novos conceitos, metodologias, aplicações e demonstrações. Tais resumos podem ainda sintetizar trabalhos existentes, identificar futuras áreas de pesquisa ou informar sobre áreas as quais Inteligência Artificial poderia ter grande impacto.
Submissões podem ser classificadas em uma das quatro trilhas:

  • Algoritmos de Aprendizado de Maquina
  • Aplicações de Inteligência Artificial
  • Papers de posicionamento
  • Demonstrações de produto

As submissões não serão arquivadas, portanto aceitar-se-ão trabalhos publicados previamente (desde que atualizados para o workshop), completos ou em andamento. Encorajamos que todos(as) os/as pesquisadores(as) Afro-brasileiros(as), em áreas relacionadas à Inteligência Artificial, a enviar seus trabalhos para apreciação. O/A pesquisador(a) Afro-brasileiro(a) não necessariamente deve ser o/a principal autor(a) do trabalho, mas ao menos um(a) Afro-brasileiro(a) deve ser parte do trabalho produzido.

Submissão do Resumo expandido
Submissões serão avaliadas por ao menos dois/duas revisores(as) experts sobre o assunto o qual o trabalho se classifica. O workshop não arquivará os trabalhos e não publicará proceedings. Encorajamos que todas os/as pesquisadores(as) Afro-brasileiros(as), em áreas relacionadas à Inteligência Artificial, a enviar seus trabalhos para apreciação. O/A pesquisador(a) Afro-brasileiro(a) não necessariamente deve ser o/a principal autor(a) do trabalho, mas ao menos um(a) Afro-brasileiro(a) deve ser parte do trabalho produzido.

Instruções de formatação
Submissões devem ser enviadas em formato PDF e tem um limite de duas páginas para texto e podem incluir uma página de citações. O texto deve ser escrito EM INGLÊS, submissões em Português serão automaticamente rejeitadas. Submissões devem ter uma única coluna com fonte arial tamanho 11. O papel deve ter format Letter e deve ter uma margem de uma polegada em todas as direções.
Submissões em linguagens que não sejam o Inglês serão automaticamente rejeitadas. Submissões que não sigam as instruções de formatação serão rejeitadas sem consideração de mérito.

Revisão Double-blind
Submissões serão revisadas por ao menos dois revisores, além de um chair de área. O procedimento será double-blind para revisores. Os autores(as) deverão remover todas as formas de identificação em suas submissões. O trabalho nao devera conter nomes, afiliações ou agradecimentos, além de auto-citações devem ser anônimas.
Os trabalhos devem conter até duas páginas, incluindo todas as figuras e tabelas. Uma página para referências pode ser adicionada. A submissão deve ser formatada em coluna única em fonte Arial tamanho 11. O papel deve ser tamanho letter e deve conter uma margem de uma polegada em todas as direções.
Submissões devem conter o problema a ser resolvido, motivação, contribuição técnica e científica, além de poder conter figuras, tabelas e referências. O trabalho deverá ser submetido via EasyChair (CLIQUE AQUI PARA ENVIAR SEU TRABALHO) e a deadline e dia 28 de outubro de 2019.

Veja aqui alguns exemplos de papers aceitos para o workshop em anos anteriores.

 

Aplicações para bolsa-viagem
Bolsas-viagem baseadas em necessidade serão concedidas a participantes do workshop. Participantes não precisam submeter um trabalho para o workshop para serem considerados para uma bolsa-viagem. A bolsa pode ser utilizada para cobrir custos associados a participação no workshop, tal como, registro para a conferência, hospedagem e passagens. Observe que a bolsa não necessariamente cobrirá todos(as) os/as custos e que nem todos(as) os/as participantes receberão bolsas. A quantia alocada para cada participante depende do número de aplicações e localização do participante.

As aplicações para bolsa-viagem devem ser feitas EM INGLÊS neste link (CLIQUE AQUI) até 28 de Outubro de 2019 as 11 da noite, UTC.
Nota: Esta é uma tradução livre, em caso de discrepância entre a versão em inglês e esta tradução, a versão em inglês será utilizada para resolução de quaisquer eventualidades.

Mensagem de: Victor Silva
Chair de Recrutamento
Black in AI 2019
Universidade de Alberta, Edmonton Alberta, Canadá.

Tecnologias Negras: ciclo no Sesc promove centenas de cursos, atividades e palestras em outubro

Durante outubro e novembro, as unidades do Sesc em São Paulo promoverão um ciclo de atividades sobre Tecnologias e Artes Negras com dezenas de cursos, palestras e oficinas. Segundo a organização, a iniciativa “objetiva articular e dar vazão à efervescente produção de artistas, pesquisadoras(es), intelectuais e mestras(es) do saber negras e negros, nos campos das Artes Visuais e Tecnologias, e, assim, estimular a difusão de práticas educativas não formais, pautadas pelo princípio da equidade. Dessa forma, visa demarcar um espaço democrático de discussão sobre campos presentes na cultura negra, tais como: Tecnologias e Ancestralidade; Tecnologias Digitais e Contemporâneas; Utopias, Distopias e Afrofuturismo; Tecnologias Invisibilizadas e de Resistência; e Estética, Crítica e História da Arte.

As atividades foram divididas em cinco grupos, ligados a adinkras específicos:

Nas mais de 30 unidades na capital e interior, as equipes dos Espaços de Tecnologias e Arte (ETA) fizeram curadoria ativa e abriram chamada para as atividades. É simplesmente gigantesca a programação e lembro que o Sesc possui fim social, então a maior parte das atividades é gratuita ou a preços acessíveis.  Sou curador e professor em uma atividade e participo de outra mesa:

Humanidades Digitais Negras – curso idealizado por mim, com aulas de Morena Mariah, Taís Oliveira, Larissa Pontes e Fernanda Sousa:

Descobrir, resgatar, conectar e visualizar produções históricas, narrativas, artísticas e epistemologias negras tem sido a missão de pesquisadoras e pesquisadores negros em todo o mundo. A atividade “Humanidades Digitais Negras” reunirá aulas e debates entre pesquisadoras/es das áreas da Comunicação, Mídia, Sociologia, Antropologia e Letras para apresentar o campo e suas práticas aos participantes.

Machine Learning, Algoritmos e Mecanismos de Discriminação. Idealizado pelo colega Rodolfo Avelino (Professor Insper, Pesquisador na UFABC e criador do Coletivo Digital), contará também com Fernanda Monteiro tecnóloga, artista digital, oraculista e pesquisadora independente, transitando de maneira “indisciplinar” entre a tecnopolítica, feminismos e transhumanismos; e comigo. Descrição:

Utilizados em larga escala atualmente pelos mais diversos serviços de internet e sistemas da informação, os algoritmos e máquinas orientadas por machine learning prometem uma maneira revolucionária de lidar com dados e criar serviços e plataformas dinâmicas que se adaptam facilmente aos desejos e necessidades de seus usuários. Mas o que acontece quando o desenvolvimento dessas ferramentas possui vieses ocultos, que incorporam e reforçam preconceitos ainda não solucionados em nossa sociedade?

Nem todas as atividades já tem as páginas com informações específicas e inscrições, mas você conferir toda a lista da programação. Difícil selecionar algumas em destaque, mas recomendo especialmente:

 

As ilustrações neste post foram retiradas da cartilha de programação do Sesc e foram criadas pelo Marcelo D’Salete, quadrinista autor de produções como Cumbe. O quadrinista também vai oferecer um curso – História em Quadrinhos.