Como circular informações sobre IA, riscos e governança?

Em Maio pude participar do encontro Closing Knowledge Gaps, Fostering Participatory AI Governance: The Role of Civil Society, organizado em Buenos Aires pelo National Endowment for Democracy, International Forum for Democractic Studies e Chequeado. Transcrevo aqui parte de minha fala de abertura para sessão sobre Communicating About AI Governance: Fairness, Accountability.

Respondendo uma das questões de abertura para a fala, gostaria de colaborar com a pergunta sobre “What strategies might be effective for raising the baseline level of knowledge and awareness in this area?”. Um primeiro esforço coletivo me parece reconhecer que os modos de relação com tecnologias digitais emergentes vão ser diferentes a partir das características interseccionais das comunidades, seus problemas e vulnerabilidades.

Em pesquisa que realizamos, com apoio da Tecla (Ação Educativa – Assessoria, Pesquisa e Informação) e Mozilla, perguntamos a mais de 100 experts afrobrasileiros quais eram suas principais preocupações sobre tecnologias digitais emergentes. Minha hipótese era que reconhecimento facial e tecnologias biométricas seriam o tema mais mencionados. Não foi o caso: o principal problema apontado pelos especialistas foi o “Apagamento do Conhecimento e Racismo Epistêmico”. O apagamento intencional de abordagens críticas e antirracistas sobre tecnologia penaliza a justiça racial e atrasa a superação dos impactos de séculos de racismo.

No alt text provided for this image
Fonte: Prioridades Antirracistas sobre Tecnologia e Sociedade

Experts técnicos, científicos e humanistas de grupos minorizados não são ouvidos sobre danos algorítmicos, mas é possível ir ainda além. O papel do “conhecimento experiencial” ou “experiências vividas” é essencial como pilar do pensamento feminista negro, como Patricia Hill Collins que afirma que “Experience as a criterion of meaning with practical images as its symbolic vehicles is a fundamental epistemological tenet” para transformar a realidade.

Assim acredito que a manutenção do discurso da “caixa-preta” sobre os algoritmos digitais é um problema que limita não só a compreensão efetiva dos problemas relacionados a bias, discriminação e racismo nos algoritmos mas também poda o potencial de imaginários sociotécnicos alternativos.

Prefiro particularmente o termo “sistemas algorítmicos” a inteligência artificial por esta razão. O que chamamos de AI não é inteligente nem artificial, então usar este termo pode tanto subestimar a complexidade da inteligência humana quanto apagar todas as camadas de apropriação de trabalho incorporada em sistemas algorítmicos.

No alt text provided for this image
Modelo proposto pela OECD inclui contexto, mas podemos ir ainda além

A comum descrição de sistemas algorítmicos como uma caixa preta entre input, model e output limita o entendimento de seus efeitos, impactos e possibilidades. Quando incluímos na definição ou debate, de forma explícita, camadas como Contexto, Objetivos, Atores Beneficiados e Comunidades Impactadas podemos incluir mais pessoas no debate.

Recomendaria, então, cinco compromissos sobre o tema: 

a.        Inclusão de comunidades impactadas no debate. Mas não é uma questão necessariamente de “knowledge gap”, mas sim uma questão de superar o racismo epistêmico em todas instituições;

b.        Compromisso de que mecanismos de governança em construção, como a supervisão como relatórios de impactos algorítmicos, se transformem em mecanismos públicos e participativos;

c.         Construção de mecanismos de apoio a comunidades vulnerabilizadas, inclusive no oferecimento de recursos, que superem os gatekeepers tradicionais;

d.        Inclusão de stakeholders no campo da educação,como professores de ensino médio, que possam engajar mais pessoas;

e.        Finalmente centrar objetivos e impactos no debate público sobre inteligência artificial. Termos como viés, intenção ou ética são importantes mas não são suficientes, precisamos avançar à justiça algorítmica. E em alguns casos essa justiça significa não implementar o sistema, como é o caso de vigilância biométrica, policiamento preditivo ou reconhecimento de emoções.

A Construção do Marco Regulatório da Inteligência Artificial no Brasil

O Centro de Estudos Judiciários do Conselho da Justiça Federal (CEJ/CJF) e o Superior Tribunal de Justiça (STJ) realizou, no dia 17 de abril, no auditório do CJF, o seminário “A Construção do Marco Regulatório da Inteligência Artificial no Brasil”. O encontro teve o objetivo debater sobre a elaboração do Marco Regulatório da Inteligência Artificial no Brasil, bem como tratar das principais repercussões para o setor de inovação tecnocientífica a partir da implementação de ferramentas de governança regulatória. Colaborei em painel sobre Discriminação Algorítmica, que pode ser assistido no registro abaixo:

Assine princípios e compromissos pela regulação de IA no Pacto Digital Global da ONU

No último fevereiro, pude participar do encontro do Pacto Digital Global – Consulta às Américas, iniciativa do Secretariado de Tecnologias das Nações Unidas. Foi uma troca de ideias entre as partes interessadas sobre o uso futuro de tecnologias digitais, realizado no Ministério das Relações Exteriores do México. Discutimos como a comunidade internacional pode usar essas tecnologias para acelerar o cumprimento da Agenda 2030 das Nações Unidas. Pude levar considerações a partir do trabalho com a Mozilla Foundation e Tecla/Ação Educativa.

Amandeep Singh Gill, Emissário de Tecnologia do Secretariado Geral das Nações Unidas, destacou o papel fundamental que o diálogo multilateral e a ONU podem desempenhar no desenvolvimento de princípios globais sobre tecnologia. “A tecnologia afeta todos os países, comunidades e indivíduos em todo o mundo. É por isso que um processo inclusivo e com várias partes interessadas é fundamental para o sucesso do Pacto Digital Global“.

O objetivo das consultas é produzir recomendações tangíveis e orientadas para a ação que serão refletidas no Pacto Digital Global, que será adotado na Cúpula do Futuro em 2024 e envolve compromissos concretos de todas as partes interessadas, incluindo governos, empresas, civis organizações da sociedade, academia e juventude.

Você também pode contribuir ao Pacto Digital Global! Há várias atividades de consulta multissetorial em andamento, que vão de deep dives temáticos até a submissão de contribuições escritas que são disponibilizadas em plataforma interativa e serão consideradas pelos times das Nações Unidas trabalhando no Summit of the Future.

A Tecla, unidade de direitos digitais e tecnologia da Ação Educativa, desenvolveu submissão escrita ao Pacto Digital Global em três dos eixos trabalhados pela organização: “Conectar todas as pessoas à internet, incluindo todas as escolas”; “Regulação de inteligência artificial” e “Digital commons (bens comuns digitais) como bens globais públicos”.

Veja abaixo os compromissos que subscrevemos em regulação de inteligência artificial, mas você pode ler todo o documento e comentar ou aderir no Typeform:

  • Estados, universidades e o setor privado devem se comprometer a investir no desenvolvimento de tecnologias digitais que não representem riscos conhecidos ou projetados a direitos humanos;
  • Banimento do desenvolvimento de tecnologias digitais emergentes com evidências de discriminação racializada, a exemplo de vigilância biométrica remota em massa; reconhecimento de expressões faciais, identificação de gênero e sexualidade; publicidade segmentada por características psicográficas; armas letais e não-letais semiautônomas ou autônomas; entre outras;
  • Desenvolvimento de abordagem regulatórias deve considerar análise ex-ante que inclua identificação interseccional e interdisciplinar sobre impactos previstos das tecnologias digitais emergentes, com a participação das comunidades possivelmente impactadas;
  • Reivindicar que Estados supervisionem plataformas de intermediação algorítmica de trabalho e estabelecer políticas públicas de regulação ou de fomento em prol da defesa e geração de empregos justos;
  • Estabelecer que Estados, setor privado, sociedade civil e academia desenvolvam políticas mensuráveis de inclusão para combater a falta de representatividade de pessoas negras, mulheres, pessoas com deficiência, LGBTQ+ e suas interseções na idealização, desenho, desenvolvimento, análise, supervisão e implementação de tecnologias digitais emergentes;
  • Exigir que sistemas de alto risco e/ou larga escala, obrigatoriamente, prevejam análises análise de impacto de justiça racial. Este procedimento deve incluir a participação de avaliadores independentes e também de com representação das comunidades impactadas e sociedade civil;
  • Criar alternativas públicas, sem fins lucrativos ou infraestrutura de propriedade dos trabalhadores para competir ou substituir empresas de extração de dados. Implementar transparência obrigatória de código e dados, compartilhados de monopólios de tecnologia, para permitir alternativas públicas ou sem fins lucrativos.

Você concorda com os compromissos acima? Quer saber mais sobre a posição da carta sobre redes comunitárias ou bens digitais comuns? Acesse a carta completa clicando na imagem abaixo e colabore com a defesa dos direitos humanos na tecnologia ao assinar (até o dia 28/4):

Qual o sentido das redes comunitárias?

Nesse episódio do Tecnopolítica, Sérgio Amadeu conversou com Daiane Araújo dos Santos, da Casa dos Meninos e da Ação Educativa, sobre os sentidos e a importância das redes comunitárias de conexão e do uso da Internet. Em um cenário de alta tecnologia, Daiane mostra qual o papel da comunidade na organização da conectividade, na produção de conteúdos, na luta pelos seus valores e na gestão democrática das redes.

Daiane menciona exemplos importantes de utilização e de possibilidades de desenvolvimento dessas redes, que permitem a construção de práticas colaborativas e solidárias a partir das tecnologias. Segue alguns links para quem quiser saber mais sobre as redes comunitárias: IBEBrasil, Casa dos Meninos, Cartilha de Redes Comunitárias, Coolab, PiPA

Justiça Racial e Tecnologia

No episódio #176 do podcast Tecnopolítica, Sérgio Amadeu conversou com Juliane Cintra de Oliveira, diretora executiva da ABONG e coordenadora de tecnologia e comunicação da Ação Educativa. Juliane conversou sobre como podemos levar o conceito de justiça racial para o terreno da tecnologia.

O bate-papo avançou para a importância de explicitar os dispositivos de racialização e preconceitos embarcados nas tecnologias e no ciberespaço. Em seguida, Juliane descreveu o projeto Tecla (https://tecla.org.br/), uma parceria da Ação Educativa, do Projeto Mozilla e de outras organizações da sociedade civil, voltado a ações digitais que priorizem os princípios da educação popular, pluralização de vozes no debate público e a produção de informação e conhecimento.