Entre a (des)inteligência artificial e a epistemologia da ignorância

O texto “Entre a (des)inteligência artificial e a epistemologia da ignorância” foi publicado em dossiê da Revista seLecT com o tema O Algoritmo. Editado por Giselle Beiguelman, inclui reportagens, artigos traduzidos e entrevistas sobre obras de referências no campo como Kate Crawford, Trevor Paglen, Adam Harvey, Maryam Gharavi, Sonya Rapoport e outros.

Acesse o texto pelo Issuu acima ou na página do site da Revista seLecT.

Códigos, Programação e Antirracismo

Tive o prazer de mediar o debate Códigos, Programação e Antirracismo , com Carla Vieira e Andreza Rocha, no Ciclo de Debates “Racismo e antirracismo na atualidade” promovido pelo Núcleo de Estudos Africanos e Afrobrasileiros da UFABC. Discutimos os impactos racistas da algoritmização da vida e reações possíveis, desde o fortalecimento de pilares éticos nas comunidades de desenvolvedores a técnicas computacionais de explicabilidade de sistemas

Carla Vieira é Bacharel em Sistemas de Informação pela USP, mestranda em Inteligência Artificial pela USP, engenheira de software e Google Developer Expert em Machine Learning. Co-fundadora da perifaCode, buscando levar a tecnologia para dentro das periferias. Realiza divulgação científica através de seu canal no youtube (E AI, Carla?) com a missão de democratizar o acesso a tecnologia e Inteligência Artificial.

Andreza Rocha é ativista pela Diversidade & Inclusão racial em tecnologia, propõe conversas significativas sobre como a equidade de gênero e raça, além de práticas antirracistas, trazem inovação ao ambiente corporativo. Diretora de Operações e Diversidade na BrazilJS, plataforma de produção e curadoria de conteúdo voltada para comunidade de tecnologia. Com experiência de 15 anos na área de gestão de pessoas, fundou o Afroya Tech Hub : iniciativa global de projetos e diversidade para inserção, desenvolvimento e ascensão de talentos negros no ecossistema de TIC & Inovação.

Não deixe de acompanhar e assinar o canal do NEAB-UFABC, que já registra debates sobre “Black Lives Matter e a Questão Racial nos EUA“; “Internet na luta antirracista“; “Mulheres Negras, Racismo e Antirracismo” e outros.

Racismo algorítmico e proteção de dados

Nos últimos dias 26 e 27, foi realizado o Seminário Proteção de Dados e os Impactos Sociais na Escola Legislativa da ALERJ. Em duas mesas foram debatidos temáticas sobre proteção de dados, racismo algorítmico, reconhecimento facial e internet com a participação de pesquisadores do Direito, Comunicação, Segurança Pública e Engenharia.

Tive a honra de participar do primeiro dia de debate junto a Estela Aranha, jurista e presidente da Comissão de Proteção de Dados e Privacidade da OAB-RJ ; e Pablo Nunes, cientista político e coordenador do Centro de Estudos de Segurança e Cidadania (CESeC/UCAM). A mediação foi realizada por Ana Carolina Lima, idealizadora do AqualtuneLab:

No segundo dia, o debate “Tecnologia e Exclusão: os desafios para as políticas públicas” reuniu a professora Caitlin Mulholland, o tecnologista Diego Cerqueira (ITS) e Debora Pio, Gestora de Comunicação do NOSSAS, com mediação de Arthur Almeida.

Clube de leitura online debaterá “Comunidades, Algoritmos e Ativismos Digitais – olhares afrodiaspóricos”

O clube de leitura online do grupo/blog InspirADA na Computação decidiu debater o livro Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos!

O projeto busca contribuir na formação intelectual e social de estudantes e profissionais de tecnologia, computação e envolver outros de áreas como ciências humanas e comunicação. O lançamento será na próxima segunda-feira (06/04), às 19h, com um debate sobre cronograma de leitura, introdução e prefácio do livro. Visite o site da InspirADA na Computação para saber como participar:

Google acha que ferramenta em mão negra é uma arma

A desinteligência artificial é uma constante mesmo em grandes empresas reconhecidas pelos seus feitos na tecnologia digital. Na minha Linha do Tempo do Racismo Algorítmico há alguns casos como: a Google marcando pessoas negras como gorilas; Instagram vendo violência e armas onde não há; IBM e Microsoft não reconhecendo gênero de mulheres negras.

Internacionalmente esforços coordenados buscam proibir ou ao menos suspender o uso de inteligência artificial por instituições públicas, sobretudo em segurança pública. As taxas de erro são enormes, de Salvador até centros globais financeiros e tecnológicos como Londres. Atualmente a pandemia de COVID-19 tem sido a desculpa para empresas questionáveis forçarem a normalização de uso de tecnologias problemáticas seja no Brasil ou no exterior.

Mais um caso vulgar de erro em visão computacional foi mapeado. Nas imagens abaixo, o pesquisador Nicolas Kayser-Bril rodou duas imagens de pessoas segurando um termômetro na Google Vision, recurso de análise de imagens. Na foto com a pessoa asiática, as etiquetas “Tecnologia” e “Dispositivo Eletrônico” lideraram. Na com a pessoa negra, a etiqueta “Arma” foi marcada com 88% de certeza.

Esse tipo de erro é causado por um acúmulo de fatores, que vai da base de dados de péssima qualidade, lógica relacional do aprendizado de máquina falta de diversidade no campo e ao technochauvinismo dos profissionais da área que não criam ou reforçam mecanismos de representação adequada. A depender do seu ceticismo você está buscando motivos na imagem para justificar a questão? O pesquisador Bart Nagel responde com o experimento abaixo, onde embranqueceu a mão da foto:

Este é mais um de inúmeros casos da vulgaridade da aplicação da inteligência artificial para supostamente entender questões complexas e sociais da realidade. Mas quando falamos de segurança pública, o horror da necropolítica está agindo claramente. Os inúmeros casos de assassinato de cidadãos por policiais que se “confundiram” possuem uma ligação que não é coincidência com a estupidez da visão computacional. Não podemos, enquanto sociedade, permitir que o technochauvinismo avance ainda mais na segurança pública.

Veja mais casos do horror do racismo algorítmico na Linha do Tempo, entenda como estes recursos funcionam e são nocivos no artigo Visão computacional e Racismo Algorítmico: branquitude e opacidade no aprendizado de máquina e no relatório Interrogating Vision APIs, onde propomos metodologia de auditoria destes sistemas.