A desinteligência artificial é uma constante mesmo em grandes empresas reconhecidas pelos seus feitos na tecnologia digital. Na minha Linha do Tempo do Racismo Algorítmico há alguns casos como: a Google marcando pessoas negras como gorilas; Instagram vendo violência e armas onde não há; IBM e Microsoft não reconhecendo gênero de mulheres negras.
Internacionalmente esforços coordenados buscam proibir ou ao menos suspender o uso de inteligência artificial por instituições públicas, sobretudo em segurança pública. As taxas de erro são enormes, de Salvador até centros globais financeiros e tecnológicos como Londres. Atualmente a pandemia de COVID-19 tem sido a desculpa para empresas questionáveis forçarem a normalização de uso de tecnologias problemáticas seja no Brasil ou no exterior.
Mais um caso vulgar de erro em visão computacional foi mapeado. Nas imagens abaixo, o pesquisador Nicolas Kayser-Bril rodou duas imagens de pessoas segurando um termômetro na Google Vision, recurso de análise de imagens. Na foto com a pessoa asiática, as etiquetas “Tecnologia” e “Dispositivo Eletrônico” lideraram. Na com a pessoa negra, a etiqueta “Arma” foi marcada com 88% de certeza.
Esse tipo de erro é causado por um acúmulo de fatores, que vai da base de dados de péssima qualidade, lógica relacional do aprendizado de máquina falta de diversidade no campo e ao technochauvinismo dos profissionais da área que não criam ou reforçam mecanismos de representação adequada. A depender do seu ceticismo você está buscando motivos na imagem para justificar a questão? O pesquisador Bart Nagel responde com o experimento abaixo, onde embranqueceu a mão da foto:
Este é mais um de inúmeros casos da vulgaridade da aplicação da inteligência artificial para supostamente entender questões complexas e sociais da realidade. Mas quando falamos de segurança pública, o horror da necropolítica está agindo claramente. Os inúmeros casos de assassinato de cidadãos por policiais que se “confundiram” possuem uma ligação que não é coincidência com a estupidez da visão computacional. Não podemos, enquanto sociedade, permitir que o technochauvinismo avance ainda mais na segurança pública.
Veja mais casos do horror do racismo algorítmico na Linha do Tempo, entenda como estes recursos funcionam e são nocivos no artigo Visão computacional e Racismo Algorítmico: branquitude e opacidade no aprendizado de máquina e no relatório Interrogating Vision APIs, onde propomos metodologia de auditoria destes sistemas.
Texto muito bom!