O racismo por trás dos filtros do FaceApp e de outras tecnologias

Na última semana tive o prazer de conversar com a jornalista Beatriz Sans, do R7, sobre o caso recente da controvérsia em torno do FaceApp. A jornalista escreveu matéria muito interessante sobre o aplicativo e citou outros casos que tenho mapeados na Timeline. Você pode clicar abaixo para ver a reportagem e colo, em seguida, a íntegra das minhas respostas:

Por que o FaceApp pode ser considerado racista?

Em 2017 o FaceApp viralizou pela primeira vez e jornalistas e ativistas ingleses identificaram como o aplicativo tinha um filtro chamado “Hot”, que deixaria as selfies mais atraentes, que embranqueceu rostos de todos usuários, inclusive de usuários negros e indianos de forma aberrante.

Na pesquisa desenvolvo o conceito de “racismo algorítmico” para tratar de como sistemas e práticas racistas se manifestam em aplicativos e agentes artificiais. Em minha tese mapeio dezenas de casos explícitos como o do FaceApp, mas mais do que apontar um aplicativo ou outro, é importante entender como a desigualdade resultante de séculos de exploração, ainda vigentes, se desdobra também em tecnologias do cotidiano.

 

Quais são as preocupações que o usuário precisa ter ao usar esses aplicativos? De que forma essas imagens podem ser utilizadas no futuro? Quais são os principais problemas com o reconhecimento facial?

Eu defendo que as pessoas sejam cautelosas com procedimentos e aplicativos de processamento automático de conteúdo e inteligência artificial. Individualmente podem ter impactos negativos pontuais: no caso do FaceApp, insultos à estética e beleza não-europeia, por exemplo. Mas de modo mais amplo alguns destes aplicativos somam informações para o treinamento de sistemas de aprendizado de máquina que, posteriormente, podem ter desdobramentos nocivos.

O mais recorrente deles é o uso desses dados coletivos para sistemas de reconhecimento facial que ajudem projetos opressivos em países autoritários ou em declínio democrático. Por exemplo, nos EUA funcionários da Amazon estão protestando e tentando impedir que a empresa trabalhe para órgãos como o ICE que documenta e persegue imigrantes no país.

Outro uso em crescimento é a construção dos chamados deep fakes, que são simulações de fotografias e vídeos de pessoas que não existem ou de pessoas reais, mas em situações falsas. Podem e são usados para projetos de desinformação que se multiplicam em torno do mundo em controvérsias políticas.

Mesmo o reconhecimento facial para fins de identificação cotidiana em contextos democráticos e justos é criticado em torno do mundo. Muitos juristas e ativistas defendem que o uso de reconhecimento facial como tecnologia biométrica não deveria ser disseminado. Mas, ao contrário, já está sendo usado por polícias de todo o mundo – e de forma desastrosa.

Em estudo recente, se descobriu que 81% dos casos de reconhecimento de suspeitos na região de Londres foram errados. No Brasil algumas cidades estão usando o recurso e já há casos de erros documentados no Rio de Janeiro. Estas tecnologias não deveriam ser implementadas sem amplo debate com a sociedade e organizações de direitos civis.

 

Como o racismo algorítmico impacta em outras áreas da tecnologia?

Há casos documentados não só na comunicação e em plataformas de mídias sociais, mas em diversas áreas. Diversos sistemas de inteligência artificial para recrutamento já foram analisados como falhos neste sentido e um dos casos recentes mais chocantes foi da inovação na indústria automotiva.  Pesquisadores da George Institute of Technology mostraram que alguns sistemas de visão computacional usados em carros autônomos em desenvolvimento identificariam pedestres negros com menos precisão. Ou seja, literalmente teriam mais chance de ser atropelados se estes carros já estivessem circulando.

 

Como as empresas de tecnologia colaboram para a continuação do racismo?

Há três modos principais que são parte causa e parte consequência. O mais simples é no próprio viés de contratação de desenvolvedores, engenheiros e gerentes de produto em empresas de tecnologia de mídias sociais e/ou inteligência artificial. Dados do relatório EEO-1 Comissão Governamental de Igualdade no Emprego dos EUA mostram que os profissionais do Vale do Silício não representam a multiplicidade da população americana. Isto tem impactos nas plataformas e dispositivos pois, em consequência, abarcarão menos a diversidade de usos e usuários.

O segundo é a questão da omissão, em parte, resultante do primeiro motivo. Boa parte das manifestações de racismo algorítmico documentadas nos últimos anos se tratou de sistemas que intensificam procedimentos racistas por terem sido treinados com bases de dados criadas por sistemas enviesados, com pouca representatividade racial e cultural. Mas a omissão também é um problema relevante, uma vez que nem sequer foram testados corretamente antes de ir ao ar alguns sistemas problemáticos.

Por fim, um grande desafio é que o próprio modelo de negócio dessas empresas promove a ideia de que “tecnologias são neutras” quando não o são. Nos EUA há trabalhos fantásticos de auditoria e análise dessas plataformas por pesquisadoras de universidade de ponta, como Joy Buolamwini, Safiya Noble e Ruha Benjamim. Entretanto, criar sistemas efetivamente justos gera mais custos – então as plataformas defendem que são “apenas tecnologia” e não sistemas de mídia, com responsabilidade constitucional como tais.

 

Quais medidas podem ser tomadas para que as minorias não sofram com o racismo algorítmico?

A primeira medida, e mais importante, é compreender que a concentração midiática em poucas plataformas, sobretudo de empresas de tecnologia advindas dos países de sempre, não é positiva. Uma internet plural e diversa em tecnologias, sites e ambientes remedia os potenciais nocivos dessa concentração atual.

Além disso, tecnologias e ambientes digitais do tipo devem ser regulados pela sociedade, através de representantes em instituições civis, casas legislativas e órgãos governamentais. Sociedades saudáveis e democráticas olham para a inovação e tecnologia de forma responsável, buscando o bem comum.

Por fim, a ideia de “literacia midiática e algorítmica” busca promover o conhecimento sobre como mídias e tecnologias são consumidas e produzidas. Idealmente toda a sociedade deveria entender e poder analisar as tecnologias de uma forma crítica, não apenas pesquisadores acadêmicos e jornalistas especializados. Para democracias saudáveis no futuro, é indispensável que este tipo de reflexão esteja inclusa também no ensino básico.

 

Você pode citar outros exemplos de racismo algorítmico?

Gostaria de destacar dois deles. Em 2016, grupos americanos descobriram que o Facebook possui uma opção que permite excluir afro-americanos e asiático-americanos de anúncios em sua plataforma, inclusive pra categorias como habitação. Ao mesmo tempo, não permitia excluir caucasianos. O mais grave é que infringia claramente o chamado Fair Housing Act, criado nos anos 1960 para evitar discriminação racial na compra, aluguel e venda de imóveis nos EUA. O recurso ilegal ficou anos no ar, prejudicando a equidade no mercado imobiliário.

Talvez o caso mais famoso e grave, da área da justiça, foi o do COMPAS. O sistema tem um recurso de análise de probabilidade de reincidência que dá um escore de possibilidade preditiva de ex-infratores cometerem novos delitos. Foi descoberto que as recomendações eram enviesadas negativamente contra negros e suavizavam contra brancos. Ou seja, o COMPAS destruiu famílias ao encarcerar por mais tempo injustamente pessoas que cometeram pequenos delitos (como furto) simplesmente por serem negras.

 

Há alguma forma segura para pessoas negras e outras minorias que desejam participar das redes sociais e outros apps sem que sua privacidade seja violada?

No atual ecossistema midiático extremamente concentrado a resposta pode ser um simples “não”. Ou ao menos não com nomes, imagens e identidades reais. Mas ainda mais importante do que preservar a privacidade nestes ambientes, precisamos incentivar o uso múltiplo da internet. Websites pessoais, blogs, fóruns alternativos, wikis e sites de redes sociais locais e segmentados podem ajudar a reduzir a dependência das mesmas velhas mídias sociais.

Revistas acadêmicas africanas: onde encontrar?

Quantas revistas acadêmicas editadas em países africanos você já leu? O African Journals Online é uma iniciativa não-governamental criada em 1998 na África do Sul com o objetivo de otimizar a circulação da produção africana em vários campos e disciplinas.

Nas palavras dos editores do projeto, “Do mesmo modo que recursos acadêmicos online do Norte Global estão disponíveis para a África, há a necessidade de disponibilizar informação da África. Importantes áreas de pesquisa na África não são cobertas de forma adequada pelo restante do mundo. Países africanos precisam coletivamente exercer um papel no ambiente global de publicação acadêmica. Pesquisadores africanos também precisam acessar as publicações acadêmicas de seu próprio continente.”

African Journals Online

Atualmente indexa revistas de 32 países, com destaque para os que possuem inglês ou francês como línguas oficiais. Lideram em número Nigeria (222 publicações), África do Sul (96), Etiópia (30), Quênia (29) e Gana (27).  Somam mais de 500 revistas, sendo quase metade de acesso aberto. Lembre que o horror colonial fez com que a maioria desses países tenham línguas oficiais advindas de países europeus, então se você lê em inglês, francês ou português poderá se conectar a bibliografia africana com quase tanta facilidade com o que faz com materiais dos EUA ou Reino Unido. Paradoxalmente, o inglês pode ser uma ferramenta decolonial para que nos conectemos a pesquisadores de parte dos países da África.

Alguns exemplos de artigos relevantes para o público desse blog: Participation in online activation (#) campaigns: A look at the drivers in an African setting – publicado no Legon Journal of Humanities (Gana); Collaborative Networks as a Mechanism for Strengthening Competitiveness, publicado no Journal of Language, Technology & Entrepreneurship in Africa (Quênia); Protest movements and social media: Morocco’s February 20 movement, publicado no Africa Development (Senegal); Social Media: An Emerging Conundrum?, publicado no AFRREV IJAH: An International Journal of Arts and Humanities (Etiópia).

Conheça o site em www.ajol.info

Análise de Texto com AntConc: Frequência e Lista de Palavras

No últim opost, aprendemos o básico sobre AntConc. Agora vamos te mostrar como usar AntConc para gerar listas e frequência de palavras, além do útil File Viewer (Visualizador de Arquivos).

Não esqueça que

  1. Introdução e Configurações
  2. Lista, Frequência de Palavras e Visualizador (estamos aqui)
  3. Concordancer e Plotagem de ConcordÇancia  (em breve)
  4. Clusters e N-Grams (em breve)
  5. Colocações (em breve)

 

As funções do AntConc são acessadas através das sete abas abaixo:

Neste tutoria, vamos seguir os passos para produzir listas de palavras.

Lembre de abrir seu arquivo e importar as configurações recomendadas para pesquisa em mídia social [tutorial].

Gerando e navegando em uma Lista de Palavras

  1. Abra seu arquivo. Nos exemplos abaixo vou usar um dataset com 16 mil tweets em inglês contendo a palavra “brazil” (coletados através do Netlytic). Baixe o arquivo brazil_tweets_16732tweets_2017_11_30.txt em nossa pasta.

 

2. Na aba Word List,clique em Start e eespere alguns segundos:

3. Agora você pode explorar e navegar nos seus dados, descendo a barra de rolagem para encontrar palavras relevantes, organizar por Frequência (Frequency), Palavras (ordem alfabética) ou final da palavra (Word end).

4. Você pode buscar um termo específico na caixa de “Search Term” e clicar na busca “Search Only”:

 

5. Se você clicar em qualquer palavra, será direcionado para a aba Concordance. Em breve você poderá ler um tutorial aqui sobre a ferramenta.

 

6. Se clicar em qualquer palavra na ferramente de Concordance, será direcionado para a File View, onde poderá visualizar o termo/palavra. Funciona como um leitor simples de texto, onde você poderá ver o corpus/corpora completo.

 

7. Para exportar a lista, basta ir na aba Word List e clicar em File -> Save Output.

 

8. O resultado é um arquivo .txt similar a este:

9. Você pode abrir ou copiar-colar o resultado em um software de planilhas como Excel ou LibreOffice para outras análises:

 

 

Filtrando stopwords

Stopwords são palavras que você não quer contar ou visualizar. Geralmente, são as palavras mais comuns sem relevância semântica ou tópica para o seu problema de pesquisa (como artigos, pronomes e alguns advérbios).

 

  1. Primeiro, você vai precisar de uma lista pronta de stopwords. Você pode produzir ou editar uma lista você mesmo, mas vamos começar com um exemplo simples. Você pode baixar uma lista de stopwords em inglês na nossa pasta de listas:

 

2. Para carregar uma lista de stopwords a partir de um arquivo .txt vá em Tool Preferences -> Word List. Lá você verá a opção“Use a stoplist below” na seção “Word List Range”. Clique em Open e selecione seu arquivo .txt :

 

Se você fez corretamente, as palavras aparecerão na caixa:

 

Agora é só clicar em “Apply”!

  1. Volte para a aba Word List e clique no botão “Start”. Compare as duas listas abaixo. A primeira foi a lista original e a segunda é a lista com as stopwords filtradas:

 

 

Contando palavras específicas

Outra opção muito útil da Word List é contar apenas palavras específicas que você já conhecia ou descobriu como relevantes nos seus datasets/corpora. Siga os passos abaixo:

1. Primeiro, você precisa de uma lista de palavras. No nosso caso, vamos subir uma lista de palavras sobre times brasileiros. Baixe ela na pasta de listas.

 

2. Vá em Tool Preferences -> Word Lists e clique em “Add Words From File” para carregar o arquivo. Clique em “Use specific words below” e Apply:

 

3. Agora vá na aba Word List e clique ‘Start’ para gerar a lista novamente. O resultado vai ser uma lista apenas da palavras desejadas:

 

4. Exportar uma lista destas (através de File -> Save Output) permite que você use a contagem em outras ferramentas como a RAW Graphs para gerar visualizações como um Treemap:

 

É isto por agora! Espero que as funcionalidades acima te ajudem a explorar seus dados textuais extraídos de mídias sociais. O próximo tutorial vai focar no Concordancer e Concordance Plot (em breve)!

Análise de Texto com AntConc: introdução, arquivos e configurações

De modo geral, análise de texto computacional é um conjunto de técnicas para análise automatizada de conteúdo. Mesmo sem o uso de estatística complexa ou programação, pesquisadores das ciências sociais e humanidades podem otimizar suas técnicas de exploração de dados com técnicas como contagem de frequência, co-ocorrência e colocações.

AntConc é um dos softwares mais fáceis e úteis para análise textual e linguística de corpus. Foi desenvolvido por Laurence Anthony, Professor na Faculdade de Ciência e Engenharia da Waseda University, Japan. Ele desenvolve e oferece dúzias de ferramentas em seu website, como TagAntFireAnt.

Depois dessa introdução sobre AntConc, vamos cobrir suas principais funcionalidades nos posts a seguir:

  1. Introdução, Abrindo Arquivos e Configurações (estamos aqui)
  2. Lista e Frequência de Palavras
  3. Concordancer e Concordance Plot (em breve)
  4. Clusters e N-Grams (em breve)
  5. Colocações(em breve)

A matriz a seguir foi proposta no artigo Computational text analysis for social science: Model assumptions and complexity e resume as possibilidades entre estatística/computação simples x complexa e entre especialização forte x fraca no domínio. Usar AntConc para analisar dados textuais de mídias sociais engloba tarefas estatísticas simples como contagem de palavras e n-grams, mas pode ser avançada para contagem de termos chave em dicionários criados por especialistas no tema/assunto.

Para entender e comparar abordagens de análise apoiada por computador, análise textual interpretativa apoiada por computador e linguística de corpus, recomendo o artigo Taming textual data: The contribution of corpus linguistics to computer-aided text analysis.

AntConc permite realizar as principais técnicas de linguística de corpus como frequência de palavras (word frequencies), colocações (collocation), concordância (concordance), n-grams e comparação de corpora a qualquer tipo de texto.

Mas vamos começar do início! Baixe a AntConc e leia o texto a seguir, que vai te ensinar o básico sobre as configurações e como abrir um arquivo.

 

Como coletar dados textuais em mídias sociais?

Há dúzias de ferramentas para pesquisa em mídias sociais que permitem extrair ou monitorar dados textuais nas principais plataformas. A maioria delas coleta dados através de keywords/hashtags e/ou de páginas e websites específicos. Geralmente as ferramentas usam codificação UTF-8 para exportar arquivos no formato .csv . Você pode abri-los no Excel ou Libreoffice e copiar-colar os textos para um bloco de notas e salvá-los como um arquivo .txt, um dos formatos preferenciais para o AntConc.

Lista de ferramentas/respositórios:

Se você nunca coletou dados textuais em mídias sociais, recomendo fortemente que comece pela excelente e super fácil de usar Netlytic  e colete alguns tweets ou comentários do YouTube. Mas não se preocupe: vou lhe dar alguns datasets de exemplo nos próximos posts.

 

Formatos de arquivo

AntConc pode ler vários formatos diferentes: .txt, .xml, .html, .ant. O mais simples é o .txt, que você pode criar com um Bloco de Notas.

Formato Descrição
.txt .TXT é o formato mais simples para guardar arquivos. Softwares como Bloco de Notas, Notepad++, TextMate, Word dos editores de texto podem salvar seu arquivo neste formato.
.html .HTML é o padrão para salvar páginas web. Você pode salvar uma pa´gina web e carregá-la direto no AntConc.

AntConc tem algumas configurações que permite ignorar o texto entre os caracteres “<” e “>” usados em arquivos HTML.

.xml .XML: Extensible Markup Language. É similar a um arquivo .HTML, mas usa tags customizadas para definir objetos e dados dentro de cada objeto. Na análise de texto ou linguística de corpus é usada para marcar cada palavra com suas categorias/classes em Etiquetamento de Texto (Part-of-Speech Tagging).
.ant .ANT é um formato específico usado pela AntConc, intercambiável com .txt.

 

  1. Codificação

É recomendável que você salve seus arquivos de texto com a codificação UTF-8. Codificação de caracteres é uma padronização de como o software vai processar caracteres e símbolos. UTF-8 é definido pelo padrão Unicode, que engloba caracteres usados na maioria das línguas e scripts ocidentais. Graças a isto, muitas ferramentas de coleta de dados usam a codificação UTF-8 como padrão. Então lembra de salvar seus arquivos como UTF-8!

 

Configurações óptimas para Textos de Mídia Social

  1. Arquivo pré-configurado

AntConc não foi desenvolvido apenas para dados de mídias sociais mas para todos os tipos de texto, especialmente literatura, linguagem natural e corpora nacionais. Então são necessários alguns ajustes nas configurações.

As especificação serão listadas abaixo, mas ao invés de seguir cada passo, você pode simplesmente importar um Arquivo de Configurações (Settings File) com as opções recomendadas que preparei para você. Baixe o arquivo antconc_settings_for_social_media.ant e, no AntConc, vá em File -> Import Settings from File…, selecione e abra o arquivo:

 

Pronto! Agora o AntConc pode ser mais útil para análise de mídias sociais. Depois disso você pode pular os passos abaixo, mas recomendo ao menos lê-los para entender:

 

2. Configurações Globais (Global Settings) – Token Definition

Nesta seção, vamos explicar as configurações recomendadas. Mas lembre: você não precisa seguir os passos abaixo se você carregou o arquivo de configurações customizadas que mostrei acima.

Primeiro, precisamos configurar as configurações de token. Um token é  um elemento (palavra, caractere, pontuação, símbolo etc) considerado pelo software. Na opção de Token Definition dentro de “Global Settings” você pode definir quais caracteres/símbolos o AntConc vai considerar quando contar e processar seus dados. 

As configurações padrão são as seguintes:

Mas, quando trabalhos como dados de mídia social, há alguns caracteres especiais usados por usuários das plataformas que representam práticas específicas de conversação e afiliação. Dois deles são bem importantes:

O símvolo ‘@’: para usuários do Twitter e outras plataformas, o símbolo é usado para marcar perfis. Então é importante incluir o símbolo ‘@’. Isto vai nos permitir, por exemplo, contar os usuários mais comuns em um corpus ou o contrário: filtrar os usuários para focar nas palavras.

O símbolo ‘#’, por sua vez, é um tipo de marcados de metadados usados na maioria das plataformas para definir hashtags. Você pode adicionar o ‘#’ nas definições de token do AntConc para contar corretamente hashtags.

Recomendado:

Então, nós precismaos ir em Global Settings -> Token Definition, marcar a caixa “Append Following Definition” e incluir os símbolos ‘#’ and ‘@’.

3. Definições de ‘Caractere Coringa’

Um Caractere Coringa (“WildCard”) é um caractere que pode ser substituído por outro caractere, palavra ou símbolo durante uma busca. o AntConc tem vários corignas e podemos ver abaixo as configurações iniciais (Global Settings -> Wildcards).

O problema é que dois destes coringas são atribuídos a símbolos muito importantes nas mídias sociais, ‘@’ e ‘#’, como vimos anteriormente. Isto resulta que o AntConc “ignora” estes dois símbolos nos resultados, pois serão vistos como coringas.

Então recomendamos mudar estes dois coringas para outros símbolos. No exemplo abaixo, mudamos para{ e ‘} .

 

 

Abrindo seu Arquivo ou Corpora

  1. Abrindo seu(s) Arquivo(s)

Para abrir um arquivo ou conjunto de arquivos no AntConc, você só precisa ir em File -> Open File(s)… ou File -> Open Dir.

Através da opção File -> Open File(s) você pode selecionar um ou mais arquivos:

Se você abrir mais de um arquivo, o AntConc vai aplicar suas buscas e análise sem todos ao mesmo tempo:

Isto é muito útil para gerenciar datasets/corpora. Por exemplo: você pode analisar um ano de dados e salvar os textos (comentários, posts, tweets) de cada mês em um arquivo diferente. Ao abrir os 12 de um ano você conseguirá comparar coisas como: contagem de palavras específicas no Concordance Plot ou presença/permanência de clusters/n-grams.

Agora podemos falar sobre contagem de frequência de palavras. Te vejo no próximo post: Lista de Palavras, Frequência de Palavras e Visualização de Arquivos.

Computação sem Caô – cientista explica conceitos de forma simples!

O canal Computação Sem Caô foi criado pela cientista da computação Ana Carolina da Hora dois meses atrás e já está repleto de conteúdo de ótima qualidade! A missão da Ana Carolina neste canal é democratizar o entendimento sobre ciência da computação no Brasil.  Já são mais de 10 vídeos, confira alguns: