Como deletar todo seu histórico no Facebook – ou como deletar posts em massa

O oligopólio de algumas plataformas como Facebook incomoda cada vez mais usuários. Entretanto, o “efeito de rede” – entre outros – impede uma transição em massa de usuários ou, mesmo, a desejada descentralização da internet. Uma alternativa à exclusão completa dos perfis – difícil de ser realizada por pessoas públicas ou quem trabalha com comunicação – é diminuir a quantidade de publicações, inclusive do histórico.

Use o plugin “Social Book Post Manager” para Google Chrome e delete o conteúdo publicado na rede de forma simples. O recurso pode ser instalado através do link a seguir:

Depois da instalação, os passos são bem simples! Vá a seu perfil e clique em “Registro de Atividades” ou “Activity Log”. No lado esquerdo, selecione por onde você começar. Por exemplo, “Publicações” ou “Posts” de 2010, digamos.

O processo de exclusão é um pouco demorado, então recomendo ir de ano a ano ou, mesmo, de mês a mês se você for um heavy user. Além de selecionar ano e mês, é possível adicionar uma palavra-chave específica.

Dica do MacObserver.

“Tecnologias não são neutras” – trecho do levantamento PretaLab

[O texto abaixo faz parte do levantamento inédito PretaLab, levantamento realizado pela Olabi com 570 mulheres negras e índigenas no Brasil. Artigos analíticos, dados completos e destaques podem ser acessados em www.pretalab.com ]

Um estudo feito em 2017 pelo Law’s Center on Privacy and Technology, o centro sobre privacidade e tecnologia da faculdade de direito da Universidade de Georgetown, estima que 117 milhões de cidadãos já estejam nos bancos de dados que a polícia pode usar. “O reconhecimento facial vai afetar afroamericanos desproporcionalmente. Muitos departamentos de polícia não percebem isso”, diz o estudo. Outro documento do FBI sugere que “o reconhecimento facial é menos preciso em negros. Além disso, devido à desproporção no número de negros presos, sistemas que utilizam fotos realizadas no momento da prisão incluem mais afroamericanos. “Apesar dessas descobertas, não há nenhum estudo independente com testes para viés racistas nestes programas”, conclui o estudo.

Iniciativas como a Algorithmic Justice League [em português, Liga da Justiça do Algoritmo] buscam denunciar e acabar com o racismo implícito em programas de inteligência artificial. Fundadora da iniciativa, Joy Buolamwini percebeu que programas de reconhecimento artificial nem sempre conseguem detectar rostos negros, problema causado pela falta de diversidade das equipes que criam esses programas e das imagens que as máquinas recebem para aprender a “enxergar” esses rostos. “A visão do computador usa inteligência artificial para fazer o reconhecimento facial. Você cria uma série de imagens com exemplos de rostos. No entanto, se essas séries não são diversas o suficiente, qualquer rosto que desvie da ‘norma’ será difícil de reconhecer”, ela disse em uma Ted Talk.

Enquanto as estatísticas, estudos e políticas públicas voltadas para mulheres negras ignorarem a importância da tecnologia, as mulheres negras vão estar à margem de decisões cada vez mais centrais na sociedade. “Se as mulheres negras não estiverem nesse processo, se não existirem ações para que elas estejam nesse processo, vamos perder totalmente nosso poder de integração no mundo”, afirma Silvana.

A tecnologia representa ainda uma possibilidade de geração de renda e de emancipação econômica, já que o setor cresce e costuma ter salários atrativos. Nos Estados Unidos, dados compilados pela pesquisa econômica Glassdoor mostra que os empregos da área de tecnologia, engenharia e ciência foram os mais bem pagos de 2017. Mas o desigual acesso à educação e a forte presença de estereótipos e preconceitos seguem afastando as mulheres negras dos estudos e de uma carreira nessas áreas.

A desigualdade e as barreiras já surgem quando são observados apenas os dados de gênero na tecnologia. Uma pesquisa que analisou a presença feminina em Ciência, Tecnologia e Engenharia no Brasil, China, EUA e Índia concluiu que mulheres abandonam a indústria tecnológica porque são tratadas injustamente, recebem salários menores e apresentam menos chances de serem promovidas do que seus colegas do sexo masculino. No Brasil, 29% das mulheres entrevistadas se sentem estagnadas em seus trabalhos e 22% acham que podem desistir da carreira no próximo ano.

Apesar de todas as barreiras que precisam enfrentar, estudos mostram que o trabalho das mulheres nesta área pode ser tão bem ou melhor avaliado do que de seus colegas do sexo masculino. Pesquisadores descobriram que os usuários do repositório de software GitHub aprovaram os códigos escrito por mulheres a uma taxa maior do que aqueles escritos por homens, mas apenas caso seu gênero não fosse identificado.

 

Acesse completo em https://www.pretalab.com/

Disparidades interseccionais em sistemas de classificação automatizada de gênero

Mecanismos de inteligência artificial tal como reconhecimento automatizado de faces são, como toda tecnologia, repletos de particularidades sociais de produção que muitas vezes são deixados de lado em prol de supostas eficiências que trazem mais problemas – geralmente para grupos desprivilegiados.

No artigo Gender Shades – Intersectional Accuracy Disparities in Commercial Gender Classification, as pesquisadoras Joy Buolamwini (MIT Media Lab) e Timnit Gebru (Microsoft Research) apresentam pesquisa sobre vieses interseccionais negativos em sistemas automatizados de classificação. Um agravante é que, na medida em que sistemas de inteligência artificial se baseiam em bases de dados construídas a partir de inputs preexistentes, a tendência é que sistemas derivados intensifiquem os vieses já presentes nas sociedades.

Os exemplos destes vieses são inúmeros. Já falamos aqui sobre estudos sobre reconhecimento de rostos (realizado pela própria Buolamwini), mecanismos de buscas e modelos preditivos para intensificação de vigilância. Nos EUA, mais de 117 milhões de pessoas estão inclusas em redes policiais de identificação de faces – e diferenças na precisão destes sistemas podem arruinar vidas.

No artigo, as autoras apresentam histórico de estudos e debate sobre a construção de bases de treinamento para identificação de gênero para aprendizado de máquina, partindo da discussão de duas bases públicas bastante utilizadas: a IJB-A e o gerado pela Adience. O primeiro, IJB-A, foi criado pelo Intelligence Advanced Research Projects Activity do governo americano e incluía, no momento de produção do artigo, 500 imagens de rostos indivíduos públicos. Já o Adience, por sua vez, possui imagens cerca de 2.284 indivíduos únicos e foi gerada a partir de coleta no Flickr.

Detalhes sobre a base Adience

Mas usar estas bases públicas de treinamento gera bons resultados? Entender os vieses em bases públicas é essencial pois inúmeros softwares e sistemas podem ser construídos de forma derivada a partir deles, reforçando os problemas. E a investigação sobre estas bases permite estabelecer procedimentos para auditoria de sistemas comerciais e sistemas criados/contratados por instituições públicas. Para fim de comparação, então, a autoras criaram uma base de dados própria com procedimentos mais rigorosos.

A Pilot Parliaments Benchmark reúne fotos de 1270 membros parlamentares de seis países: Ruanda, Senegal, África do Sul, Finlândia, Islândia e Suécia. Estes países foram escolhidos por terem proporção relativamente alta de distribuição entre homens e mulheres e representarem tons de pele variados, dos mais escuros aos mais claros. Levando em conta que o construto “raça” é contextual de acordo com cada cultura e país, as autoras optaram por fazer a intersecção de gênero com a variável de cor de pele, a partir da tipologia Fitzpatrick Skin Type, muito usada também por dermatologistas.

Exemplo de faces no Pilot Parliaments Benchmark

Depois de construir o PPB mais preciso e confiável do que as outras bases citadas, as autoras partem então para comparar os resultados dos classificadores comerciais. Buolamwini e Gebru selecionaram IBM Watson, Microsoft Cognitive Services e o Face++  para avaliar a precisão de identificação de gênero no dataset construído. Os resultados variaram de forma impressionante:

  • Todos classificadores foram mais precisos em faces de homens (8,1% – 20,6% diferência de taxa de erro)
  • Todos classificadores performaram melhor em faces mais claras do que faces mais escuras (11,8% contra 19,2% de erro)
  • Todos classificadores performaram pior em faces mais escuras de mulheres (20,8% comparado a 34,7%)
  • Os classificadores da Microsoft e IBM performaram melhor em rotos de homens de pele clara (taxas de erro de 0,0% e 0,3%)
  • Os classificadores do Face++ performaram melhor em rostos masculinos de pele escura (0,7% de taxa de erro)
  • A diferença máxima de taxa de erro entre dois grupos foi de 34,4%!

Ao longo da seção de análise do artigo, as autoras apresentam detalhamento de resultados e comparações entre sub-datasets controlando variáveis como qualidade das imagens. Os resultados apontam inconsistência nas classificações que deixam negros e, sobretudo, mulheres negras em desvantagens, enfatizando a importância de auditoria algorítmica e acompanhamento da sociedade civil sobre agentes artificiais que possam tomar decisões quanto a identificação de pessoas, comunicação automatizada e, sobretudo, aplicações relacionadas a vigilância.

Algorithmic transparency and accountability reach beyond technical reports and should include mechanisms for consent and redress which we do not focus on here. Nonetheless, the ndings from this work concerning benchmark representation and intersectional auditing provide empirical support for increased demographic and phenotypic transparency and accountability in arti cial intelligence.

Assista abaixo um sumário em vídeo do artigo:

O “politicamente correto” e a avaliação crítica de leitores nas mídias sociais

A ideia e o termo “politicamente correto” passou e passa por batalhas discursivas nas últimas décadas. Autores da linha da Teoria Racial Crítica, por exemplo, explicam como a Primeira Emenda na constituição dos Estados Unidos (que trata de liberdade de expressão) tem sido usada por alguns grupos para defender discurso violento, racista, misógino e afins. A interpretação insubordinada de leis que defendem discursos que servem apenas à ódio é vista como essencial, uma vez que “o objetivo de maximizar o debate público não é alcançado em um mercado de ideias distorcido por coerção e privilégio” (LAWRENCE & MATSUDA, 1993)

Nos últimos anos termos como “politicamente correto” passaram a ser usados sobretudo por indivíduos contra qualquer tipo de sensibilidade e respeito à minorias políticas. O professor Ricardo Alexino Ferreira utiliza o termo “socioacêntricos” para dar conta de grupos com baixa representação política, social e econômica, que lutaram e lutam por ocupar espaços de poder, inclusive na comunicação, com objetivo de enfrentar – ou ao menos suavizar – as desvantagens e opressões sistêmicas que sofrem.

No artigo “Etnomidialogia e a interface com o politicamente correto“, o professor Alexino (2012) apresenta um histórico do termo, suas aplicações e controvérsias indo do impacto do trabalho de Michel Foucault (relação entre poder/conhecimento), Barthes (códigos e convenções “invisíveis” de experiência nas linguagens) e Derrida sobre a não-neutralidade da língua.

Enfatizando o papel do jornalismo, o professor faz uma ligação das “cartilhas” do politicamente correto e manuais de redação. A rigor, estes últimos instrumentos desde a década de 1950 institucionalizam as melhores práticas discursivas para o fazer jornalístico. Desde a década de 1990, sobretudo, no tratamento de grupos socioacêntricos também seria percebida

“é possível observar que os princípios do politicamente correto ou um esmerado cuidado ao abordar grupos sócio-acêntricos tem se constituído em preocupação dos veículos. No entanto, nem sempre essas orientações são seguidas. São muitos casos flagrantes de exposição de indivíduos pertencentes a esses grupos. Porém, é possível perceber que nesta última década tem diminuído substancialmente estes tipos de ocorrências, enquanto forma. Porém, enquanto conteúdo, ainda são frequentes.” (FERREIRA, 2012, p.15)

Quanto ao ponto de crítica dos leitores, é excelente observar alguns ambientes de conflitos nas audiências em plataformas digitais de publicação ou divulgação de reportagens, sobretudo as mídias sociais. Os ambientes digitais tornaram-se uma fonte que pode ser muito rica (e por vezes insalubre) para compreensão dos níveis de engajamento dos leitores na análise dos enquadramentos e decisões editoriais. Um termo muito caro à mim é o de “sociologia vernacular”, bastante explorado pelo pesquisador David Beer para tratar da análise “sociológica” que os indivíduos de todos os tipos de formações fazem em algum sentido. De forma similar, poderíamos falar de uma “análise vernacular do texto jornalístico” que muito se apresenta nos ambientes online. Os leitores percebem e discutem como padrões de escrita associam termos e enquadramentos de forma diferente a depender da vulnerabilidade dos personagens de matérias:

 

Porém basta clicar nos tweets acima e ler dezenas de usuários subestimando – de forma violenta, com frequência – a crítica às diferentes abordagens jornalísticas acima. Entre otimismos e pessimismos, a figura do “politicamente escroto” continuará firme, como aponta o professor Wilson Gomes:

“Pois bem, os conservadores e preconceituosos encontraram uma expressão para desqualificar todo o esforço de “descondicionamento” verbal voltado à tolerância e ao respeito – “somos perseguidos e oprimidos pela polícia da correção política” dizem por meio desta frase, do mesmo jeito que Feliciano grita que é vítima (não algoz) de “perseguição religiosa” e “cristofobia”. Sim, senhores, é para politicamente canalhas que respeito e consideração é uma deplorável “correção política”. Curiosamente, no Brasil, virou chique dar-se um toque de rebeldia e irreverência e começar ou terminar frases com “acho um saco o politicamente correto”. Sei. Já eu acho chato pra caramba ser politicamente escroto.”

 

 

Referências

FERREIRA, Ricardo Alexino. Etnomidialogia e a interface com o politicamente correto. Revista Extraprensa, v. 5, n. 2, p. 1-18, 2012.

GOMES, Wilson. Em Defesa da Vida e da Família e contra o politicamente correto…Here we go. Online, 2013. Disponível em http://www.aldeianago.com.br/outros-baianos/7665-em-defesa-da-vida-e-da-familia-e-contra-o-politicamente-corretohere-we-go-por-wilson-gomes

LAWRENCE, Charles R.; MATSUDA, Mari J. Epilogue: Burning Crosses and the RAV Case. In: Words That Wound. Routledge, 1993. p. 133-136.

Formas Contemporâneas de Racismo e Intolerância nas Redes Sociais

O documento Formas Contemporâneas de Racismo e Intolerância nas Redes Sociais foi publicado pelo Dr. Luiz Valério P. Trindade, como um dos resultados de seu doutorado na University of Southampton (Reino Unido). O documento traz informações sobre o racismo nas mídias sociais e recomendações de políticas públicas direcionadas a juventude, autoridades governamentais, legisladores e as próprias empresas de mídias sociais.

Merece destaque o mapeamento de quais os “gatillhos” para movimentos articulados de ódio racista. Os itens impressionam pela crueldade:
a. expressar discordância com algum post ou comentário anterior de cunho negativo contra Negros;
b. evidência de engajamento com profissões consideradas mais ‘nobres’ e de prestígio (por exemplo: medicina, jornalismo, direito, engenharia, etc.);
c. relacionamento interacial;
d. exercer posição de liderança ou bem-sucedida em programa de televisão ou até mesmo como convidada de honra;
e. desfrutar de viagens de férias no exterior (sobretudo em países localizados no Hemisfério Norte);
f. utilizar e/ou enaltecer a adoção de cabelo cacheado natural estilo Afro;
g. vencer concurso de beleza; e
h. rejeitar proposta de relacionamento afetivo.
Trindade também fala, entre outros itens, do Efeito Eco Infinito, no qual posts antigos, de até mais de 03 anos, continuam a reverberar por negligência das plataformas.
Saiba mais sobre o trabalho de Trindade em https://soton.academia.edu/LuizValerioTrindade