“Ser humano: que ficção é essa?” – Mesa-redonda em Curitiba, 21 de agosto

Com apoio do programa Rumos Itaú Cultural, o Projeto Enquanto Somos Humanos realiza a Mesa Redonda – Ser humano: que ficção é essa? – dia 21 de agosto, às 19h, em Curitiba, no Teatro José Maria Santos. A entrada é gratuita.

Se máquinas e robôs estão sendo programados a pensar e agir como humanos, como, ao longo da nossa história, aprendemos a ser humanos? Com o rápido avanço e inserção das tecnologias digitais em nossas vidas, a definição de humano poderá ser modificada? O que nos torna humanos? Que projeto de humanidade estamos construindo agora?

A mesa-redonda contará com a participação dos seguintes estudiosos/profissionais:

FLÁVIA BERNARDINI (RJ) – Flávia possui graduação em Ciência da Computação pela UNESP e mestrado e doutorado em Ciência da Computação pelo ICMC/USP. É professora associada do Instituto de Computação da Universidade Federal Fluminense (UFF). Tem experiência na coordenação e execução de projetos de pesquisa e desenvolvimento há mais de 10 anos utilizando Inteligência Artificial (IA). A temática de Cidades Inteligentes também tem sido um grande interesse de pesquisa. Também, coordena um projeto de ensino voltado para a educação básica, envolvendo programação, pensamento computacional e robótica educativa. Em sua fala, fará reflexões sobre o uso das tecnologias computacionais e da IA no processo diário de tomada de decisão, e os impactos sociais e educacionais no nosso cotidiano.

EDUARDO EKMAM SCHENBERG (SP). Neurocientista pioneiro no estudo de substâncias psicodélicas, trabalha com estados extraordinários de consciência em seus múltiplos aspectos, incluindo neuroimagem, xamanismo, respiração holotrópica e novos tratamentos psiquiátricos. Nesta mesa falará sobre a encruzilhada do homo sapiens neste começo de antropoceno e qual o papel dos estados não ordinários de consciência para a regeneração planetária.

RUDÁ IANDÉ (PR). estudioso do xamanismo ancestral e das multidimensões humanas, foi consultor criativo no filme Space in Between – Marina Abramovic in Brazil) – Rudá falará da rede de conhecimento contida no corpo humano e de como acessar tais informações através de experiências corporais e práticas xamânicas. Também falará sobre como os conhecimentos de povos ancestrais podem ser úteis nas sociedades contemporâneas.

TARCÍZIO SILVA (SP). Pesquisador de doutorado UFABC, Associado IBPAD – Instituto Brasileiro de Pesquisa e Análise de Dados. O tema de sua fala será “Abrindo as Caixas Pretas: reações à desinteligência artificial”, refletindo como o technochauvinismo tem promovido uma ideia corporativa de pós-humano. Reações e contra-narrativas do campo da academia e do ativismo serão apresentadas para destacar a opacidade das caixas pretas tecnológicas.

Mediação: VERONICA CALAZANS (PR). Doutora em Filosofia (2014) pelo Programa de Pós-graduação em Filosofia da Universidade de São Paulo. Tem experiência nas áreas de Filosofia Moderna e História e Filosofia da Ciência e da Tecnologia, atuando principalmente nos seguintes temas: realismo matemático, matematização da natureza, cultura e tecnologia. É professora adjunta de Filosofia da Ciência e Tecnologia na UTFPR.

Dia: 21 de agosto
Horário: das 19h às 22h

ENTRADA GRATUITA
Teatro José Maria Santos.
Rua 13 de Maio, 655 – Curitiba

*Esta ação integra o Projeto Enquanto Somos Humanos, contemplado pelo programa Rumos Itaú Cultural. #rumos #itaucultural . Saiba mais em http://www.teatroguaira.pr.gov.br/2019/08/2662/Projeto-aborda-a-desumanizacao-do-corpo-e-a-influencia-da-tecnologia-na-maneira-de-as-pessoas-verem-o-mundo.html 

Avançando Literacia Racial na Tecnologia

Em inglês, a ideia de literacy (literacia) vai além da alfabetização sobre letramento de leitura e escrita. Trata-se da compreensão básica de um determinado campo, esfera de conhecimento ou de prática de modo a permitir que as pessoas vejam a realidade de forma crítica gerando autonomia. O título do documento Advancing Racial Literacy in Tech evoca este sentido, ao propor os necessários avanços da literacia racial na tecnologia, sobretudo em um momento em que a plataformização e algoritmização do mundo cria novas ameaças para grupos minorizados como as populações negras.

O projeto financiado pelo Data & Society, reúne diagnóstico e propostas de referências no tema: Jessie Daniels, uma das principais especialistas mundiais sobre racismo online, autora de livros como Cyber Racism; Mutale Nkonde, analista do Data & Society e uma das responsáveis pelo Algorithmic Accountability Act proposta para a Câmara dos Deputados dos EUA; e Darakhshan Mir, professora de Ciência da Computação na Bucknell University.

O subtítulo do documento evoca uma controvérsia sobre os estudos quanto a algoritmos e as várias linhas de atuação propostas por desenvolvedores, empresas, pesquisadores e afins. As autoras propõem que “ética, diversidade na contratação e treinamento sobre viés implícito não são suficientes”. Para adereçar os diferentes impactos raciais da tecnologia, seria preciso seguir três fundamentos:

  • Compreensão intelectual de como racismo estrutural opera em algoritmos, plataformas de mídias sociais e tecnologias ainda não desenvolvidas;
  • Inteligência emocional sobre como resolver situações racialmente estressantes em organizações e;
  • Compromisso na tomada de ação para reduzir danos a grupos racializados.

As autoras citam diversos casos de racismo algorítmico mapeados por ativistas e pesquisadoras para falar da compreensão intelectual sobre o racismo necessária para que o caminho da literacia racial na tecnologia seja trilhado. Alguns pontos são similares à perspectiva histórica da Teoria Racial Crítica: racismo é um problema atual, não apenas histórico; raça intersecta com classe, gênero e sexualidade; identidades raciais são aprendidas através de práticas sociais; um vocabulário é necessário para discutir raça, racismo e anti-racismo; códigos e práticas raciais precisam ser interpretados com precisão; e “Branquitude” tem um valor simbólico na sociedade.

Seguindo para a inteligência emocional necessária para as organizações, as autoras falam de cinco estágios graduais com quem é confrontado sobre os vieses racistas: Negação, Ausência, Confessional, Confortável e Transformacional. Basicamente esta trilha vai da Negação, o “Não vejo um problema” até o Transformacional, que seria o “Tenho o compromisso de agir para impedir os danos do racismo”. Aqui vejo algo similar. Na divulgação dos primeiros mapeamentos de minha tese tenho sido confrontado geralmente com negação impassível, quando não ataque direto. Então acredito que o debate sobre tecnologias justas deve necessariamente irmanar com o debate sobre raça e racismo no Brasil. Em trabalho recente usei o termo “dupla opacidade” justamente para tratar de como a negação tanto da conversa sobre os impactos sociais da tecnologia quanto sobre o caráter pervasivo do racismo estão ligados.

A seção a seguir fala das barreiras à literacia racial na tecnologia. O primeiro, que também já enfrentei na própria academia, é a noção errônea que “códigos e algoritmos são apenas matemática e matemática não pode discriminar“. Para as autoras isto leva a uma rejeição agressiva sobre os trabalhos que tratam de discriminação algorítmica.

Entre as iniciativas já em curso sobre ética no setor da tecnologia, as autoras identificam três abordagens comuns: investigação dos funis para os profissionais de grupos minoritários; apoio a iniciativas de “diversidade e inclusão”; e teste de vieses implícitos. Mas todas estas abordagens tem suas fragilidades. Vale sublinhar a inclusão de profissionais de grupos racializados como panaceia. Além de não representarem efetivamente sua proporção na população, há outros problemas sobre cultura corporativa e capacidade de transformação, como a Safyia Noble cita em seu livro ao falar do Black Girls Code do Google. As autoras do relatório explicam:

As pessoas na área de tecnologia nos disseram que falar sobre “diversidade e inclusão” é comumente um modo de evitar falra sobre temas raciais diretamente. Ao invés, as pessoas falam sobre “background” ou “experiência” ou “grupos sub-representados”, o que pode ocultar o quão sério é o problema do racismo sistêmico. E, para a pequena porcentagem de pessoas negras e latinas que são contratadas em empresas de tecnologia, elas enfrentam fardos múltiplos de ter de fazer o trabalho de literacia racial para seus colegas, supervisores e cultura corporativa.

Finalizando o relatório, as autoras falam de alguns passos e ações para o futuro. Como criar uma série de vídeo sobre literacia racial; desenvolver uma ferramenta de avaliação; propor currículos para disciplinas em ciência da computação; experimentos e pesquisas sobre literacia racial na tecnologia.

Para finalizar, segue um pequeno resumo do trabalho da Mutale Nkonde sobre o atraso do governo dos EUA em reagir e tentar entender o avanço da inteligência artificial, assim como passos futuros de sua pesquisa como etnografia no congresso para entender o que os times dos deputados e senadores efetivamente sabem sobre o tema:

Baixe o documento em https://racialliteracy.tech

Revistas acadêmicas africanas: onde encontrar?

Quantas revistas acadêmicas editadas em países africanos você já leu? O African Journals Online é uma iniciativa não-governamental criada em 1998 na África do Sul com o objetivo de otimizar a circulação da produção africana em vários campos e disciplinas.

Nas palavras dos editores do projeto, “Do mesmo modo que recursos acadêmicos online do Norte Global estão disponíveis para a África, há a necessidade de disponibilizar informação da África. Importantes áreas de pesquisa na África não são cobertas de forma adequada pelo restante do mundo. Países africanos precisam coletivamente exercer um papel no ambiente global de publicação acadêmica. Pesquisadores africanos também precisam acessar as publicações acadêmicas de seu próprio continente.”

African Journals Online

Atualmente indexa revistas de 32 países, com destaque para os que possuem inglês ou francês como línguas oficiais. Lideram em número Nigeria (222 publicações), África do Sul (96), Etiópia (30), Quênia (29) e Gana (27).  Somam mais de 500 revistas, sendo quase metade de acesso aberto. Lembre que o horror colonial fez com que a maioria desses países tenham línguas oficiais advindas de países europeus, então se você lê em inglês, francês ou português poderá se conectar a bibliografia africana com quase tanta facilidade com o que faz com materiais dos EUA ou Reino Unido. Paradoxalmente, o inglês pode ser uma ferramenta decolonial para que nos conectemos a pesquisadores de parte dos países da África.

Alguns exemplos de artigos relevantes para o público desse blog: Participation in online activation (#) campaigns: A look at the drivers in an African setting – publicado no Legon Journal of Humanities (Gana); Collaborative Networks as a Mechanism for Strengthening Competitiveness, publicado no Journal of Language, Technology & Entrepreneurship in Africa (Quênia); Protest movements and social media: Morocco’s February 20 movement, publicado no Africa Development (Senegal); Social Media: An Emerging Conundrum?, publicado no AFRREV IJAH: An International Journal of Arts and Humanities (Etiópia).

Conheça o site em www.ajol.info

Análise de Texto com AntConc: Frequência e Lista de Palavras

No últim opost, aprendemos o básico sobre AntConc. Agora vamos te mostrar como usar AntConc para gerar listas e frequência de palavras, além do útil File Viewer (Visualizador de Arquivos).

Não esqueça que

  1. Introdução e Configurações
  2. Lista, Frequência de Palavras e Visualizador (estamos aqui)
  3. Concordancer e Plotagem de ConcordÇancia  (em breve)
  4. Clusters e N-Grams (em breve)
  5. Colocações (em breve)

 

As funções do AntConc são acessadas através das sete abas abaixo:

Neste tutoria, vamos seguir os passos para produzir listas de palavras.

Lembre de abrir seu arquivo e importar as configurações recomendadas para pesquisa em mídia social [tutorial].

Gerando e navegando em uma Lista de Palavras

  1. Abra seu arquivo. Nos exemplos abaixo vou usar um dataset com 16 mil tweets em inglês contendo a palavra “brazil” (coletados através do Netlytic). Baixe o arquivo brazil_tweets_16732tweets_2017_11_30.txt em nossa pasta.

 

2. Na aba Word List,clique em Start e eespere alguns segundos:

3. Agora você pode explorar e navegar nos seus dados, descendo a barra de rolagem para encontrar palavras relevantes, organizar por Frequência (Frequency), Palavras (ordem alfabética) ou final da palavra (Word end).

4. Você pode buscar um termo específico na caixa de “Search Term” e clicar na busca “Search Only”:

 

5. Se você clicar em qualquer palavra, será direcionado para a aba Concordance. Em breve você poderá ler um tutorial aqui sobre a ferramenta.

 

6. Se clicar em qualquer palavra na ferramente de Concordance, será direcionado para a File View, onde poderá visualizar o termo/palavra. Funciona como um leitor simples de texto, onde você poderá ver o corpus/corpora completo.

 

7. Para exportar a lista, basta ir na aba Word List e clicar em File -> Save Output.

 

8. O resultado é um arquivo .txt similar a este:

9. Você pode abrir ou copiar-colar o resultado em um software de planilhas como Excel ou LibreOffice para outras análises:

 

 

Filtrando stopwords

Stopwords são palavras que você não quer contar ou visualizar. Geralmente, são as palavras mais comuns sem relevância semântica ou tópica para o seu problema de pesquisa (como artigos, pronomes e alguns advérbios).

 

  1. Primeiro, você vai precisar de uma lista pronta de stopwords. Você pode produzir ou editar uma lista você mesmo, mas vamos começar com um exemplo simples. Você pode baixar uma lista de stopwords em inglês na nossa pasta de listas:

 

2. Para carregar uma lista de stopwords a partir de um arquivo .txt vá em Tool Preferences -> Word List. Lá você verá a opção“Use a stoplist below” na seção “Word List Range”. Clique em Open e selecione seu arquivo .txt :

 

Se você fez corretamente, as palavras aparecerão na caixa:

 

Agora é só clicar em “Apply”!

  1. Volte para a aba Word List e clique no botão “Start”. Compare as duas listas abaixo. A primeira foi a lista original e a segunda é a lista com as stopwords filtradas:

 

 

Contando palavras específicas

Outra opção muito útil da Word List é contar apenas palavras específicas que você já conhecia ou descobriu como relevantes nos seus datasets/corpora. Siga os passos abaixo:

1. Primeiro, você precisa de uma lista de palavras. No nosso caso, vamos subir uma lista de palavras sobre times brasileiros. Baixe ela na pasta de listas.

 

2. Vá em Tool Preferences -> Word Lists e clique em “Add Words From File” para carregar o arquivo. Clique em “Use specific words below” e Apply:

 

3. Agora vá na aba Word List e clique ‘Start’ para gerar a lista novamente. O resultado vai ser uma lista apenas da palavras desejadas:

 

4. Exportar uma lista destas (através de File -> Save Output) permite que você use a contagem em outras ferramentas como a RAW Graphs para gerar visualizações como um Treemap:

 

É isto por agora! Espero que as funcionalidades acima te ajudem a explorar seus dados textuais extraídos de mídias sociais. O próximo tutorial vai focar no Concordancer e Concordance Plot (em breve)!

Congresso Internacional sobre Vigilância, Raça e Gênero acontecerá em Salvador

Passando para relembrar que a sétima edição do Simpósio Internacional da Rede Latino-Americana de Vigilância (Lavits) acontecerá em Salvador. Organizado pela rede, pelo IHAC e GIGA, incluirá palestras, mesas de discussão, grupos de trabalho, oficinas e performances artísticas entre 26 e 28 de junho.

O grande destaque entre as conferências é a vinda da Simone Browne, pesquisadora canadense e professora da Universidade do Texas (EUA). Browne é autora do livro “Dark Matters: On the Surveillance of Blackness”, no qual revisa a história da vigilância mostrando como tecnologias de controle e opressão contra a negritude desde o período colonial foram germinadoras das práticas hiper-tecnológicas de hoje.

Entre as sessões livres de debate, destaco Intersecções e potências entre tecnologias, gênero e ativismos, com Josemira Reis (GIG@/UFBA), Dulcilei Lima (UFABC), Taís Oliveira (UFABC), Daniela Araújo (IG/Unicamp), Débora Oliveira (Labjor/Unicamp), Marta Kanashiro (Rede Lavits); O Comitê Gestor da Internet (CGI) e os princípios de governança democrática na Internet, com Sergio Amadeu (CGI) e Juliano Cappi (CGI); Discurso de ódio e desinformação nas redes sociotécnicas, com Erica Malunguinho (DEP. ESTADUAL SP), Isadora Brandão (UNEAFRO), Geisa Santos (Coletiva Periféricas-BA) e Maurício Bozzi (PUC-RS).

Nas sessões temáticas de discussão de artigos, são mais de 150 artigos de pesquisadores do Brasil, América Latina e de outros países. São artigos sobre vigilância, controle, big data e práticas digitais diversas. Apresentarei o trabalho Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código em sessão sobre “Assimetrias da Vigilância: racismo e sexismo”.

Saiba mais sobre o evento em: www.lavits.ihac.ufba.br