Participe do III Colóquio de Análise de Redes Aplicada – CARA 2019

Em 11 e 12 Julho de 2019 acontecerá, em Lisboa, o III Colóquio de Análise de Redes Aplicada – CARA 2019. É possível submeter resumos até o dia 01 de abril (data atualizada!).

A análise de redes permeia diversas áreas do conhecimento e oferece novas ferramentas para uma ampla gama de campos de investigação, a sociologia, economia, gestão, história, matemática, educação, geografia, psicologia, saúde, comunicação, biologia, física, etc. O III Colóquio de Análise de Redes Aplicada – CARA 2019 – tem como propósito discutir avanços na aplicação da análise de redes em diversas áreas do conhecimento e promover a incorporação de novos recursos e conhecimentos à comunidade científica, difundindo o uso da análise de redes para a interpretação e compreensão das diferentes estruturas e processos de interação.

São 15 sessões ao todo e diversas devem interessar aos leitores do blog! Destaco Comunicação e Media Sociais, organizada por mim e Inês Amaral (Universidade de Coimbra). A sessão busca reunir comunicações que apliquem a ARS à investigação de fenômenos comunicacionais em diversos media, sobretudo os que tomam corpo ou são perpassados por ambientes digitais tais como blogs, Facebook, Twitter, YouTube e Instagram. Projectos de análise e descrição de dinâmicas e fluxos informacionais; construção e afiliação de grupos e comunidades; ativismos, controvérsias e movimentações político-sociais; entre outros olhares em rede sobre esferas da sociedade são bem-vindos.

Confira mais informações em: https://medium.com/@csg.iseg.ulisboa/col%C3%B3quio-de-an%C3%A1lise-de-redes-aplicada-c4208f4984c1

Negação do racismo no TripAdvisor: estratégias discursivas

O racismo, como elemento pervasivo, se manifesta de formas particulares nos campos do turismo e hospitalidade. Viajantes, pesquisadores e ativistas experienciam e analisaram isto em novas plataformas digitais semi-automatizadas por interfaces e algoritmos como Airbnb, levando empreendedores a criar plataformas de hospedagemagências de turismo mais seguras.

Durante viagens para outros locais ou países, os viajantes racializados são mais fragilizados, estando sujeitos a atos racistas que dificilmente serão confrontados imediatamente devido ao risco intensificado. Plataformas de reviews online, entretanto, pode(ria)m ser um dos espaços de reação através do relato das experiências negativas.

Leia texto relacionado “Traveling while black” no blog For Harriet

O artigo Traveling Across Racial Borders: TripAdvisor and the Discursive Stragies Business Use to Deny Racism, entretanto, apresenta resultados assustadores de pesquisa de Heather M. Dalmage da Roosevelt University. Publicado na revista Sociology of Race and Ethnicity, o artigo aplica análise de discurso para entender como os hotéis e restaurantes respondem e negam atitudes racistas especificamente ao receber casais interraciais.

A autora apresenta um histórico sobre os processos de racialização do Outro e como são especialmente intensos em países de maioria branca. Escrevendo do ponto de vista de uma pesquisadora estadunidense, Dalmage revisa as categorias de casais e comunidades inter-, multi- e bi-raciais para, em seguida, adentrar nas particularidades das plataformas digitais. Citando Hughey e Daniels, explica que “raça e racismo persistem online em modos que são tanto novos e específicos na Internet, junto a vestígios de formas seculares que reverberam tanto off quanto online“. Ao analisar a interface da plataforma, guias de como responder a avaliações de hóspedes de consultorias e da própria TripAdvisor, a autora identificou que as recomendações explicitamente invisibilizam a questão, ignorando como lidar com casos de racismo.

O estudo inédito reuniu 233 casos no TripAdvisor, através de buscas por termos como relacionamento interracial. Deste total, apenas 50 foram respondidos e entraram na fase de análise de discurso. A autora identificou que a maior parte seguem um padrão discursivo de negação da raça e do episódio racista, com o objetivo de patologizar os casais avaliadores.

Quatro táticas foram identificadas e são detalhadas na seção seguinte: (a) “Você está errado! Eu não sou racista”; (b) Explicação não ligada à raça; (c) “Nós tratamos todos do mesmo jeito”; (d) “Você entendeu errado e/ou poderia ter evitado a experiência negativa se tivesse agido diferente”. Nas conclusões, a autora explica como, em um mundo racializado e estruturado pela supremacia Branca, as práticas de evasão de debate sobre raça e racismo servem aos ideais neoliberais deste mundo. A análise do discurso é especialmente importante pois “as fronteiras raciais, desenvolvidas através da colonização e capitalismo global e infundidas em identidades, ideologias e instituições agora estão sendo criadas em novos e não tão novos modos online”.

Leia o artigo completo na revista Sociology of Race and Ethnicity.

Digital Media Winter Institute 2019 em Lisboa: inscrições abertas

Digital Media Winter Institute da Universidade Nova de Lisboa reúne dois eventos entre 28 de janeiro e 07 de fevereiro: SMART Data SprintInterpreting Cross-Platform Digital Networks e está com inscrições abertas!

Smart Data Sprint acontece de 28 de janeiro a 01 de fevereiro e reúne uma série de atividades voltadas a doutorandos e pesquisadores durante uma semana. Nos primeiros dias, os participantes poderão ver palestras e practical labs realizados por pesquisadores que definem a pesquisa em mídias sociais e digital methods em torno do mundo. O destaque deste ano é a participação de Richard Rogers, líder do Digital Methods Initiative da Universidade de Amsterdam. Ocorrerão também palestras e practical labs sobre análise de redes com Gephi e NodeXL, modelagem de tópicos, text analytics, query design e outras temas relevantes com pesquisadores como Inês Amaral, Bernhard Rieder, Janna Joceli, Beatrice Gobbo e André Mintz.

O grande objetivo do evento, porém, é a realização dos chamados data sprints – trabalho intensivo de análise de dados a partir de problemas de pesquisa apresentados em “pitchs”. Cada participante deverá escolher uma equipe e trabalhará junto aos líderes dos projetos e colegas de vários países do mundo durante 3 dias. Eu e André Mintz levaremos o projeto “Interrogating Vision APIs“, no qual estudaremos datasets sobre o avanço da estética de ultra-direita nas eleições brasileiras com o uso de visão computacional oferecida por APIs da Google Vision, IBM Watson e Microsoft Azure. Outros projetos submetidos são: “Health myths’ circulation on social media“, da Elaine Rabello (UERJ); “Frugal Innovation” por Miguel Amaral (Universidade de Lisboa) e Elsa Caetano (iNOVA Media Lab); e “Journalism Apps“, por Dora Santos Silva (NOVA FCSH) e Mariana Scalabrin Muller (Universidade do Minho e Universidade NOVA). Participei da edição de 2018 em equipe da Elaine Rabello e Gustavo Matta (FioCruz) analisando a circulação de informação sobre o zika vírus e recomendo o trabalho. Veja uma das visualizações e clique para ver o relatório completo:

Na segunda semana acontece o workshop Interpreting Cross-Platform Digital Networks. São 12 horas de workshop de 4 a 7 de fevereiro. Janna Joceli Omena, coordenadora do SMART Data Sprint e doutoranda no Digital Media UT Austin/Portugal da Universidade Nova de Lisboa. O curso vai apresentar metodologia para interpretar redes digitais entre diferentes plataformas, incluindo exercícios práticos de extração, análise e visualização. Conheça alguns trabalhos da Janna Omena em seu blog e ResearchGate. É possível se inscrever no data sprint e no workshop ou em cada evento separadamente.

Veja abaixo vídeo-resumo do evento e uma entrevista que realizei com a Janna Omena e não esqueça: inscrições abertas até 13 de janeiro.

 

A Prisão dos Números – podcast discute métricas, algoritmos, youtubers e raça

O podcast Depois das 19 é produzido por Marcus Martins, Nonny Gomes  e Luiz Phelipe Santos e trata de pautas enegrecidas variadas, como política, literaturaafrocentricidade, democratização da mídia, super-heróishumor, festa e outras minorias. Tive o prazer de participar da última edição, intitulada A Prisão dos Números, falando sobre mídias sociais, algoritmos e racialização em plataformas digitais junto ao youtuber Rick Trindade. Ouça abaixo:

Como prevenir resultados discriminatórios com machine learning?

Lançado em março de 2018, o relatório How to Prevent Discriminatory Outcomes in Machine Learning é resultado de um de trabalho em andamento do Global Future Council on Human Rights do World Economic Forum, que reúne acadêmicos, sociedade civil e experts do mercado para discutir os principais temas do futuro quanto a direitos humanos.

Um destes temas, é claro, é a inteligência artificial e técnicas como aprendizado de máquina (machine learning) que, cada vez mais, automatizam decisões em áreas como negócios, segurança,

Com 30 páginas, o documento é bastante direto em quatro seções. A primeira trata de desafios sobre machine learning quanto a problemas relacionados a dados e relacionados ao design dos algoritmos em si. O viés dos dados que servem de input nos sistemas de aprendizado de máquina podem gerar a intensificação dos vieses devido a (falta de) disponibilidade dos dados de uma determinada população ou devido a dados que já estão repletos de vieses. Vimos aqui no blog um bom exemplo de dataset de treinamento pobre com o caso dos robôs identificados pela Joy Boulamwini e um exemplo de datasets de treinamento ruins com o algoritmo de vigilância preditiva.

Ao tratar dos problemas resultantes do desenho dos algoritmos, os autores falam das seguintes possibilidades: escolha de modelo errado; construção de modelo com recursos discriminatórios acidentais; ausência de supervisão e envolvimento humanos; sistemas imprevisíveis e inescrutáveis; e discriminação intencional. O documento, que busca ser o mais neutro possível, traz apenas casos “hipotéticos” para exemplificar os problemas e remediações. Acredito ser importante enfatizar os problemas relacionados à ausência dos humanos no loop de forma contínua, como no caso das prescrições erradas oferecidas pela IBM Watson à pacientes com câncer.

Para combate aos problemas, são propostos quatro princípios: inclusão ativa;  equidade; direito à compreensão; e acesso a remediação.

A terceira parte chama à responsabilidade as empresas e, por fim, a quarta seção traz checklists sobre o que as empresas, governo, academia e cidadão podem fazer em prol do combate à discriminação ligada à inteligência artificial.