Análise de Texto com AntConc: introdução, arquivos e configurações

De modo geral, análise de texto computacional é um conjunto de técnicas para análise automatizada de conteúdo. Mesmo sem o uso de estatística complexa ou programação, pesquisadores das ciências sociais e humanidades podem otimizar suas técnicas de exploração de dados com técnicas como contagem de frequência, co-ocorrência e colocações.

AntConc é um dos softwares mais fáceis e úteis para análise textual e linguística de corpus. Foi desenvolvido por Laurence Anthony, Professor na Faculdade de Ciência e Engenharia da Waseda University, Japan. Ele desenvolve e oferece dúzias de ferramentas em seu website, como TagAntFireAnt.

Depois dessa introdução sobre AntConc, vamos cobrir suas principais funcionalidades nos posts a seguir:

  1. Introdução, Abrindo Arquivos e Configurações (estamos aqui)
  2. Lista e Frequência de Palavras
  3. Concordancer e Concordance Plot (em breve)
  4. Clusters e N-Grams (em breve)
  5. Colocações(em breve)

A matriz a seguir foi proposta no artigo Computational text analysis for social science: Model assumptions and complexity e resume as possibilidades entre estatística/computação simples x complexa e entre especialização forte x fraca no domínio. Usar AntConc para analisar dados textuais de mídias sociais engloba tarefas estatísticas simples como contagem de palavras e n-grams, mas pode ser avançada para contagem de termos chave em dicionários criados por especialistas no tema/assunto.

Para entender e comparar abordagens de análise apoiada por computador, análise textual interpretativa apoiada por computador e linguística de corpus, recomendo o artigo Taming textual data: The contribution of corpus linguistics to computer-aided text analysis.

AntConc permite realizar as principais técnicas de linguística de corpus como frequência de palavras (word frequencies), colocações (collocation), concordância (concordance), n-grams e comparação de corpora a qualquer tipo de texto.

Mas vamos começar do início! Baixe a AntConc e leia o texto a seguir, que vai te ensinar o básico sobre as configurações e como abrir um arquivo.

 

Como coletar dados textuais em mídias sociais?

Há dúzias de ferramentas para pesquisa em mídias sociais que permitem extrair ou monitorar dados textuais nas principais plataformas. A maioria delas coleta dados através de keywords/hashtags e/ou de páginas e websites específicos. Geralmente as ferramentas usam codificação UTF-8 para exportar arquivos no formato .csv . Você pode abri-los no Excel ou Libreoffice e copiar-colar os textos para um bloco de notas e salvá-los como um arquivo .txt, um dos formatos preferenciais para o AntConc.

Lista de ferramentas/respositórios:

Se você nunca coletou dados textuais em mídias sociais, recomendo fortemente que comece pela excelente e super fácil de usar Netlytic  e colete alguns tweets ou comentários do YouTube. Mas não se preocupe: vou lhe dar alguns datasets de exemplo nos próximos posts.

 

Formatos de arquivo

AntConc pode ler vários formatos diferentes: .txt, .xml, .html, .ant. O mais simples é o .txt, que você pode criar com um Bloco de Notas.

Formato Descrição
.txt .TXT é o formato mais simples para guardar arquivos. Softwares como Bloco de Notas, Notepad++, TextMate, Word dos editores de texto podem salvar seu arquivo neste formato.
.html .HTML é o padrão para salvar páginas web. Você pode salvar uma pa´gina web e carregá-la direto no AntConc.

AntConc tem algumas configurações que permite ignorar o texto entre os caracteres “<” e “>” usados em arquivos HTML.

.xml .XML: Extensible Markup Language. É similar a um arquivo .HTML, mas usa tags customizadas para definir objetos e dados dentro de cada objeto. Na análise de texto ou linguística de corpus é usada para marcar cada palavra com suas categorias/classes em Etiquetamento de Texto (Part-of-Speech Tagging).
.ant .ANT é um formato específico usado pela AntConc, intercambiável com .txt.

 

  1. Codificação

É recomendável que você salve seus arquivos de texto com a codificação UTF-8. Codificação de caracteres é uma padronização de como o software vai processar caracteres e símbolos. UTF-8 é definido pelo padrão Unicode, que engloba caracteres usados na maioria das línguas e scripts ocidentais. Graças a isto, muitas ferramentas de coleta de dados usam a codificação UTF-8 como padrão. Então lembra de salvar seus arquivos como UTF-8!

 

Configurações óptimas para Textos de Mídia Social

  1. Arquivo pré-configurado

AntConc não foi desenvolvido apenas para dados de mídias sociais mas para todos os tipos de texto, especialmente literatura, linguagem natural e corpora nacionais. Então são necessários alguns ajustes nas configurações.

As especificação serão listadas abaixo, mas ao invés de seguir cada passo, você pode simplesmente importar um Arquivo de Configurações (Settings File) com as opções recomendadas que preparei para você. Baixe o arquivo antconc_settings_for_social_media.ant e, no AntConc, vá em File -> Import Settings from File…, selecione e abra o arquivo:

 

Pronto! Agora o AntConc pode ser mais útil para análise de mídias sociais. Depois disso você pode pular os passos abaixo, mas recomendo ao menos lê-los para entender:

 

2. Configurações Globais (Global Settings) – Token Definition

Nesta seção, vamos explicar as configurações recomendadas. Mas lembre: você não precisa seguir os passos abaixo se você carregou o arquivo de configurações customizadas que mostrei acima.

Primeiro, precisamos configurar as configurações de token. Um token é  um elemento (palavra, caractere, pontuação, símbolo etc) considerado pelo software. Na opção de Token Definition dentro de “Global Settings” você pode definir quais caracteres/símbolos o AntConc vai considerar quando contar e processar seus dados. 

As configurações padrão são as seguintes:

Mas, quando trabalhos como dados de mídia social, há alguns caracteres especiais usados por usuários das plataformas que representam práticas específicas de conversação e afiliação. Dois deles são bem importantes:

O símvolo ‘@’: para usuários do Twitter e outras plataformas, o símbolo é usado para marcar perfis. Então é importante incluir o símbolo ‘@’. Isto vai nos permitir, por exemplo, contar os usuários mais comuns em um corpus ou o contrário: filtrar os usuários para focar nas palavras.

O símbolo ‘#’, por sua vez, é um tipo de marcados de metadados usados na maioria das plataformas para definir hashtags. Você pode adicionar o ‘#’ nas definições de token do AntConc para contar corretamente hashtags.

Recomendado:

Então, nós precismaos ir em Global Settings -> Token Definition, marcar a caixa “Append Following Definition” e incluir os símbolos ‘#’ and ‘@’.

3. Definições de ‘Caractere Coringa’

Um Caractere Coringa (“WildCard”) é um caractere que pode ser substituído por outro caractere, palavra ou símbolo durante uma busca. o AntConc tem vários corignas e podemos ver abaixo as configurações iniciais (Global Settings -> Wildcards).

O problema é que dois destes coringas são atribuídos a símbolos muito importantes nas mídias sociais, ‘@’ e ‘#’, como vimos anteriormente. Isto resulta que o AntConc “ignora” estes dois símbolos nos resultados, pois serão vistos como coringas.

Então recomendamos mudar estes dois coringas para outros símbolos. No exemplo abaixo, mudamos para{ e ‘} .

 

 

Abrindo seu Arquivo ou Corpora

  1. Abrindo seu(s) Arquivo(s)

Para abrir um arquivo ou conjunto de arquivos no AntConc, você só precisa ir em File -> Open File(s)… ou File -> Open Dir.

Através da opção File -> Open File(s) você pode selecionar um ou mais arquivos:

Se você abrir mais de um arquivo, o AntConc vai aplicar suas buscas e análise sem todos ao mesmo tempo:

Isto é muito útil para gerenciar datasets/corpora. Por exemplo: você pode analisar um ano de dados e salvar os textos (comentários, posts, tweets) de cada mês em um arquivo diferente. Ao abrir os 12 de um ano você conseguirá comparar coisas como: contagem de palavras específicas no Concordance Plot ou presença/permanência de clusters/n-grams.

Agora podemos falar sobre contagem de frequência de palavras. Te vejo no próximo post: Lista de Palavras, Frequência de Palavras e Visualização de Arquivos.

Computação sem Caô – cientista explica conceitos de forma simples!

O canal Computação Sem Caô foi criado pela cientista da computação Ana Carolina da Hora dois meses atrás e já está repleto de conteúdo de ótima qualidade! A missão da Ana Carolina neste canal é democratizar o entendimento sobre ciência da computação no Brasil.  Já são mais de 10 vídeos, confira alguns:

“Tranças feias” e “tranças bonitas”: como Google intensifica racismo

Viralizou na última semana um exercício de interrogação crítica do buscador Google: basicamente pesquisar “tranças feias” e “tranças bonitas” e conferir quais imagens são destacadas na aba de resultados de imagens do buscador. Longe de ser algo pontual, estes casos, mecanismos e problemas no excelente livro de Safiya Noble “Algoritmos de Opressão: como mecanismos de busca reforçam o racismo“. Outros casos similares mantenho na minha Timeline do Racismo Algorítmico. Ontem falei com o jornalista Tiago Rugero, do blog do Ancelmo (O Globo) sobre a questão. Seguem minhas respostas:

Você considera esse um caso de racismo algorítmico?
Sim. Racismo não se trata apenas de xingamentos horrorosos contra uma minoria. Trata-se também da manutenção de desigualdades estruturadas e microagressões no cotidiano que podem ser resultado de como sistemas automatizados, como buscadores, reagem ao comportamento dos usuários. No caso que está sendo viralizado, sobre as tranças feias e bonitas, o buscador não apenas reflete percepções da sociedade, mas também pode intensificá-las ao repetir em massa sem responsabilidade. Se uma criança negra, por exemplo, vê estes resultados continuamente, sem ver outros conteúdos positivos, isto gera sentimentos negativos sobre sua estética e autoestima. Há vários pesquisadores e pesquisadoras em universidades internacionais, como Joy Buolamwini, Safiya Noble, Frank Pasquale, Cathy O’Neill, Sil Bahia, Sérgio Amadeu que tratam de impactos sociais dos algoritmos há anos, mas agora o debate se populariza.

As tecnologias não são neutras. Mas isto não quer dizer que são negativas ou positivas. Significa que podemos gerar esforços coletivamente para criar ambientes favoráveis a todas as pessoas. Algumas plataformas digitais já possuem esforços neste sentido. Microsoft e IBM, por exemplo, já reagiram a pesquisas sobre casos anteriores. É importante debater tudo isto entre desenvolvedores, sociedade, jornalistas e afins.

O que é racismo algorítmico?
O racismo algorítmico trata de entender como sistemas regidos por algoritmos podem tomar decisões negativas contra um grupo racial específico. Há casos mapeados em áreas claramente muito graves, como decisões judiciais automatizadas ou reconhecimento facial que podem gerar, por exemplo, a prisão injusta de uma pessoa inocente. Isto mostra a necessidade, já avançada em alguns países, de permitir a “auditoria algorítmica” para que sistemas contratados por governos sejam justos e não possam ser usados para fins nocivos.
Mas na comunicação também há problemas possíveis para milhões de pessoas, uma vez que hoje nós passamos a maior parte do nosso tempo em ambientes como Google e Facebook. Assim como acontece com a publicidade tradicional, a invisibilidade ou representação nociva de grupos minorizados deve ser debatida pois prejudica os grupos citados, a sociedade e a própria economia e consumo.
Na maioria dos casos, os estudos mostram que os problemas não são claramente “intencionais”. Não é um desenvolvedor racista, geralmente, que vai incluir aquelas decisões que prejudicarão alguém. Mas pecar por omissão pode ser tão negativo quanto por intenção. Por isto tanto a pressão pela transparência das plataformas quanto falar sobre casos como este é importante para gerar o debate que vai ajudar os próprios criadores destes ambientes a melhorar seus sistemas. O campo da inteligência artificial, de modo amplo, está desenvolvendo modos de treinar melhor os sistemas e desenhar melhor as interfaces para isto, com apoio também das humanidades, artes, sociólogos e jornalistas.

 

Horas depois, a Google emitiu uma nota, que reproduzo a seguir:

“Construir uma experiência de busca é um desafio complexo, dinâmico e em constante evolução. Como nossos sistemas encontram e organizam informações disponíveis na web, eventualmente, a busca pode espelhar estereótipos existentes na internet e no mundo real em função da maneira como alguns autores criam e rotulam seu conteúdo. Entendemos que pessoas de todas as raças, gêneros e grupos podem ser afetadas por essas representações. Compartilhamos essa preocupação e continuaremos trabalhando para melhorar os resultados de busca de imagens para todos nossos usuários.”

Esta pretensão de neutralidade, de que o buscador é “só uma tecnologia” está sendo combatida internacionalmente. Gostaria de destacar o artigo “Por que empresas de mídia insistem que não são empresas de mídia, por que estão erradas e por que isso importa“, de Philip Napoli e Robyn Caplan, que explicam como discursos tais como o acima são problemáticos.

Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código

Apresentei nesta última semana o artigo Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código no Simpósio da LAVITS, em Salvador. O trabalho compõe minha pesquisa de doutorado e parte da análise de ambientes como Facebook, Twitter, YouTube e marketplaces de aplicativos mobile, que são mecanismos centrais do capitalismo de vigilância. Os vieses algorítmicos e affordances racistas nestas plataformas digitais de publicidade estão sendo crescentemente analisados nos últimos 15 anos por pesquisadoras informadas por perspectivas variadas. Como resultado estão em desenvolvimento iniciativas de auditoria de algoritmos e plataformas, construção de datasets e procedimentos mais responsáveis, além de indicações regulatórias. A opacidade presente nas caixas-pretas dos grupos de sistemas automatizados e semi-automatizados baseados em algoritmos que regem visibilidade, classificação, vigilância e regras de uso nas plataformas digitais complexifica e dificulta esta investigação. Esta questão se aplica tanto ao desenho de processos internos quanto à configuração de algoritmos e é agravada pela ideologia da “cegueira racial”, tática que compõe historicamente do genocídio negro, que também é epistemológico.

O trabalho propõe colaborar ao campo de estudos sobre vieses algorítmicos ao aproximar a investigação sobre vieses raciais nos algoritmos de plataformas digitais ao conceito de microagressões raciais (Pierce, 1970). Estas seriam definidas como mensagens rotineiras que comunicam insultos e desprezo racial e podem ser apresentadas de forma verbal, comportamental ou ambientalmente contra grupos racializados. A pesquisa sobre microagressões raciais propõe modos de analisar, entender e combater este tipo de violência em contextos de socialização, midiáticos ou educacionais com o objetivo de minimizar o impacto na formação e pleno desenvolvimento de populações negras, entre outras. Aplicando a tipologia de microagressões proposta por Tynes et al (2018) a partir de Sue (2007) a mapeamento realizado pelo autor, o artigo discute casos de comunicação algorítmica racista em plataformas digitais ligando aspectos das plataformas a categorias e subcategorias propostas sobre microagressões.

Acesse o artigo completo no ResearchGate e confira mais publicações.

Interrogando Plataformas e Algoritmos Digitais

Acabou de ser publicado o ebook da edição 2018 do Congresso Nacional de Estudos Comunicacionais da PUC Minas Poços de Caldas. Fui um dos conferencistas e apresentei a palestra Interrogando Plataformas e Algoritmos Digitais. A publicação inclui um resumo da palestra que transcrevo abaixo logo depois do slideshow utilizado (confira também no ResearchGate). Ao final do post, referências e como citar.

A crença tanto em que os algoritmos estatísticos e softwares são neutros quanto a crença de que são substitutos da ciência são erradas em dimensão comparável apenas à sua aceitação por um número cada vez mais crescente de grupos sociais filiados à ideais neoliberais e tecnocráticos de eficácia e otimização de processos. Estas presunções de neutralidade dos algoritmos e sistemas automatizados em campos da comunicação, direito, segurança e políticas públicas (SILVEIRA, 2017) impactam efetivamente indivíduos e comunidades de modo relativo à distribuição de poder quanto às classes, gênero, raças e grupos sociais que os constroem e gerenciam. Quanto ao aspecto de racialização, podemos falar de uma opacidade dupla. De um lado os algoritmos – e a tecnologia de modo geral – são vistos como neutros, como se fossem construídos, desenvolvidos e performados independente do contexto e pessoas envolvidas. De outro, a ideologia da negação e invisibilidade da categoria social “raça” na sociedade como um todo impede consensos e avanços quanto à justiça e equidade de representação.

Esta construção possui tanto impactos diretos quanto indiretos, tal como o gap de capacidade de interpretação da realidade social, demográfica e política contemporâneas. Ecossistemas de plataformas e infraestruturas digitais como Google, Amazon, Facebook e Apple (chamados pelo acrônimo GAFA) construíram capacidades de análise de dados internos e externos que ultrapassam em muito o potencial de universidades de ponta e até de estados. E tudo isto sem as prerrogativas de transparência e accountability exigidas pelas populações da maioria das democracias. Investigar e entender os impactos de algoritmos e plataformas na democracia e nas populações é um desafio ainda mais – aparentemente – intransponível.

Estas perspectivas neoliberais ativistas tem sido centrais no reforço de lógicas que são “antidemocratic, anti-affirmative-action, antiwelfare, antichoice, and antirace discourses that place culpability for individual failure on moral failings of the individual, not policy decisions and social systems”, inclusive em esferas tecnológicas (NOBLE, 2018, pos.2781). A opacidade dos sistemas é vista de forma acrítica, desde que não traga malefícios para o sujeito em sua individualidade e fins pragmáticos. E quando acontece são vistas como responsabilidade do próprio indivíduo que deveria ser “gerente de si mesmo”, como acontece com os sistemas de autogestão de escores de créditos, cada vez mais pervasivos. Impactos no social e no comunitário são ignorados. A legitimidade das “data-driven decision-making hinges not only on the presumed objectivity of its methods, but on the unquestioned acceptance of productivity, performance, merit” (RIEDER, 2016a, p.51). É preciso, então, ver as atuais práticas em torno de big data e análise pervasiva dos indivíduos com olhares multiculturais. Os dados, como “a medium or representational form and envelops data science within a cultural matrix. Data criticism also tackles data science’s idealistic view of data head-on, in addition to its self-proclaimed democratic leanings and liberalism” (BEATON, 2016, p.368).

A chamada à crítica dos dados e plataformas vai ao encontro do que Dardot e Laval (2017) diagnosticam como uma falta de compreensão das relações entre as condutas dos neossujeitos e as formas de controle, vigilância e análise exercidas na suposta hiper-racional contemporaneidade. Alertam que é preciso “examinar de perto tecnologias de controle e vigilância de indivíduos e populações, sua medicalização, o fichar, o registro de seus comportamentos, inclusive os mais precoces” (DARDOT & LAVAL, 2017, pos.7932). Mesmo antes da popularidade esmagadora de plataformas como o Facebook, a ligação entre inteligência artificial e pilares do neoliberalismo, como o capital financeiro, podem ser sentidas como aponta Achille Mbembe, ao descrever como este, “simultaneamente força viva e criadora […] e processo sangrante de devoração […] aumentou descontroladamente a partir do momento em que os mercados bolsistas escolheram apoiar-se na inteligência artificial para optimizar movimentos de liquidez” (MBEMBE, 2017, p.30).

Neste sentido, acreditamos ser essencial a realização de esforço de pesquisa e atuação crítica na realidade para combater os vieses não só algorítmicos, mas também a opacidade destes vieses fruto da lógica neoliberal que glorifica corporações de tecnologia do Vale do Silício enquanto deixa sujeitos atomizados em busca de uma autogestão cada vez mais opressiva. E levando em conta o “contrato racial” (MILLS, 2014) que cria processos de racialização nas mais diferentes esferas sociais com objetivos de dominação, é preciso esforço conjunto para entender a fundo novas tecnologias como plataformas de comunicação e suas relações com dados e inteligência artificial.

As proposições que estão surgindo nos últimos anos para interrogar as plataformas e sistemas algorítmicos merecem circulação e aplicação em diferentes contextos (BROCK, 2016; RIEDER, 2016; OSOBA & WELSER VI, 2017; SILVEIRA, 2017; NOBLE, 2017; WILLIAMS, BROOKS & SHMARGAD, 2018; BUOLAMWINI & GEBRU, 2018), sendo ainda raras as proposições que levam em conta a estruturação do racismo na sociedade ocidental e como impacta produções de centros de tecnologia como o Vale do Silício.

A Teoria Racial Crítica (Critical Race Theory), fruto e atuante nos movimentos de direitos civis desde a década de 60, aplicada no Brasil por estudiosos do Direito e da Educação, merece o seu lugar também na Comunicação. É baseada em pilares de compreensão da sociedade especialmente úteis para compreender os pontos de contato entre opacidade algorítmica e invisibilidade dos processos de racialização, tais como: compreensão desta como de relações raciais hierarquizadas estruturantes e estruturadas pelo racismo; percepção da ordinariedade do racismo nas mais diferentes esferas sociais, econômicas, políticas e biopolíticas; a convergência interseccional do determinismo material dos interesses de grupos dominantes; a visão das relações raciais como construção social; e, por fim, a TRC é agente efetiva no combate da opressão racial (CRENSHAW, GOTANDA & PELLER, 1995; MATSUDA et al, 1993; DELGADO, STEFANCIC & HARRIS, 2017).

Vemos estes esforços como um trabalho internacional em progresso e propomos três estratégias para reunir a colaboração da Teoria Racial Crítica ao estudo dos algoritmos: a) análise crítica, localizada e com consciência racial das particularidades do contexto brasileiro, onde entram também hierarquias de dominação imperialistas mediadas pelo Vale do Silício e cultura de startups; b) uso de colaborações das ciências sociais, humanidades digitais e computação social para entender e interrogar as plataformas; e c) uso de métodos mistos (JOHNSON & ONWUEGBUZIE, 2004), incluindo também mapeamento, engajamento de profissionais e ativistas para compreender toda a rede produtiva a partir de um olhar da economia política de produção dos algoritmos e sistemas. A governança algorítmica tende a ser cada vez mais presente e comunicadores e cientistas sociais devem mergulhar na temática para agir junto a desenvolvedores e legisladores pra analisar danos individuais, discriminação ilegal e práticas injustas, perda de oportunidades, perdas econômicas e estigmatização social.

Referências

BEATON, Brian. How to Respond to Data Science: Early Data Criticism by Lionel Trilling. Information & Culture, v. 51, n. 3, p. 352-372, 2016.

BROCK, André. Critical technocultural discourse analysis. New Media & Society, p. 1461444816677532, 2016.

BUOLAMWINI, Joy; GEBRU, Timnit. Gender shades: Intersectional accuracy disparities in commercial gender classification. In: Conference on Fairness, Accountability and Transparency. 2018. p. 77-91.

CRENSHAW, Kimberlé; GOTANDA, Neil; PELLER, Garry. Critical race theory: The key writings that formed the movement. The New Press, 1995.

DARDOT, Pierre; LAVAL, Christian. A nova razão do mundo. Boitempo Editorial, 2017.

DELGADO, Richard; STEFANCIC, Jean. Critical race theory: An introduction. NYU Press, 2017.

JOHNSON, R. Burke; ONWUEGBUZIE, Anthony J. Mixed methods research: A research paradigm whose time has come. Educational researcher, v. 33, n. 7, p. 14-26, 2004.

MATSUDA, Mari J.; LAWRENCE III, Charles R.; DELGADO, R.; CRENSHAW, Kimberlè W. Words That Wound – Critical Race Theory, Assaultive Speech, and the First Amendment. Nova Iorque: Routledge, 1993.

MBEMBE, Achille. Políticas da Inimizade. Lisboa (Portugal: Antígona, 2017.

MILLS, Charles W. The racial contract. Cornell University Press, 2014.

NOBLE, Safiya Umoja. Algorithms of Oppression: How search engines reinforce racism. NYU Press, 2018.

OSOBA, Osonde A.; WELSER IV, William. An intelligence in our image: The risks of bias and errors in artificial intelligence. Rand Corporation, 2017.

RIEDER, Bernhard. Big Data and the Paradox of Diversity. Digital Culture & Society, v. 2, n. 2, p. 39-54, 2016a.

SILVEIRA, Sérgio Amadeu da. Tudo sobre Tod@s: redes digitais, privacidade e venda de dados pessoais. São Paulo: Edições Sesc, 2017.

WILLIAMS, Betsy Anne; BROOKS, Catherine F.; SHMARGAD, Yotam. How algorithms discriminate based on data they lack: Challenges, solutions, and policy implications. Journal of Information Policy, v. 8, p. 78-115, 2018.

 

Como citar
SILVA, Tarcízio. Interrogando Plataformas e Algoritmos Digitais. In: Congresso Nacional de Estudos Comunicacionais da PUC Minas, 2018, Poços de Caldas, Minas Gerais, Brasil. Anais do 3 CONEC Congresso Nacional de Estudos Comunicacionais da PUC Minas, 2018. p. 32-26. Disponível em < https://conec.pucpcaldas.br/wp-content/uploads/2019/06/anais2018.pdf >