No mês passado pude participar da Jornada Internacional Geminis 2016 em duas atividades bem interessantes: debate com o mote “A Revolução Será Monitorada?” e workshop sobre Coleta de Dados para Pesquisa Acadêmica. Seguem as apresentações:
Arquivo da categoria: Métricas e Mensuração
Cronograma de cursos e eventos sobre pesquisa e análise de dados
Olá! Se você é assinante deste blog, pode estar sentindo falta de conteúdo, não é? Peço desculpas e indico o blog do nosso Instituto Brasileiro de Pesquisa e Análise de Dados, onde tenho dedicado meus esforços nos últimos meses. Além de alguns textos meus como “Iniciação a Redes“, “O Potencial Subutilizado do Monitoramento de Mídias Sociais” e “Fotografia nas Mídias Sociais como Recurso Etnográfico“, já temos dezenas de publicações dos professores do Instituto. Acesse e assine em http://blog.ibpad.com.br
Indo de vento em popa, nossas atividades planejadas neste semestre são inúmeras. Confira a lista abaixo:
- Etnografia em Mídias Sociais: O curso desenvolvido em parceria com a Débora Zanini já teve edições em São Paulo (dezembro) e Brasília (feveireiro) e vai para as próximas edições em muito breve
- São Paulo – 06 de março (esgotado!)
- Rio de Janeiro – 04 de junho
- Análise de Orçamento Público: o curso de Arthur Kronenberg oferece a base teórica necessária sobre Orçamento Público para se utilizar o sistema SIGA BRASIL a fim de acompanhar a execução orçamentária e financeira da Lei Orçamentária Anual.
- Brasília – 5, 12 e 19 de março e 2 de abril
- B.I. para Atendimento e Gerentes de Projetos: Mariana Oliveira ajudará profissionais das áreas de atendimento e gerência de projeto a entenderem as possibilidades dos insights online e sociais, assim como monetizá-los.
- São Paulo – 02 de abril
- Brasília – 09 de abril
- Programação em R: a importante linguagem de programação dedicada a análise de dados será apresentada em curso intensivo de 36 horas de Guilherme Jardim Duarte (SP) e Carlos Cinelli (BSB).
- São Paulo – 04 de abril a 02 de maio (seg, qua e sex)
- Brasília – 04 de abril a 02 de maio (seg, qua e sex)
- Monitoramento de Mídias Sociais: meu curso básico de monitoramento de mídias sociais é atualizado e evoluído a cada realização. Na edição de São Paulo, com um reforço: o Wesley Muniz comandará as atividades.
- Brasília – 07 e 08 de maio
- São Paulo – 14 e 21 de maio
- Análise de Dados e B.I. para Planners: a planner e professora mestre Daniele Rodrigues convida 3 especialistas em social analytics para demonstrar aos alunos como aplicar as descobertas em planejamentos reais.
- Rio de Janeiro: 25 de junho e 2 de julho
- Análise de Redes para Mídias Sociais: Gephi ainda parece algo esotérico? Além desta importante ferramenta, Max Stabile e eu apresentamos os conceitos, técnicas e práticas envolvidas na análise de redes em Twitter, Facebook, Blogs e Instagram. Duas edições já aconteceram este ano, mas temos datas para as próximas.
- São Paulo: 09 e 16 de julho
- Rio de Janeiro: 23 e 30 de julho
- Brasília: 06 e 13 de agosto
- Pesquisa Qualitativa em Mídias Sociais: um dia inteiro dedicado a diversas palestras destrinchando cases de profissionais de ponta do mercado. Salve a data: 2 de julho em São Paulo. ;)
Social Analytics Summit 2015: inscrições abertas!
Tenho o prazer de realizar a curadoria, pelo terceiro ano, do evento Social Analytics Summit, que acontecerá nos dias 27 e 28/11 em São Paulo. Neste ano tive a fantástica ajuda da Mariana Oliveira como co-curadora para pensar uma grade bem completa! Neste ano teremos palestras com pensadoras e profissionais como Raquel Recuero, Gustavo Vasconcellos (Globo), Agatha Kim (Havas), Cristina Cardoso (Sky), Wesley Muniz (Bradesco) e Douglas Oliveira (Thinking Insight). Entre os temas, veremos de modelos estatísticos pra métricas a cicloativismo, passando por social network analysis. A quinta edição da pesquisa sobre os profissionais da nossa área também será lançada no evento pelo Júnior Siri (F.Biz).
No mini-curso, uma novidade: preparamos um material com objetivo de ajudar profissionais que já estão no mercado a inovar em seus relatórios de monitoramento. Eu, a co-curadora Mariana Oliveira (Havas), Débora Zanini (Ogilvy) e Julie Teixeira (Trip) explicaremos como melhorar seus relatórios com 4 técnicas: linguística de corpus, dataviz, técnicas etnográficas e geolocalização. Veja os temas do mini-curso e palestras já confirmados:
MINI-CURSO
– Linguística aplicada
– Técnicas etnográficas
– Geolocalização
– Dataviz
PALESTRAS
– Do outro lado da mesa: como entender as demandas dos clientes
– Insights para transformar as cidades
– Previsões e modelos estatísticos para métricas de mídias sociais
– Profissional de inteligência de mídias sociais no mercado brasileiro
– O desafio de transformar dados em estratégia sob a ótica de planejamento
– Cruzando Dados e Pesquisas em Grandes Organizações
– Métodos de pesquisa digital: SNA
Para quem se inscrever até o dia 30 a Media Education preparou um valor bem bacana e ainda podem usar o código sas05taru pra mais um desconto de 7% em cima.
Saiba mais em mediaeducation.com.br/socialanalytics
Artigo na revista “Big Data & Society” analisa affordances de projetos de digital social analytics
A revista de acesso aberto Big Data & Society, editada por Evelyn Ruppert, da Goldsmiths, University of London, foi lançada em 2014 e continua a trazer relevantes reflexões sobre o impacto dos modelos de big data em aspectos sociais.
O artigo “Between technical features and analytic capabilities: Charting a relational affordance space for digital social analytics“, de Anders Koed Madsen, traz uma interessante classificação de variáveis presentes em projetos de digital social analytics. A partir da análise de 8 projetos, o autor discorre sobre duas características tecnológicas que influenciam qualquer aplicação do método.
O primeiro deles se refere aos formatos dos dados distribuídos. Em seus pólos, temos duas possibilidades: structured channeling e adaptative tracking. Os canais que são percebidos como relevantes (por popularidade [como Twitter] ou objetivo [como Reclame Aqui]) são tomados como referenciais para a estruturação de coleta e organização dos dados. Tal postura acaba por definir affordances de ferramentas e potenciais/limites de projetos de digital social analytics. Vejamos, por exemplo, o caso das ferramentas de monitoramento de mídias sociais. Hoje vistas como principal técnica de análise de percepção das imagens das marcas nas mídias sociais, são firmadas, desde 2006~2007, em dados baseados em modelo de stream (fluxo) e real-time possibilitados pela coleta de blogs através de feeds e expandindo para APIs especialmente de Twitter e Facebook. Este modelo direcionou a construção do mercado de monitoramento de mídias sociais, seus tipos de entregas e monetização. Mas cada plataforma possui sua “unidade de conteúdo” com especificidades, especialmente quanto a modalidade de texto e restrição de tamanho.
No outro pólo, o tracking adaptativo tenta perceber os dados online para um referencial único. Estão, relativamente, em pouco número quanto comparados ao modo de estruturação dos canais. O excelente exemplo provido pelo autor é a ideia de link ou conexão. A transformação das relações entre entidades sociais, sejam físicas ou corporativas, em redes de conexões é apontada como a possibilidade final de adaptação dos dados de diferentes plataformas em um mesmo tipo.
A segunda característica descrita pelos autores é a necessidade por automatização. Em determinado grau, a maioria dos projetos de digital social analytics trazem algum tipo de automatização.
No pólo do Following (seguir os algoritmos), Madsen traz como exemplo a aplicação de clustering em uma rede de blogs. A distribuição dos blogs em grupos, uma vez que é baseada no algoritmo, engendra esquemas classificatórios que podem superar os preconceitos dos analistas. Enquanto Training, o autor traz exemplo de nuvem de palavras codificadas cromaticamente a partir de sentimentos vinculados às palavras pela percepção dos analistas em determinado domínio semântico.
Gosto particularmente deste exemplo pois acredito que estamos em um momento de cisão quanto à relação entre análise humana e automatização no mercado brasileiro de mídias sociais. Determinados tipos de automatização são vistos com desconfiança desde a emergência deste mercado no país, o que congelou, de certo modo, a demanda e aprendizado mais amplos sobre técnicas de computação social pelos profissionais. As mudanças na API do Facebook forçarão o preenchimento desta lacuna e superação da falsa dicotomia entre processamento computacional e análise humana, o que torna o artigo especialmente relevante para diversos tipos de stakeholders do mercado.
Não esqueça também de assinar o blog da Big Data & Society: http://bigdatasoc.blogspot.co.uk/
Mudanças no monitoramento de Facebook: prepare-se!
Neste primeiro de maio, ironicamente, o Facebook passou a “dificultar” o trabalho dos profissionais da querida área de monitoramento de mídias sociais. Nesta data passaram a valer as novas regras das APIs do Facebook. O principal impacto para o mercado de monitoramento de mídias sociais é que nenhuma ferramenta, nem usuário, poderá fazer coleta de dados brutos a partir de pesquisa de termos. Isto significa que não teremos mais acesso ao texto bruto ou ao perfil dos usuários (nem sequer nome e avatar!) de quem mencionar as marcas em suas timelines (fora de páginas e grupos). Somente será possível coletar alguns indicadores e quantificações já processadas, como: número de menções a marcas; número de menções a termos; número de menções a atributos de um produto/serviço; distribuição demográfica de quem fala sobre cada termo buscado; circulação de links etc.
Ilustrando de forma muito simples abaixo: se antes tínhamos acesso a todo o texto, link e avatar do usuário (na esquerda), agora cada post virará “apenas” um número nos gráficos:
Os impactos negativos desta mudança são os mais óbvios e imediatos. Em primeiro lugar, as marcas que tentavam descobrir problemas específicos de consumidores individuais através do monitoramento de postagens públicas não poderão mais fazê-lo. Agências e consultorias de pesquisa que realizavam estudos qualitativos baseados no comportamento discursivo/expressivo de usuários não poderão mais fazer isto no Facebook (neste caso há algumas alternativas, mas de menor escala – e assunto pra outro post). Ações de engajamento que envolviam a participação ativa dos usuários em seus próprios perfis também minguarão, pois não será possível monitorar as menções para reportar resultados. Tudo isto traz impactos óbvios para os modelos de serviços e receita de agências e ferramentas.
Mas chorar pelo leite derramado não ajuda. Então vamos aproveitar o que for possível, dadas as condições. Segue uma lista de materiais comentados que pode ajudar muito neste momento de disrupção.
Pra começo de conversa, gostaria de indicar três textos de profissionais que admiro e trabalham com monitoramento há tanto (ou mais) tempo que eu: o Roberto Cassano publicou no Medium da Frog o post “A Era Negra do Monitoramento“, o Eduardo Vasques da TV1 o texto “A Crise do Monitoramento” e o Gabriel Ishida da dp6 com o texto “Sobre a API do Facebook e o seu Topic Data“. Apesar de achar os títulos dos dois primeiros textos prejudiciais, pois tem muita gente que não lê ou se informa com atenção e podem criar um clima apocalíptico, são observações e comentários essenciais. Como comenta o Cassano, ” é preciso desenvolver uma estratégia e uma metodologia, que use ferramentas para se alcançar os objetivos reconhecendo e explorando as enormes limitações e desafios impostos pelas novas plataformas e por uma maior maturidade do próprio consumidor, cada vez mais ciente da (correta) necessidade de preservar sua privacidade.” E, nas palavras do Vasques, é hora de: “Abrir novas frentes de interação e estimular ainda mais o diálogo para que os públicos se manifestem nesses ambientes aos quais as marcas têm acesso. Ou seja, é hora de se abrir para novos aprendizados.”
O Ishida, pragmático desde o título, lembra da importância de se profissionalizar de verdade o trabalho em mídias sociais em todas suas esferas:
Não duvido nada que, daqui um tempo, algumas pessoas chegarão perguntando: alguém conhece uma ferramenta de graça que pegue esses dados do Facebook? E ainda por cima vão xingar o Facebook por ter limitado os dados desse jeito. Se você quer dados legais, bem agregados, organizados, não só no Facebook, mas em todas as outras redes, você tem que pagar por uma ferramenta. Social media não é de graça, como ainda muita gente pensa. Há um trabalho sério por trás de tudo.
Antes de ir para as dicas técnicas, gostaria de lembrar da importância de se pensar a atuação neste mercado não só em termos da receita que você vai ganhar hoje com uma plataforma específica. Mas também em termos de saúde da internet como um todo. O modelo de negócio do Facebook , ao contrário de empresas como Google e Twitter, não se baseia na livre circulação de informações na internet, mas sim na construção de barreiras para que tudo fique dentro do Facebook. Não é à toa que Tim Berners-Lee, um dos inventores da web, alertou sobre o perigo que o Facebook traz aos princípios da internet.
Ano passado, nos 10 anos do Facebook, escrevi como o Facebook se tornou um “ponto obrigatório de passagem“, um nível de centralização de poder muito perigoso. Para comparar, recomendo o texto, também de minha autoria “250 milhões de motivos para defender o Twitter“. Para uma visão mais ligada à pesquisa acadêmica, leia o excelente texto “The redistribution of methods: on intervention in digital social research, broadly conceived” da Noortje Marres. De 2012, discute como a abundância de dados sociais hoje traz novas oportunidades e desafios para a construção de conhecimento, especialmente para a pesquisa acadêmica. Um dos motivos é a centralização destes dados em corporações como Facebook e Google. Três anos depois, o Facebook piorou bastante a situação para todos.
Então vamos falar de como se preparar para o novo modelo de monitoramento no Facebook. Em primeiro lugar, uma pequena revisão de como vai funcionar. Como falamos acima, o Facebook não entregará os dados brutos para nenhuma ferramenta. Nem sequer para a Datasift, fornecedora de dados (que ferramentas como o BrandCare contratam). A Datasift vai ser a intermediária para aplicação das regras nos dados, através de sistemas como Biblioteca de Classifiers, Modelos Baseados em Regras e Machine Learning Models. Abaixo um esqueminha utlizado pela Datasift em suas apresentações:
Um detalhe importante de mencionar é que este processamento de dados não acontecerá nem sequer nos servidores da Datasift. Mas dentro dos servidores do Facebook. E, ao contrário do Twitter, não oferecerão a possibilidade de coleta de dados retroativos (por exemplo, no BrandCare podemos coletar tweets desde 2006).
O problema (e oportunidade) destas três lógicas é que a análise de sentimento ou classificação automatizada são, como todos sabem, algo muito complexo. E consideravelmente imprecisa. Abaixo temos um exemplo de configuração na interface da Datasift. Em bom português, uma das linhas significa que textos sobre estas marcas automotivas sendo monitoradas que contenham as palavras “recall, fault, broke down ou broken” serão marcadas com o código de Feature(Característica/Aspecto) chamado Reliability (Confiabilidade).
Em ferramentas de monitoramento como o BrandCare, transformamos o estabelecimento de regras para uma forma bem simples como na tela abaixo. Ou seja, para o usuário final o estabelecimento de regras simples como estas é algo bem fácil como na tela abaixo. No exemplo, esta série de palavras como “barato” e “caro” são ligadas a um atributo: neste caso o aspecto “Preço”.
Isto significa que quanto às regras, parte das práticas que serão feitas com a mudança de dados no Facebook já são realizadas em alguns projetos de monitoramento. No caso acima, esta e diversas outras regras são transformadas em gráficos com indicadores sobre as marcas monitoradas. Exemplificando, uma série de regras e parâmetros customizados são enviados para o Facebook e ele retorna dados que serão transformados pelas ferramentas em gráficos. É como acontece quando se usa regras normalmente. No exemplo abaixo, uma série de regras vira gráfico de Temáticas, Sentimento, Palavras Negativas etc.
Mas há um grande ponto que, na minha opinião, é um dos mais problemáticos nesta mudança. Quem trabalha bem com regras de processamento de texto/linguagem natural, melhora continuamente as informações ao conferir, em amostras dos textos, se tais regras resultaram em aplicações adequadas de códigos, tags e sentimento. Mas isto não será possível mais com o Facebook. Você não poderá conferir nos próprios dados se aquelas 200 regras adicionadas que processam 4000 keywords para gerar 40 tags diferentes estão 100% precisas. Para fazer isto, será preciso recorrer a uma compreensão ampla das dinâmicas de conversação, além de trabalhar com modelagem e testes utilizando outros parâmetros textuais para se aplicar aos textos do Facebook.
Neste momento, monitoramento e pesquisa digitais que englobem o Facebook se aproximam ainda mais da pesquisa acadêmica e de áreas que envolvam a compreensão profunda das estruturas linguísticas e discursivas, além da organização da informação. Áreas como linguística de corpus, sociolinguística, text analytics, computação social, NL (processamento natural da linguagem) tornam-se mais importantes. Como o Facebook vai deixar parte do trabalho “às cegas”, é importante ter o máximo de domínio destas técnicas em grande escala (big data) para que os dados sejam o mais precisos possíveis e as estratégias e táticas resultantes deem resultado.
Para começar, recomendo revisitar as estratégias de criação de Categorias e Tags em projetos de monitoramento de mídias sociais. Em whitepaper que escrevi na Social Figures, descrevo três táticas básicas para gerar as categorias e tags: decompor o produto/serviço; responder demanda de informação do cliente; e descobrir informações emergentes nas mídias sociais. A materialização destas táticas em listas de códigos/tags organizados é o primeiro passo para criação das regras e sistemas de processamento em seguida.
Quanto a linguística de corpus, o Tom McEnery é um dos principais estudiosos do tema na atualidade e lançou um curso online na FutureLearn chamado “Corpus linguistics: method, analysis, interpretation“. Compreender as mecânicas da língua e como tem sido estudadas ao longo das décadas pela linguística de corpus é um passo essencial para aplicar heurísticas e proxies de dados para descobrir informações. O McEnery também possui um livro básico sobre o tema chamado “Corpus Linguistics: Method, Theory and Practice“.
Focada em mídias sociais, a Michele Zappavigna estudou um corpus de 7 milhões de tweets totalizando 100 milhões de palavras. A pesquisadora australiana publicou um livro com os resultados, chamado “Discourse of Twitter and Social Media: How We Use Language to Create Affiliation on the Web”, que já resenhei aqui no blog. É útil neste momento especialmente por três motivos. O primeiro é para que todos lembrem o quanto o Twitter é maleável e amigável a pesquisas e geração de informações de todos os tipos. O segundo é que a classificação que a Zappavigna aplica em marcadores de Julgamento, Afeto e Apreciação são úteis para a criação de regras que tragam dados além somente de aspectos e sentimentos. Por fim, Twitter e Blogs servirão aos bons e cuidadosos profissionais que desejarem criar modelagens e testes das regras em textos reais e atuais antes de aplicar ao monitoramento também do Facebook. Tenho uma proposta de palestra no SMW sobre o tema (vote, se interessar a você).
Além das regras e dos classifiers já prontos, outra possibilidade será aplicar machine learning nos textos. Ainda não está perfeitamente claro como funcionará, mas isto não significa que se deve ficar de braços cruzados. A aplicação mais frequente de aprendizado de máquina em texto natural é a modelagem de tópicos. De modo bem geral, é uma técnica que identifica, em uma lista/corpus de textos, os tópicos a partir da frequência, ausência e diferença de palavras-chaves. Temos cerca de 20 anos de estudos nesta área, sendo hoje o modelo mais comum o LDA – Latent Dirichlet allocation.
Como é frequente em se tratando de pesquisa acadêmica, há ferramentas gratuitas que ajudam neste processo. Criada por David Newman e Arun Balagopalan, é uma materialização simples do LDA que, a partir de inputs em CSV/TXT permite identificar os “tópicos” em uma série de textos. Ferramentas do tipo, associadas ao conhecimento de monitoramento de mídias sociais, ajudam no processo de inferir termos que possam ser significativos a temas e tópicos no Facebook, mesmo estando parcialmente “às cegas”.
Outra fonte essencial de informação e aprendizado para os analistas neste momento é o projeto Tapor. O Text Analysis Portal for Research é uma iniciativa de professores de algumas das principais universidades do Canadá e reúne quase 500 ferramentas para text analysis. São inúmeras possibilidades de processar, explorar e visualizar dados a partir de text analytics. Grande parte destas visualizações não serão possíveis devido às novas restrições do Facebook. Mas em parte delas tente imaginar: como eu posso fazer sistemas de queries que me permitam trazer dados tão ricos?
Sempre importante lembrar que a limitação que o Facebook impôs está na busca. Ou seja, ainda é possível coletar dados de Facebook Pages, incluindo os comentários. O mesmo no caso dos Grupos. Abaixo, um exemplo de estudo de benchmarking baseado em tipos de conteúdo publicados por marcas do segmento de fast fashion:
O cruzamento da construção de corpora tanto de textos antigos do Facebook quanto de texto atual de outras mídias sociais, modelagem de tópicos e compreensão das estruturas linguísticas das conversas e opiniões será essencial para os analistas de dados. Mas tudo isto, claro, pode ser aplicado nas diversas mídias sociais e fontes de dados textuais. O que não pode continuar é o crescente fechamento da internet no Facebook. Sempre defendi a necessidade de criação de ambientes proprietários para as marcas ou organizações. Agora, mais do que nunca, isto se torna essencial.
Além disto, é importante lembrar que é possível extrair ainda mais dados dos outros canais como Twitter, Blogs, Instagram, Google+, Fóruns, Websites de modo geral, Google Trends, Wikipedia etc. Existem inúmeras metodologias e técnicas de geração de informações, provenientes da história das ciências sociais e computacionais, que podem ser aplicadas para gerar mais e mais insights. A Análise de Redes Sociais, por exemplo, era utilizada por uma pequena parcela de profissionais através de programas como NodeXL e Gephi. Ano passado, tive a oportunidade de integrá-la com o BrandCare, permitindo a escalabilidade destas aplicações para nossos clientes, com excelente resultado. E é um tipo de metodologia que é favorecida especialmente pela estrutura de dados e conversas no Twitter.
Em resumo, não é o fim ou a crise do monitoramento para fins comerciais. As mudanças que o Facebook impôs vão impactar alguns tipos de projetos, mas não é o fim do mundo. Bons profissionais, agências, ferramentas e afins continuarão a realizar um bom trabalho. Mas, acima de tudo, que isto sirva de lição para lembrarmos que a internet é uma ferramenta poderosa demais para ser tomada por modelos de negócio centralizadores.