Futuros da pesquisa e das cidades: entrevista com Carolina Zaine

social analytics summit

Falta apenas 1 semana para o Social Analytics Summit! Aquecendo os motores para as palestras e mesas do evento, hoje temos mais uma entrevista. Carol Zaine, fundadora da Vert Inteligência Digital, participará do debate “Insights para Transformar as Cidades”, junto ao Douglas Oliveira da Thinking Insight.

carol zaineTarcízio: A Vert acabou de completar 5 anos focada em inteligência digital. Muita coisa mudou quanto a comportamentos e plataformas. Você acha que o crescente fechamento de dados, como as mudanças no Facebook, ameaçam nosso mercado?

Nesses 5 anos muitas coisas aconteceram. Por mais de uma vez ouvi pessoas dizendo “Agora sem poder fazer isso vai ficar difícil para vocês”. A questão primordial é que sempre existirão mudanças, porque é um jogo de interesses muito grande e que vai muito além da nossa atuação. Quando se trabalha com tecnologia, que talvez seja um dos mercados mais voláteis, devemos estar preparados para tudo, principalmente mudanças repentinas na “regra do jogo”. O mercado ficou bem receoso com o fechamento dos dados do Facebook e sabemos que eventualmente isso pode vir a acontecer em outras redes. Por isso, em paralelo ao trabalho que realizamos hoje, de análise de comportamento humano baseado em dados de redes sociais, temos que ir pensando em novas tecnologias, novos canais, novos métodos e nunca ser dependente de uma única estratégia.

T: Com formação e prática também em pesquisa de mercado, qual a sua opinião sobre as diferenças de lógicas de trabalho com informações e dados em agências em comparação a empresas de pesquisa?

C: O trabalho de análise de dados digitais, seja dados de navegação, redes sociais, entre outros…permite algumas coisas que o mercado de pesquisa tradicional não consegue entregar, ou se consegue, o custo fica altíssimo, como trabalhar com a análise de um alto volume de dados (big data), e a velocidade da analise que hoje, graças a recursos tecnológicos e mesmo com bases gigantescas, ainda é mais rápida que métodos tradicionais.

Muitos dizem que isso vai matar o mercado tradicional de pesquisa, como vem acontecendo com o jornalismo – Mídia física x Online. Mas eu não acredito nisso, acho que não só tem espaço para todos como são métodos que se complementam.

Percebo que ainda existe um receio dos mais antigos de mercado em trabalhar com dados proveniente de fontes como sites ou redes sociais, por exemplo, e percebo também uma falta de interesse dos jovens que estão entrando nesse mercado em entender o que já existe de pesquisa e métodos e saber como integrar de alguma maneira o que já existe com o que está para ser descoberto.

Tenho certeza de que se esses dois mercados, que ainda andam em paralelo de alguma maneira, ganhariam muito se interagissem mais.

T: O que é possível descobrir sobre uma cidade utilizando dados nas mídias sociais? Especialmente falando de bairros e áreas “marginalizados”, é possível entender comportamentos só a partir do social?

C: Acho que depende do que você quer descobrir, mas a princípio, os dados de redes sociais já dariam uma grande noção, por exemplo, do comportamento de consumo de uma dada região. As pessoas que frequentam o Centro da cidade, elas vão até lá em busca de que? Turismo? Compras? Restaurantes? Arte? Elas vivem no Centro e consomem no Centro? Ou elas são de outras partes da cidade mas gostam de frequentar o Centro por algum motivo especial?

Isso são só alguns exemplos básicos do que podemos descobrir monitorando o comportamento digital de quem frequenta essa parte da cidade e que já ajudariam a empresas ou até mesmo a prefeitura saber em que e como investir nessa região. Mostrando o potencial de consumo conseguimos contribuir para o desenvolvimento local, principalmente do Centro que é uma parte muito rica, em todos os aspectos, e extremamente marginalizada.

Leia mais entrevistas sobre o Social Analytics Summit aqui e no blog da Mariana Oliveira. Para saber mais sobre o evento e se inscrever, só seguir em mediaeducation.com.br/socialanalytics

Pesquisa baseada em Dados Sociais Digitais: mapeamento de ferramentas e táticas de coleta de dados no Intercom

Acaba de ser publicado meu artigo “Pesquisa baseada em Dados Sociais Digitais: mapeamento de ferramentas e táticas de coleta de dados no Intercom“, na revista digital iberoamericana Razón y Palabra. O objetivo do trabalho foi mapear padrões entre os artigos publicados no evento que realizaram coleta de dados interacionais, conversacionais e opinativos em sites de redes sociais. Variáveis relacionadas a quantidade de dados, ferramentas de coleta, plataformas analisadas e apresentação dos resultados foram rastreadas à luz de questões referentes aos desafios e potencialidades destas modalidades de pesquisa.

Total de Artigos x Artigos baseados em Coleta de Dados Sociais

O congresso da Intercom, Sociedade Brasileira de Estudos Interdisciplinares da Comunicação, é o maior congresso de ciências da comunicação no Brasil. Além de conferências, traz grupos de trabalho, atividades de exposição competitiva de produtos laboratoriais, lançamento de livros e outros espaços de sociabilidade e colaboração entre pesquisadores do Brasil e outros países. A produção publicada neste evento serviu de indicador para refletir sobre as oportunidades, desafios e tendências que a oferta de dados nos sites de redes sociais trazem para os pesquisadores acadêmicos.

principais fontes de dados sociais digitais

Os GTs diretamente relacionados à mídias sociais neste congresso foram mapeados: Núcleo de Pesquisa em Tecnologias da Informação e da Comunicação [até 2008) e os grupos Cibercultura e Conteúdos Digitais e Convergências Tecnológicas a partir de 2009. A partir da filtragem de 704 artigos, cheguei a 72 que trabalharam diretamente dados interacionais, conversacionais e opinativos. As questões de pesquisa abaixo são respondidas e cruzadas com questionamentos sobre a redistribuição de métodos e especificidades da pesquisa digital.

a) Quantos trabalhos publicados no evento utilizaram coleta de dados sociais digitais?
b) Quais sites de redes sociais são abordados nos trabalhos do evento?
c) Quais as ferramentas utilizadas para coleta e processamento dos dados?
d) Quais os tipos de conteúdo e volume analisados nos artigos?
e) Como os pesquisadores abordam a relação entre conteúdo e indivíduos publicadores?
f) O conteúdo é apresentado de forma direta ou através de visualizações?
g) Os indivíduos observados, direta ou indiretamente, nos dados empíricos, são anonimizados?

De modo geral, os resultados parecem apontar para a necessidade de maior domínio e clareza de procedimentos metodológicos, exploração do potencial de tratamento do volume de dados e detalhamento de processos de codificação e análise que potencializem o aproveitamento das particularidades dos sites de redes sociais.

Leia o artigo em: Pesquisa baseada em Dados Sociais Digitais: mapeamento de ferramentas e táticas de coleta de dados no Intercom.

Big Data: medindo e prevendo o comportamento humano

Em 20 de abril foi lançado o curso online massivo e aberto (MOOC: massive online open course) “Big Data: measuring and predicting human behaviour“. Possui a duração de 9 semanas e pode ser iniciado em qualquer momento até a última semana. Ou seja: corra pra fazer, que dá tempo!

Na primeira semana do curso, os professores se dedicam a apresentar o que é big data, especialmente em torno de um projeto desenvolvido pelos próprios professores do curso fazem parte. Suzy Moat e Tobias Preis falam sobre o Future Orientation Index, índice criado para identificar o quanto a população de determinado país se preocupa/planeja/pensa sobre o futuro. O mais interessante deste índice é que ele utiliza basicamente dados do Google Trends. Para cada país analisado (todos com 5mi ou mais de usuários de internet), os pesquisadores extraíram o volume de buscas pelos anos anteriores e anos futuros. O índice calcula se a população está mais voltada ao futuro ou ao passado em suas buscas. O gráfico da direita abaixo mostra considerável correlação entre o índice e o GDP per capita (Gross Domestic Product per capita, ou PIB per capita):

future orientation index

Tela de “Quantifying the Advantage of Looking Forward”, por Preis, Moat, Stanley e Bishop

Na segunda semana, o tema é “Medindo e Prevendo Comportamentos com Big Data”. São vários vídeos realizados pelos dois professores e por outros pesquisadores convidados mostrando seus projtos sobre mecanismos de busca, tecnologias vestíveis e cidades inteligentes. Merece destaque um projeto que me surpreendeu. Paul Lukowics, da DFKI/TU Kaiserslautern, mostra o “Magic Collar”, que tem o objetivo de conseguir medir classes de alimentos sendo engolidos através do som realizado na deglutição.
the magic collar

Nesta semana começam os exercícios práticos, que ensinarão coletas e processamentos simples de dados com o R e R-Studio. Da segunda à sexta semana, são apresentados passos simples de como redigir script para coletar dados históricos de visualização de páginas na Wikipedia. Tudo é realizado extraindo dados de forma organizada do stats.grok.se. Já conhecia e usava o website, mas a criação do script no R expande e aprofunda as possibilidades.

stats wikipedia

O mercado financeiro é o tema da terceira semana. Os professores e entrevistados da semana mostram exemplos de estudos que relacionam atividades online de busca de informação, como visitas à Wikipedia e busca no Google, como correlacionados a atividades no mercado financeiro. O gráfico abaixo, tela de aula do Tobias Preis, mostra estudo que compara a busca pelos termos Lehman Brothers e Financial Crisis com o índice S&P 500 em torno da crise de 2008.

big data - university of warwick - mercado financeiro

A quarta semana traz estudos sobre big data, crime e conflito. São aplicações em redução e prevenção de criminalidade, sobretudo a partir da compreensão das dinâmicas de ocorrências nas cidades. Um bom projeto é realizado por Toby Davies, da University College London, que utilizou métricas como intermediaridade de rede para analisar a disseminação de ocorrências.

intermediaridade - big data - crime nas cidades

Mas de particular interesse para os brasileiros é o estudo liderado por Neil Johnson, do Complex Systems Initiative at the University of Miami (oh, a ironia). Johnson procurou descobrir uma fonte de dados que pudesse ajudar a prever o tamanho dos protestos realizados em 2013 no Brasil. O pesquisador explica as dinâmicas encontradas e como se surpreendeu que este dado foi a atividade e crescimento em páginas do Facebook dedicadas à política e protestos.

big data - neil johnson

Durante todo o curso, há atividades específicas de comentários e discussão. A cada semana, os professores e a assistente, Chanuki Seresinhe, publicam um novo vídeo “round-up” para resumir a semana anterior e comentar dúvidas e colaborações dos alunos nos campos de discussões e comentários. Mas a quinta semana levará tudo isto além, incluindo uma seção de Twitter Chat em torno da hashtag #FLBigData. Já há bastante debate e colaborações, como você pode ver no widget abaixo, mas no dia 21 de maio, entre 1-2PM Uk Time (entre 10h-11h da manhã aqui na faixa de horário de Brasília), Suzy e Tobias participarão ao vivo da conversa.


Uso do big data para saúde é o tema da interessante sexta semana. O caso mais curioso é o da história da predição efetiva de tendências de gripe através de buscas no Google e a posterior falha do mecanismo em 2013, causada por mudanças no comportamento dos indivíduos.

Detecting flu infections with Google searchesfacebook likes como preditores de atributos

A sétima semana vai tratar de felicidade! Há projetos baseados tanto em quantified self através de smartphones quanto do que as pessoas falam em Facebook e Twitter, através da identificação de marcadores linguísticos sobre afetividade, positividade e negatividade. Os estudos experimentais realizados pelo Facebook sobre difusão de estados emocionais e sobre predição de atributos através de likes (já escrevi sobre, aqui no blog), também são apresentados.

Nesta semana começa também a série de exercícios no R de redação de scripts para coletar e cruzar os mesmos dados que serviram de base para a criação do Future Orientation Index pelos professores do curso. Os dados de busca, obtidos através do Google Trends, serão cruzados com os dados do CIA World Factbook  nos exercícios.

Tratando de mobilidade e desastres, as aulas da oitava semana mostram como smartphones, Flickr e mapas colaborativos tem ajudado pessoas em situações de calamidades naturais. A tela abaixo mostra a correlação entre número de fotografias com hashtags selecionadas referentes ao furacão Sandy e a medição de uma variável ambiental: pressão atmosférica. O número de fotos esteve correlacionado à força do furacão.

Furacão Sandy - Flickr - Pressão Atmosférica - Big Data

Por fim, a nona semana é dedicada especialmente à reflexão e discussão do que foi aprendido. Um dos vídeos da última semana trata de como contar histórias com dados. Apresentado por Adrian Letchford, também da Warwick Business School, discorre sobre o processo de descoberta enquanto conta uma interessante história pessoal. Como exemplo, traz visualizações como a exibida abaixo, que comparou termos de busca em estados dos EUA com maior e menor taxa de natalidade.

Telling stories with data

Imagino que alguns destes poucos exemplos já devem ter despertado o interesse, não? Então cadastre-se em https://www.futurelearn.com/courses/big-data e participe!

Mudanças no monitoramento de Facebook: prepare-se!

Neste primeiro de maio, ironicamente, o Facebook passou a “dificultar” o trabalho dos profissionais da querida área de monitoramento de mídias sociais. Nesta data passaram a valer as novas regras das APIs do Facebook. O principal impacto para o mercado de monitoramento de mídias sociais é que nenhuma ferramenta, nem usuário, poderá fazer coleta de dados brutos a partir de pesquisa de termos. Isto significa que não teremos mais acesso ao texto bruto ou ao perfil dos usuários (nem sequer  nome e avatar!) de quem mencionar as marcas em suas timelines (fora de páginas e grupos).  Somente será possível coletar alguns indicadores e quantificações já processadas, como: número de menções a marcas; número de menções a termos; número de menções a atributos de um produto/serviço; distribuição demográfica de quem fala sobre cada termo buscado; circulação de links etc.

Ilustrando de forma muito simples abaixo: se antes tínhamos acesso a todo o texto, link e avatar do usuário (na esquerda), agora cada post virará “apenas” um número nos gráficos:facebook monitoramento - antes e depois

Os impactos negativos desta mudança são os mais óbvios e imediatos. Em primeiro lugar, as marcas que tentavam descobrir problemas específicos de consumidores individuais através do monitoramento de postagens públicas não poderão mais fazê-lo. Agências e consultorias de pesquisa que realizavam estudos qualitativos baseados no comportamento discursivo/expressivo de usuários não poderão mais fazer isto no Facebook (neste caso há algumas alternativas, mas de menor escala – e assunto pra outro post). Ações de engajamento que envolviam a participação ativa dos usuários em seus próprios perfis também minguarão, pois não será possível monitorar as menções para reportar resultados. Tudo isto traz impactos óbvios para os modelos de serviços e receita de agências e ferramentas.

Mas chorar pelo leite derramado não ajuda. Então vamos aproveitar o que for possível, dadas as condições. Segue uma lista de materiais comentados que pode ajudar muito neste momento de disrupção.

Pra começo de conversa, gostaria de indicar três textos de profissionais que admiro e trabalham com monitoramento há tanto (ou mais) tempo que eu: o Roberto Cassano publicou no Medium da Frog o post “A Era Negra do Monitoramento“, o Eduardo Vasques da TV1 o texto “A Crise do Monitoramento” e o Gabriel Ishida da dp6 com o texto “Sobre a API do Facebook e o seu Topic Data“. Apesar de achar os títulos dos dois primeiros textos prejudiciais, pois tem muita gente que não lê ou se informa com atenção e podem criar um clima apocalíptico, são observações e comentários essenciais. Como comenta o Cassano, ” é preciso desenvolver uma estratégia e uma metodologia, que use ferramentas para se alcançar os objetivos reconhecendo e explorando as enormes limitações e desafios impostos pelas novas plataformas e por uma maior maturidade do próprio consumidor, cada vez mais ciente da (correta) necessidade de preservar sua privacidade.” E, nas palavras do Vasques, é hora de: “Abrir novas frentes de interação e estimular ainda mais o diálogo para que os públicos se manifestem nesses ambientes aos quais as marcas têm acesso. Ou seja, é hora de se abrir para novos aprendizados.”

O Ishida, pragmático desde o título, lembra da importância de se profissionalizar de verdade o trabalho em mídias sociais em todas suas esferas:

Não duvido nada que, daqui um tempo, algumas pessoas chegarão perguntando: alguém conhece uma ferramenta de graça que pegue esses dados do Facebook? E ainda por cima vão xingar o Facebook por ter limitado os dados desse jeito. Se você quer dados legais, bem agregados, organizados, não só no Facebook, mas em todas as outras redes, você tem que pagar por uma ferramenta. Social media não é de graça, como ainda muita gente pensa. Há um trabalho sério por trás de tudo.

Antes de ir para as dicas técnicas, gostaria de lembrar da importância de se pensar a atuação neste mercado não só em termos da receita que você vai ganhar hoje com uma plataforma específica. Mas também em termos de saúde da internet como um todo. O modelo de negócio do Facebook , ao contrário de empresas como Google e Twitter, não se baseia na livre circulação de informações na internet, mas sim na construção de barreiras para que tudo fique dentro do Facebook. Não é à toa que Tim Berners-Lee, um dos inventores da web, alertou sobre o perigo que o Facebook traz aos princípios da internet.

eartquakeAno passado, nos 10 anos do Facebook, escrevi como o Facebook se tornou um “ponto obrigatório de passagem“, um nível de centralização de poder muito perigoso. Para comparar, recomendo o texto, também de minha autoria “250 milhões de motivos para defender o Twitter“. Para uma visão mais ligada à pesquisa acadêmica, leia o excelente texto “The redistribution of methods: on intervention in digital social research, broadly conceived” da Noortje Marres. De 2012, discute como a abundância de dados sociais hoje traz novas oportunidades e desafios para a construção de conhecimento, especialmente para a pesquisa acadêmica. Um dos motivos é a centralização destes dados em corporações como Facebook e Google. Três anos depois, o Facebook piorou bastante a situação para todos.

Então vamos falar de como se preparar para o novo modelo de monitoramento no Facebook. Em primeiro lugar, uma pequena revisão de como vai funcionar. Como falamos acima, o Facebook não entregará os dados brutos para nenhuma ferramenta. Nem sequer para a Datasift, fornecedora de dados (que ferramentas como o BrandCare contratam). A Datasift vai ser a intermediária para aplicação das regras nos dados, através de sistemas como Biblioteca de ClassifiersModelos Baseados em RegrasMachine Learning Models. Abaixo um esqueminha utlizado pela Datasift em suas apresentações:

datasift - topic data - classifiers

Um detalhe importante de mencionar é que este processamento de dados não acontecerá nem sequer nos servidores da Datasift. Mas dentro dos servidores do Facebook. E, ao contrário do Twitter, não oferecerão a possibilidade de coleta de dados retroativos (por exemplo, no BrandCare podemos coletar tweets desde 2006).

O problema (e oportunidade) destas três lógicas é que a análise de sentimento ou classificação automatizada são, como todos sabem, algo muito complexo. E consideravelmente imprecisa. Abaixo temos um exemplo de configuração na interface da Datasift. Em bom português, uma das linhas significa que textos sobre estas marcas automotivas sendo monitoradas que contenham as palavras “recall, fault, broke down ou broken” serão marcadas com o código de Feature(Característica/Aspecto) chamado Reliability (Confiabilidade).

datasift presentation- rules

Em ferramentas de monitoramento como o BrandCare, transformamos o estabelecimento de regras para uma forma bem simples como na tela abaixo. Ou seja, para o usuário final o estabelecimento de regras simples como estas é algo bem fácil como na tela abaixo. No exemplo, esta série de palavras como “barato” e “caro” são ligadas a um atributo: neste caso o aspecto “Preço”.

brandcare - dashboard e commerce - regras

Isto significa que quanto às regras, parte das práticas que serão feitas com a mudança de dados no Facebook já são realizadas em alguns projetos de monitoramento. No caso acima, esta e diversas outras regras são transformadas em gráficos com indicadores sobre as marcas monitoradas. Exemplificando, uma série de regras e parâmetros customizados são enviados para o Facebook e ele retorna dados que serão transformados pelas ferramentas em gráficos. É como acontece quando se usa regras normalmente. No exemplo abaixo, uma série de regras vira gráfico de Temáticas, Sentimento, Palavras Negativas etc.

da regra ao dado

Mas há um grande ponto que, na minha opinião, é um dos mais problemáticos nesta mudança. Quem trabalha bem com regras de processamento de texto/linguagem natural, melhora continuamente as informações ao conferir, em amostras dos textos, se tais regras resultaram em aplicações adequadas de códigos, tags e sentimento. Mas isto não será possível mais com o Facebook. Você não poderá conferir nos próprios dados se aquelas 200 regras adicionadas que processam 4000 keywords para gerar 40 tags diferentes estão 100% precisas. Para fazer isto, será preciso recorrer a uma compreensão ampla das dinâmicas de conversação, além de trabalhar com modelagem e testes utilizando outros parâmetros textuais para se aplicar aos textos do Facebook.

Neste momento, monitoramento e pesquisa digitais que englobem o Facebook se aproximam ainda mais da pesquisa acadêmica e de áreas que envolvam a compreensão profunda das estruturas linguísticas e discursivas, além da organização da informação. Áreas como linguística de corpus, sociolinguística, text analytics, computação social, NL (processamento natural da linguagem) tornam-se mais importantes. Como o Facebook vai deixar parte do trabalho “às cegas”, é importante ter o máximo de domínio destas técnicas em grande escala (big data) para que os dados sejam o mais precisos possíveis e as estratégias e táticas resultantes deem resultado.

Para começar, recomendo revisitar as estratégias de criação de Categorias e Tags em projetos de monitoramento de mídias sociais. Em whitepaper que escrevi na Social Figures, descrevo três táticas básicas para gerar as categorias e tags: decompor o produto/serviço; responder demanda de informação do cliente; e descobrir informações emergentes nas mídias sociais.  A materialização destas táticas em listas de códigos/tags organizados é o primeiro passo para criação das regras e sistemas de processamento em seguida.

decompor responder descobrir

Quanto a linguística de corpus, o Tom McEnery é um dos principais estudiosos do tema na atualidade e lançou um curso online na FutureLearn chamado “Corpus linguistics: method, analysis, interpretation“. Compreender as mecânicas da língua e como tem sido estudadas ao longo das décadas pela linguística de corpus é um passo essencial para aplicar heurísticas e proxies de dados para descobrir informações. O McEnery também possui um livro básico sobre o tema chamado “Corpus Linguistics: Method, Theory and Practice“.

discourse and social mediaFocada em mídias sociais, a Michele Zappavigna estudou um corpus de 7 milhões de tweets totalizando 100 milhões de palavras. A pesquisadora australiana publicou um livro com os resultados, chamado “Discourse of Twitter and Social Media: How We Use Language to Create Affiliation on the Web”, que já resenhei aqui no blog. É útil neste momento especialmente por três motivos. O primeiro é para que todos lembrem o quanto o Twitter é maleável e amigável a pesquisas e geração de informações de todos os tipos. O segundo é que a classificação que a Zappavigna aplica em marcadores de Julgamento, Afeto e Apreciação são úteis para a criação de regras que tragam dados além somente de aspectos e sentimentos. Por fim, Twitter e Blogs servirão aos bons e cuidadosos profissionais que desejarem criar modelagens e testes das regras em textos reais e atuais antes de aplicar ao monitoramento também do Facebook. Tenho uma proposta de palestra no SMW sobre o tema (vote, se interessar a você).

Além das regras e dos classifiers já prontos, outra possibilidade será aplicar machine learning nos textos. Ainda não está perfeitamente claro como funcionará, mas isto não significa que se deve ficar de braços cruzados. A aplicação mais frequente de aprendizado de máquina em texto natural é a modelagem de tópicos. De modo bem geral, é uma técnica que identifica, em uma lista/corpus de textos, os tópicos a partir da frequência, ausência e diferença de palavras-chaves. Temos cerca de 20 anos de estudos nesta área, sendo hoje o modelo mais comum o LDA – Latent Dirichlet allocation.

IntroToLDA

topic modeling

Como é frequente em se tratando de pesquisa acadêmica, há ferramentas gratuitas que ajudam neste processo. Criada por David Newman e Arun Balagopalan, é uma materialização simples do LDA que, a partir de inputs em CSV/TXT permite identificar os “tópicos” em uma série de textos. Ferramentas do tipo, associadas ao conhecimento de monitoramento de mídias sociais, ajudam no processo de inferir termos que possam ser significativos a temas e tópicos no Facebook, mesmo estando parcialmente “às cegas”.

Outra fonte essencial de informação e aprendizado para os analistas neste momento é o projeto Tapor. O Text Analysis Portal for Research é uma iniciativa de professores de algumas das principais universidades do Canadá e reúne quase 500 ferramentas para text analysis. São inúmeras possibilidades de processar, explorar e visualizar dados a partir de text analytics. Grande parte destas visualizações não serão possíveis devido às novas restrições do Facebook. Mas em parte delas tente imaginar: como eu posso fazer sistemas de queries que me permitam trazer dados tão ricos?

tapor

Sempre importante lembrar que a limitação que o Facebook impôs está na busca. Ou seja, ainda é possível coletar dados de Facebook Pages, incluindo os comentários. O mesmo no caso dos Grupos. Abaixo, um exemplo de estudo de benchmarking baseado em tipos de conteúdo publicados por marcas do segmento de fast fashion:

facebook pages

O cruzamento da construção de corpora tanto de textos antigos do Facebook quanto de texto atual de outras mídias sociais, modelagem de tópicos e compreensão das estruturas linguísticas das conversas e opiniões será essencial para os analistas de dados. Mas tudo isto, claro, pode ser aplicado nas diversas mídias sociais e fontes de dados textuais. O que não pode continuar é o crescente fechamento da internet no Facebook. Sempre defendi a necessidade de criação de ambientes proprietários para as marcas ou organizações. Agora, mais do que nunca, isto se torna essencial.

Além disto, é importante lembrar que é possível extrair ainda mais dados dos outros canais como Twitter, Blogs, Instagram, Google+, Fóruns, Websites de modo geral, Google Trends, Wikipedia etc. Existem inúmeras metodologias e técnicas de geração de informações, provenientes da história das ciências sociais e computacionais, que podem ser aplicadas para gerar mais e mais insights. A Análise de Redes Sociais, por exemplo, era utilizada por uma pequena parcela de profissionais através de programas como NodeXL e Gephi. Ano passado, tive a oportunidade de integrá-la com o BrandCare, permitindo a escalabilidade destas aplicações para nossos clientes, com excelente resultado. E é um tipo de metodologia que é favorecida especialmente pela estrutura de dados e conversas no Twitter. 

nsmnss - completa

Parte da rede da hashtag #NSMNSS

Em resumo, não é o fim ou a crise do monitoramento para fins comerciais. As mudanças que o Facebook impôs vão impactar alguns tipos de projetos, mas não é o fim do mundo. Bons profissionais, agências, ferramentas e afins continuarão a realizar um bom trabalho. Mas, acima de tudo, que isto sirva de lição para lembrarmos que a internet é uma ferramenta poderosa demais para ser tomada por modelos de negócio centralizadores.