Hipersegmentações de Publicidade na Era Algorítmica: desafio ético para as organizações

A plataformização da web é uma das principais preocupações de alguns pesquisadores e ativistas em torno do mundo. Rapidamente a empolgação recente de pesquisadores de diversas vertentes já parece datada. A crença de que “os meios tradicionais de comunicação passaram a perder espaço para essa nova modalidade intercomunicativa, operacionalizada não mais por proprietários de veículos de comunicação, mas por cidadãos comuns” (MAZZUOLI, p.229) é parcialmente correta, mas fica claro que novas hierarquias foram construídas entre numeratis, indivíduos com uma capacidade maior de análise de dados através de lógicas computacionais (BAKER, 2009).

A internet e as mídias sociais trazem dados sobre aspectos demográficos, sociais e comportamentais dos indivíduos com volume e visibilidade de um modo anteriormente pouco imaginado até na ficção científica. Entretanto, para acessar, processar, visualizar e agir sobre estes dados, são necessárias capacitações tradicionalmente associadas a formações das áreas de Computação, Engenharia, Estatística e Matemática. Em sua maioria, cursos que formam profissionais com pouca ou nenhuma carga de humanidades e ciências sociais, infelizmente. Um dos numerati do Vale do Silício é Christian Rudder, graduado em Matemática e fundador da OkCupid, site de relacionamentos inaugurado em 2004. Rudder publicou em 2014 o livro Dataclysm: Who We Are When We Think No One’s Looking, traduzido para o português no mesmo ano.

A publicação é uma ode ao big data e análise de dados não obstrusivos armazenados sobre indivíduos em seus usos cotidianos de plataformas, websites e apps dos mais diferentes tipos. Além da proeza computacional de processamento e análise de dados de milhões de pessoas, os resultados do livro são um alerta importante: trilhões de pontos de dados sobre relacionamentos, preferências afetivas e sexuais estão disponíveis apenas para um punhado de pessoas, que detêm ou trabalham em departamentos de pesquisa de plataformas como a OkCupid. São dados fechados que apenas o próprio Rudder poderia ter acesso: o livro se baseia em dados proprietários tratados por um matemático empreendedor que deixa diversos padrões científicos e trabalho crítico sobre as informações levantadas de lado. Nenhum pesquisador acadêmico teve ou poderia ter acesso a estes dados brutos.

Assim, mesmo os pesquisadores acadêmicos de ponta criando projetos e visualização na interseção entre sociologia, filosofia e tecnologia digital estão em desvantagem. Em importante artigo sobre métodos quali-quantitativos para estudar traços digitais, Tommaso Venturini e Bruno Latour dizem que “digital mediation spreads out like a giant roll of carbon paper offering the social more data than they ever dreamt of” (VENTURINI & LATOUR, 2010, p.9). A rigor, a mediação digital oferece de fato mais dados do que jamais imaginado, mas crescentemente são concentrados de forma extrema nas bases de dados e grupo de cientistas de empresas como Facebook, Google, Amazon, Apple e Twitter.


Recomendo o trabalho de Scott Galloway e seu livro The Four sobre o tema da concentração de valor, comunicação e poder em Google, Facebook, Apple e Amazon


O conceito de Noortje Marres de “redistribuição dos métodos” é loquaz para este problema. Ao tratar do avanço de empresas comerciais de comunicação no entendimento da sociedade, Marres (2012) explica como isto interfere na relação entre sociedade, mercado, estado e academia. Os exemplos são inúmeros. Mais ainda do que o caso citado anteriormente sobre a OkCupid, empresas como Facebook mantêm departamentos de pesquisa que investigaram temas como: graus de separação entre indivíduos (BACKSTROM et al, 2012); polarização política (BASHKY et al, 2015);  e até mesmo os laços fortalecidos entre amigos de pessoas recém-falecidas (HOBBS & BURKE, 2017). Entretanto, dois casos receberam mais destaque por serem experimentais e intervenientes na realidade: interferência na probabilidade de levar americanos a votar nas eleições; e contágio emocional, alcançado através de ajustes nos algoritmos de forma não-declarada, modificando artificialmente estado emocional de mais de 680 mil pessoas no Facebook (KRAMER et al., 2014).

 

Polêmica recente na esfera político-eleitoral também tem levado representantes das plataformas ao Congresso americano. Ganha destaque sobretudo o uso do sistema de anúncios para distribuir notícias falsas a segmentos hiper-personalizados de eleitores nos EUA, para promover votos em determinados candidatos ou, mesmo, desmotivar qualquer voto de eleitores pouco prováveis[1].


Sobre o tema, o trabalho da Zeynep Tufekci pode ser resumido no TED acima. Traduzi a transcrição aqui no blog.


E quanto às organizações do setor privado, quais impactos e decisões devem ser consideradas? Como as organizações tem lidado com questões éticas sobre uso de plataformas de anúncios hiperssegmentados, automatizáveis e programáticos?

A oferta de sistemas de anúncios hiperssegmentados cresceu de forma incontrolável nos últimos 10 anos graças ao uso intenso de mídias sociais e promoção de visibilidade de características demográficas, preferências culturais e comportamentais. O sistema do Facebook, por exemplo, permite criar anúncios direcionados a pessoas através de: variáveis demográficas clássicas – como idade, gênero, localização; renda e profissões; preferências culturais quanto a músicas, artistas, literatura, extraídas de likes; tipologias de fases da vida e eventos, como divórcio recente, novo emprego, relacionamento à distância; composição familiar; e combinações de todas estas variáveis e muitas outras.

O uso destas segmentações está há poucos cliques de qualquer pessoa ou empresa. No modelo self service basta um cartão de crédito e um anúncio pode ser criado em pouquíssimos minutos. O ecossistema de atores do mercado de audiência e suas divisões claras entre os atores componentes, a saber: Organizações de Mídia; Anunciantes; Agências; Empresas de Mensuração; e Consumidores (NAPOLI, 2003). Esta indefinição de papéis associada a aceleração das decisões em um ambiente veloz e competitivo, mudando, como explica como explica Bueno, “vem alterando drasticamente o perfil tradicional das organizações empresariais. Sobretudo, tem provocado uma mudança profunda no relacionamento entre as corporações e os seus distintos públicos de interesse” (BUENO, 2000, p.50).

O papel das escolhas conscientes de corporações no uso de anúncios online é questionado em casos como o descoberto por pesquisadores que avaliaram diferenças entre anúncios voltados a homens e mulheres no Google. Ao construir um sistema automatizado de coleta de anúncios, que fingia ao sistema do Google ser diferentes homens e mulheres, os pesquisadores compararam o conteúdo patrocinado. Como principal resultado, perceberam que homens recebem muito mais anúncios de vagas de trabalho e serviços de coaching ligados a posições de maior remuneração e prestígio do que mulheres (DATTA, TSCHANTZ & DATTA, 2015). Em reportagem publicada no The Guardian[2], Samuel Gibbs explica que “profiling is inherently discriminatory, as it attempts to treat people differently based on their behaviour and personal information. While that customisation can be useful, showing more relevant ads to users, it can also have negative connotations”.

Não só pesquisadores estão acompanhando onde e como as organizações publicam mensagens e anúncios, mas também ativistas. O grupo Sleeping Giants[3] tem como objetivo “stop racist and sexist media by stopping its ads dollars. Many companies don’t even know it’s happening. It’s time to tell them”. A tática é simples e efetiva: os administradores do perfil e colaboradores podem flagrar anúncio de alguma empresa em sites de fake news de extrema-direta como o Breitbart, tirar print do anúncio e informar, geralmente através de um tweet, que o anúncio está sendo veiculado no site – ou seja, financiado as práticas nocivas e antidemocráticas.

Centenas de empresas responderam alegando não saber que seus anúncios estavam sendo veiculados naqueles sites. Possivelmente é verdade: sistemas de compra de anúncio online oferecem diferentes opções de segmentação para toda a rede de sites cadastrados e a inclusão ou exclusão de websites específicos é um processo manual raramente feito. A Sleeping Giants ainda ensina as empresas e agências dispostas a como retirar os sites das campanhas, diminuindo suas receitas possíveis.

Neste panorama complexo, ainda não há uma clara definição, regulamentação ou auto-regulamentação das grandes empresas sobre como agir quanto a práticas nocivas de uso de algoritmos e automatização nas plataformas de mídia online. O recente trabalho de Wilson (2017) é um dos poucos que problematiza o tema incluindo empresas comerciais, e não apenas governos ou instituições públicas. Quanto a governo, propõe a importância de marcos regulatórios e iniciativas como as pressões da União Européia para declaração de direitos civis sobre os dados, além de promover a pesquisa científica independente sobre inteligência artificial, automação e algoritmos.

No caso de empresas comerciais, reconhece que o grande desafio é que a maximização de lucros afeta as decisões tomadas por órgãos diretivos e departamentos de marketing, mas a atuação ética deve ser buscada. Explicitar o uso de inteligência artificial em mecanismos de interação (como bots e chatbots) é outro terreno que não está definido e práticas devem ser mapeadas. Quanto às próprias plataformas, o desenvolvimento de mecanismos de customização das mensagens recebidas (como opt out de recebimento de anúncios de determinadas empresas) já existe parcialmente e pode ser melhorado.

Adicionamos ainda a importância da compreensão abrangente e distribuída sobre os impactos das tecnologias digitais em tempos de incerteza. As organizações podem e devem incluir em seus planos de formação interna e endomarketing soluções que envolvam também a criação de consciência sobre os impactos das pequenas decisões tomadas na gestão de mídia e comunicação online. Poucos cliques podem ser a diferença entre uma gestão responsável e uma gestão suscetível a crises estrondosas.

 

Referências Bibliográficas

BACKSTROM, Lars et al. Four degrees of separation. In: Proceedings of the 4th Annual ACM Web Science Conference. ACM, 2012. p. 33-42.

BAKER, Stephen. Numerati–Conheça os Numerati. Eles já conhecem você. São Paulo: Saraiva, 2009.

BAKSHY, Eytan; MESSING, Solomon; ADAMIC, Lada A. Exposure to ideologically diverse news and opinion on Facebook. Science, v. 348, n. 6239, p. 1130-1132, 2015.

BUENO, Wilson da Costa. A Comunicação como espelho das culturas empresariais. Comunicação & Inovação, v. 1, n. 1, 2000.

DATTA, Amit; TSCHANTZ, Michael Carl; DATTA, Anupam. Automated experiments on ad privacy settings. Proceedings on Privacy Enhancing Technologies, v. 2015, n. 1, p. 92-112, 2015.

KOSINSKI, Michal; STILLWELL, David; GRAEPEL, Thore. Private traits and attributes are predictable from digital records of human behavior. Proceedings of the National Academy of Sciences, v. 110, n. 15, p. 5802-5805, 2013.

KRAMER, Adam DI; GUILLORY, Jamie E.; HANCOCK, Jeffrey T. Experimental evidence of massive-scale emotional contagion through social networks. Proceedings of the National Academy of Sciences, v. 111, n. 24, p. 8788-8790, 2014.

NAPOLI, Philip M. Audience economics: Media institutions and the audience marketplace. Columbia University Press, 2003.

TUFEKCI, Zeynep. We’re building a dystopia just to make people click on ads. TED. Ideas worth preading. Vídeo e transcrição de palestra. Disponível em https://www.ted.com/talks/zeynep_tufekci_we_re_building_a_dystopia_just_to_make_people_click_on_ads/transcript

WILSON, Dennis G. The Ethics of Automated Behavioral Microtargeting. AI Matters, vol. 3, n.3, 2017.

[1] https://www.theverge.com/2016/10/27/13434246/donald-trump-targeted-dark-facebook-ads-black-voters

[2] https://www.theguardian.com/technology/2015/jul/08/women-less-likely-ads-high-paid-jobs-google-study

[3] https://twitter.com/slpng_giants

 

Como Citar

SILVA, Tarcízio. Hipersegmentações de Publicidade na Era Algorítmica: desafio ético para as organizações. Online, 2017. Acesso em: XX/XX/XXXX. Disponível em: < http://tarciziosilva.com.br/blog/hipersegmentacoes-de-publicidade-na-era-algoritmica-desafio-etico-para-as-organizacoes >