Estatísticas atualizadas a cada vez que um usuário acessa as páginas de um site ou aplicativo são fáceis de implementar e muitas vezes se baseia em soluções gratuitas. Mas seus resultados estão condicionados a métodos de análise bem delimitados.
A coleta de dados de acesso diretamente de páginas web é feita, na maioria dos casos, a partir de JavaScript, com a inserção de cookies no browser de cada usuário. Este processo client-side dispensa a aquisição e a instalação de programas e equipamentos no ambiente de hospedagem para a atualização e o arquivamento de dados (embora eventualmente estes sistemas possam ser instalados no servidor que hospeda o website).
De modo geral, a contabilização de acessos no ambiente do usuário funciona assim: O editor ou webmaster se inscreve em um website que fornece o serviço, como Google Analytics, Omniture, Webtrends. Sites como estes oferecem serviços mediante pagamento, outros não. O provedor do serviço disponibiliza os scripts a ser inseridos em cada página ou no sistema de gerenciamento de conteúdo. Quando o usuário acessa uma página do site, o código nela inserido dispara um mecanismo pelo qual uma mensagem é enviada ao serviço que contabiliza as páginas. O serviço recebe a mensagem e a submete a alguns filtros, alimentando grades de dados pré-definidas (para gerar relatórios como horário de acesso, browser, IP, palavras-chave, etc.). O editor ou webmaster do site acessa o serviço e consulta as informações coletadas.
Cada serviço oferece a seus clientes informações, funcionalidades e recursos específicos, que podem gerar relatórios com parâmetros e formatos personalizados, estabelecer referências específicas, baseadas nos objetivos do site, formatar páginas e relatórios de acordo com as necessidades de cada gestor.

Vantagens da coleta de informações de acesso no browser do cliente

Provê dados mais precisos do que o processo realizado no servidor (através de server log), pois, ao contrário deste, permite o rastreamento do uso das ferramentas “Avançar” e “Recuar”, do browser. Os custos de implementação e manutenção são baixos, na medida em que há pouca necessidade de dedicar equipamentos e pessoal especialmente para a tarefa. O acesso das aranhas das ferramentas de busca (web crawlers) não é registrado, ao contrário do que acontece nos relatórios gerados pelo servidor web.

Desvantagens da coleta de informações de acesso no browser do cliente

Como não se baseia no uso de JavaScript, a coleta client-side não permite o rastreamento de dados dos usuários que desabilitam este recurso. A necessidade de inserir cookies no browser dos usuários faz com que esta solução se baseie em referências rígidas sobre as condições de uso, que nem sempre se aplicam, como:

Cada usuário usa apenas um browser, sempre do mesmo fornecedor.

Os usuários sempre habilitam a aceitação de cookies.

Os usuários raramente limpam seus arquivos de cookies no browser.

Cada usuário usa apenas um computador e raramente o atualiza.

Exceções a estas situações podem fazer com que os dados coletados gerem relatórios com alguma imprecisão.  Geram dados apenas quantitativos. Não examinavam aspectos como o perfil sócio-econômico do usuário, por exemplo. No dia a dia, muitas agências de produção e atualização de conteúdo, de marketing de vendas, de publicidade, baseia-se na apuração de page views, focando exclusivamente na avaliação quantitativa da audiência, com a avaliação de server logs e do uso de serviços de analytics. Esse modelo usava ainda como referência as métricas que valiam para os produtos impressos, que qualificavam a satisfação do leitor pela tiragem (quanto maior a tiragem, maior é o valor da publicidade).
No entanto, serviços de avaliação como o da Nielsen-Ibope começam mudar este quadro, tornando-o mais qualitativo: passam a qualificar o leitor com um modelo similar ao dos aparelhos de medição de audiência de TV: montam um painel de audiência com 12 mil usuários, cada um com um programa instalado no seu micro que permite o acompanhamento permanente dos sites visitados. A partir daí, desenham-se perfis socioeconômicos dos usuários de cada site. (2)
A propriedade dos dados não é clara. Embora o cliente possa gerar relatórios em muitos casos no formato que preferir, se resolve migrar de um fornecedor para outro não pode simplesmente levar os dados e apagá-los do fornecedor antigo. Neste caso, os dados de alguma forma pertencem ao provedor do serviço, que pode armazená-los por tempo indeterminado. Este problema pode ser resolvido com a implementação de uma solução client-side em um ambiente de hospedagem exclusivo. Pode-se assim manter a propriedade dos dados, bem como aumentar a personalização dos relatórios. Não facilita a verificação de cliques fraudulentos, causados por mecanismos automatizados, ou bots. Pesquisa realizada pela White Ops divulgada no final de 2014 mostrou que 25% dos cliques em publicidade em vídeos online vêm de bots. Esses robôs foram responsáveis por mais de cinco bilhões de impressões nos sites investigados pela firma especializada em fraudes na web. (1)   Ao adotar a produção de relatórios de acesso no browser do cliente, é importante considerar aspectos como a facilidade de manutenção, a precisão dos dados e a personalização dos relatórios. As características do conteúdo e os objetivos de negócios da organização ajudam a indicar se esta solução é a mais adequada para cada caso. A adoção de uma solução mista pode fazer com que o editor ou webmaster aproveite as vantagens dos dois modelos. (Atualizado em 6.5.2015)  

Referências

2) As mudanças no mercado de mídia (GGN, acesso em 6.5.2015) 1) Estudo: 25% dos cliques em propagandas online são feitos por robôs (Canaltech Corporate, acesso em 16.12.2014) Google Analytics alternatives: Hosted vs. self-hosted solutions, Thom Craver (Search Engine Watch, acesso em 25.1.2012) Web analytics 2.0: Empowering customer centricity (PDF, 7 páginas), Daniel Waisberg e Avinash Kaushik (SEMJ, acesso em 14.8.2010) Livro: Web analitycs desmistified – a marketer’s guide to understand how your website affects your business, de Eric T. Peterson. 2004 Using Google Analytics Dashboards for better insights, Guillaume Bouchard (Search Engine Watch, acesso em 21.6.2012)