DICAS SEO

SEO EMPRESAS | SEO | SEM | SITES | BLOGS | REDES SOCIAIS

DICAS E FERRAMENTAS SEO

 

No mundo real, as coisas dão errado. E apesar de desejarmos que tudo que já consertamos uma vez, fique consertado para sempre, isso raramente acontece. 

As coisas que antes não eram um problema, podem se tornar um rapidamente e por vários motivos: 

  • Alguém muda alguma coisa que não tem nada a ver diretamente com você, ou sem perceber que isso o atingiria, ou apenas faz besteira (por exemplo, implementa uma versão de teste do robots.txt ou uma versão antiga de uma configuração do servidor);
  • O mundo muda ao seu redor (uma atualização do Google foi nomeada em homenagem a um animal preto e branco pouco tempo atrás);
  • Os gremlins técnicos se juntam contra você (downtime do servidor, DDoS etc).
Em todos esses casos, é melhor saber do problema mais cedo, do que mais tarde; porque normalmente, sua capacidade de minimizar os efeitos diminuem rapidamente com o passar do tempo (e para os outros casos, você ainda quer saber o que está acontecendo antes do seu chefe/ cliente).
Apesar de sabermos que deveríamos fazer recomendações nessas áreas, ainda estamos criando conselhos inúteis, como: “certifique-se de que você tenha um ótimo uptime”, ou “certifique-se que seu site seja rápido”.
Hoje, quero dar três conselhos práticos e que você pode começar a executar em seu próprio site, ou com seus clientes.  Eles ta ajudarão a encontrar os problemas o mais rápido possível, a evitar sérios problemas de indexação e a ser rapidamente alertado sobre implementações ruins, que podem prejudicar o seu desempenho de busca. 

1. Quedas de tráfego

O Google Analytics tem um recurso que mostra mudanças significativas no tráfego, ou em seu perfil. Ele também pode te alertar. O primeiro desses recursos é chamado “intelligence” e o segundo “intelligence alerts”.
Ao invés de recriar um conselho antigo, irei apenas linkar para dois dos melhores posts que li sobre o assunto:
Esta é a mais simples de todas as recomendações e também a mais holística – no sentido de que pode te alertar para qualquer tipo de queda no tráfego. O lado negativo, é claro, é que você está medindo sintomas e não causas. Dessa forma, vai ter que analisar as causas, para poder descobrir o problema e tentar resolvê-lo, ao invés de preveni-lo.

2. Monitoramento de uptime 

Não precisamos de um super cientista para perceber que o SEO depende do seu site. E não só em como você otimiza seu site, mas também na sua disponibilidade.
Se não é seu trabalho alertar os maiores clientes que o site está fora do ar, não faz mal fazê-lo. E para os clientes menores, existe uma chance de você agregar um valor significante, ao manter o foco nessas coisas. 
Tenho dois motivos bons e ruins para saber muito sobre monitoramento de servidor: 
  • O bom: fizemos um pequeno investimento no Server Density em maio do ano passado (e conseguimos nosso único link da Techcrunch no processo);
  • O ruim: estamos mais entusiasmados com o portfólio de serviços da nossa empresa do que esperávamos – alguns problemas chatos de servidores resultaram em mais atraso para o distilled.net do que eu gostaria. Para piorar, sofremos um ataque DDoS na semana passada (veja o gráfico de velocidade abaixo);
Existem três principais elementos que você deve monitorar:
  1. Disponibilidade (incluindo o código de resposta);
  2. Carregamento e desempenho de servidor;
  3. Velocidade de resposta / tempo de carregamento da página.
Disponibilidade do website
Existem dois serviços que recomendo aqui:
  • Pingdom é um serviço gratuito que monitora a disponibilidade e o tempo de resposta do seu site;
  • Server Density é um serviço pago que fornece alertas e gráficos mais granulares e os alinham com o monitoramento de desempenho do seu servidor.
É assim que o painel da Server Density é:
    E aqui está o gráfico de tempo de resposta do Pingdom: 
    Você pode ver o aumento no tempo de reposta durante o ataque DDoS e o tempo médio de tempo de resposta nos últimos dias, depois que implementamos o cloudflare.
    A propósito, você pode não ter notado (eu não tinha percebido, até que um amigo me mostrou no outro dia) que o Google transferiu a velocidade do site para todas as contas do analytics sem a mudança anteriormente necessária no fragmento do GA, então você pode conseguir alguns desses dados diretamente da sua conta do GA. Aqui está a parte técnica de algumas páginas do Distilled:

    3. Protocolos de exclusão de robôs, status de códigos 

    Esta foi uma das minhas ideias mais ambiciosas para monitoramento de SEO. Ela surgiu a partir de um problema real de um cliente. Um grande cliente estava lançando um novo site e fez a implementação de uma versão antiga do robots.txt em uma manhã de sábado (integração contínua FTW). Por sorte, o SEO responsável pelo projeto viu isso rapidamente. Ele ligou para o contato chave e reverteu a intalação antes que causasse algum dano. Tivemos uma reunião semana passada onde discutimos como poderíamos nos alertar sobre esse tipo de coisa automaticamente.
    Fui até David Mytton, o fundador do Server Density e perguntei se ele poderia construir alguns recursos para te alertar quando este tipo de coisa acontecer – se nós acidentalmente ativarmos a tag noindex para nenhum bot ver nosso site,ou bloqueá-lo no robots.txt. Ele criou essa solução engenhosa que usa a funcionalidade já presente no cerne de sua plataforma: 
    Monitorando qualquer mudança no robots.txt
    Primeiro, crie um serviço para monitorar o robots.txt – aqui está o nosso:
    Então, crie um alerta que irá te dizer se a hash MD5 dos conteúdos do robots.txt mudar (veja a definição de MD5 aqui):
    Se você copiar e colocar os conteúdos do seu robots.txt em um gerador de MD5 você tem um texto sem sentido (o nosso é “15403cbc6e028c0ec46a5dd9fffb9196”). O que este alerta está fazendo é monitorar qualquer mudança no nosso robots.txt, então se fizermos a implementação de uma nova versão, eu receberei um alerta por email e uma notificação push no meu telefone. Não seria bom receber esse tipo de alerta se um cliente ou time de desenvolvedores fizesse uma atualização no robots.txt sem te avisar?
    Localizando a inclusão de no-index meta tags
    Da mesma maneira, você pode criar alertas para strings específicas de textos encontrados em páginas específicas – eu escolhi receber um alerta se a string “noindex” for encontrada no HTML da homepage da Distilled. Se acontecer de atualizarem a versão do sistema, ou alterarem uma configuração em um plug do WordPress, eu receberei uma notificação push no meu telefone.
    Fazer esse tipo de monitoramente é gratuito para mim, porque já utilizamos o Server Density para monitorar os servidores, então não é nenhum esforço extra monitorar as somas de verificação e a presença, ou não, de strings específicas.

    4. Bonus – por que parar ali?

    Dê uma olhada no que o etsy monitora e para as coisas tem alertas. Se você tiver um time capaz de construir uma plataforma / infraestrutura, então existem coisas ilimitadas que você pode monitorar e alertar. Aqui estão algumas ideias para você começar: 
    • status de códigos – 404 vs 301 vs 302 vs 500 etc;
    • mudanças em taxas de conversão / abandono de carrinho;
    • crawlers de sites de pesquisa – dado o quão interessado eu estava na simples visualização de páginas que foram inspecionadas pelos buscadores disponíveis no cloudflare (veja abaixo – quem teria adivinhado que seríamos mais analisados pelo Yandex do que pelo Google?), acredito que existe muito mais que pode ser feito aqui:
    ***
    Este artigo é uma republicação feita com permissão. SEOMoz não tem qualquer afiliação com este site. O original está em: http://www.seomoz.org/blog/seo-monitoring

    SEO EMPRESAS | FACEBOOK | TWITTER | BLOG | GOOGLE +

    Read more: http://http://seoempresas.zip.net#ixzz1nr4D00QB