como funciona o algoritmo de buscas do Google
Existe um robô chamado Googlebot que fica escaneando a web. Todo o conteúdo produzido na internet pode ser indexado desde que não seja barrado. Para o Googlebot não conseguir encontrar um site existem algumas formas, sendo as mais comuns o arquivo robots.txt e os links nofollow. O arquivo robots.txt é um arquivo que funciona como filtro para os mecanismos de busca na internet permitindo ou não que as páginas de um site sejam indexadas.
Este robô segue links para chegar aos diversos sites espalhados na web. Se não houver nenhum link apontando para o seu site ou se todos estiverem marcados com a tag nofollow o seu site não será indexado. Para agilizar o processo de indexação do seu site no Google você pode utilizar arquivos XML e mostrar para o buscador todas as páginas do seu site.
Quanto mais links existirem apontando para o seu site, maior a relevância dele na web. Isto é utilizado para calcular o tão falado PageRank. Depois de verificada a relevância da página chega a hora dela ser analisada segundo as políticas editoriais do Google.
Google Search Quality
Nesta etapa o Google Search Quality e a equipe antispam revisam e redefinem algoritmos. Mais de 10 mil pesquisadores remotos classificam a qualidade de suas buscas. Também são verificadas as denuncias de spam entre diversas outras analises. Neste momento é que são aplicadas as tão temidas penalidades do Google que podem desde diminuir seu posicionamento nos resultados das buscas como também podem banir sua página fazendo com que ela não apareça mais em nenhum resultado de busca realizado no Google.
Agora que já sabemos como o Google obtém os dados necessários para montar seus resultados vamos ver o que acontece quando um usuário realiza uma pesquisa. Uma das primeiras coisas que o Google faz quando começamos a digitar algo no campo de busca é sugerir palavras chave baseado no