Técnicas SEO II - Mostrando a cara na WEB

SeoJoao

Você já terminou de criar seu blog, tudo funcionando redondinho, duas... três dezenas de posts originais bem escritos por você e cadê ele? Cadê esta figura insensível que apesar de todos os seus esforços continua fingindo que você e seu blog não existem. Longe de ser insociável, o robot do Google é um "cara" muito, mas muito, atarefado e que, apesar dos milhões de clones, demora algum tempo para indexar os novos conteúdos da rede. Mas você pode dar uma ajudinha a ele e neste post vai ficar sabendo como.

2. Mostrando a cara na WEB.

2.1 Dizendo para o Google que seu site existe.

É fato de que o Google não é o único buscador da rede, mas pode ter certeza que se ele indexar o seu conteúdo todos os outros assim farão. Portanto a primeira coisa que você tem a fazer é contar a ele sobre a existência de seu blog. Como? Adicionando a url do site na base de pesquisa do mesmo. Note que são apenas dois campos a serem preenchidos: a url do seu site e as palavras-chave que descrevem o conteúdo do seu blog.

No primeiro campo você já deve ter se decidido se vai querer usar o www ou não no domínio (http://furico.com.br ou http://www.furico.com.br). Não existem nem prós e nem contras pelo uso de um ou do outro, mas o uso de ambos deve ser evitado a todo custo como explicarei em um capítulo futuro.

Já no segundo campo -Comentários- você deve preencher com a descrição do blog -a mesma usada na meta description- ou com as palavras-chave -as mesmas usadas na meta keywords-.

Primeiro passo concluído. Agora é só esperar -sentado- que de 20 a 30 dias o robot do google deve visitar o seu site, ainda sem a garantia da indexação de seu conteúdo. Não desanime, este primeiro passo é necessário para que obtenha êxito nos próximos.

Se por acaso você tiver dinheiro sobrando você pode abreviar algumas etapas fazendo o cadastro diretamente como empresa neste outro link. Mas conhecendo a "dureza" dos blogueiros nem vou me aprofundar no assunto.

2.2 Configurando o arquivo robots.txt

Segundo descrição da Wikipédia, os robots são aplicativos que percorrem a internet em busca de conteúdo com o objetivo de indexá-lo e de verificar alterações ocorridas desde a sua última visita. Para controlar as atividades desses robots durante as buscas, os webmasters podem criar um arquivo chamado robots.txt no diretório raiz de um determinado endereço web, que permite controlar (quase) todos os robots dos motores de busca da Internet, permitindo ou bloqueando o acesso a partes ou à totalidade de um determinado site.

Nem todo o conteúdo de um site deve ser indexado pelos robots. Você pode, por exemplo, proibir que eles indexem páginas de login, páginas de cadastro, etc. Ou simplesmente você pode desejar que não indexem o seu conteúdo. Em suma, o robots.txt controla qual informação de um site deve ou não deve ser indexado pelos buscadores. A sintaxe de utilização do arquivo é bem simples, como mostrado a seguir.

2.2.1 User-agent

A função deste comando é apenas dizer quais os robots devem seguir as regras indicadas no arquivo. Supondo que você deseje apenas que o mecanismo de busca do Google siga as definições internas do arquivo robots.txt, então o User-agent deve assim ser indicado com : User-agent: Googlebot. Exemplos:

  • Google - User-agent: Googlebot
  • Yahoo - User-agent: Slurp
  • MSN - User-agent: msnbot
  • Todos os mecanismos - User-agent: *.

2.2.2 Disallow

Este comando diz aos mecanismos de busca qual diretório ou página não pode ter seu conteúdo indexado. Exemplos:

  • * Disallow: /imagens - diz ao robot para não indexar o conteúdo do diretório /imagens
  • * Disallow: login.php - diz ao robot para não indexar a página login.php
  • * Disallow: cadastro.html - diz ao robot para não indexar a página cadastro.html

Conforme vimos, não deverá resultar um grande problema configurar um bom arquivo robots.txt e ainda que você tenha alguma dificuldade poderá usar os diversos scripts geradores de robots.txt encontrados pela rede.

2.3 Construindo um Sitemaps para o seu blog

Muitos webmasters não sabem, mas a forma mais efetiva, fácil e rápida de informar sobre seu conteúdo para os mecanismos de pesquisa é usando um sitemap. Um Sitemap nada mais é que um padrão simples de arquivo XML que relaciona todas as URLs de um blog junto com seus dados adicionais (quando foi atualizado, com que frequência é alterado e qual a sua importância em relação as outras URLs do site) permitindo aos buscadores indexar de forma mais funcional e inteligente.

A utilização deste protocolo de Sitemap não irá garantir que todas as suas páginas sejam incluídas nos buscadores, mas são preferidas por eles por fornecer dados que podem ser mais facilmente interpretados na indexação do seu blog. Só como exemplo cito o NDig que com pouco mais de duas semanas de existência já tem todos os seus 120 tópicos indexados e já rumamos para o topo do nome, o que em geral demora mais de 3 meses para acontecer.

2.3.1 Código básico de um sitemap:

O arquivo sitemap.xml é um arquivo que pode ser gerado automaticamente por um plugin (todos CMSs tem um) ou até mesmo pode ser escrito à mão pelo webmaster. O seu código básico é:

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>http://www.ofurico.com.br/</loc>
<lastmod>2010-30-01</lastmod>
<changefreq>monthly</changefreq>
<priority>0.8</priority>
</url>
</urlset>


As tags que podem ser inseridas no sitemap.xml são essas:

Atributo Descrição
<urlset>obrigatórioExecuta o encapsulamento do arquivo e faz referência ao padrão de protocolo atual.
<url>obrigatórioTag pai de cada entrada de URL. O restante das tags são as tags filhas dessa tag.
<loc>obrigatórioURL da página. Esse URL deve começar com um protocolo (como http) e terminar com uma barra final, caso seja exigido pelo seu servidor. Esse valor deve conter menos
de 2.048 caracteres.
<lastmod>opcionalA data da última modificação do arquivo. Essa data deve estar no formato dedata e hora do W3C. Esse formato permite omitir o horário, se desejar, e usar AAAA-MM-DD.

Lembre-se de que esta tag é separada do cabeçalho If-Modified-Since (304) que o servidor pode retornar, e os mecanismos de pesquisa podem usar as informações de ambas as fontes de forma diferente.

<changefreq>opcionalA frequência com que a página é alterada. Esse valor fornece informações gerais para os mecanismos de pesquisa e pode ser que ele não corresponda exatamente à freqüência de indexação da página. Os valores válidos são:
  • always
  • hourly
  • daily
  • weekly
  • monthly
  • anual
  • never
O valor "always" deve ser usado para descrever os documentos que sempre são alterados quando acessados. O valor "never" deve ser usado para descrever os URLs arquivados. Observe que o valor dessa tag é considerado uma dica e não um comando. Mesmo que os indexadores de mecanismo de pesquisa possam considerar essas informações ao tomar decisões, pode ser que indexem as páginas marcadas como "horárias" com menos freqüência do que isso e talvez façam a indexação de páginas marcadas como "anualmente" com mais freqüência do que isso. Os indexadores podem indexar páginas marcadas como "nunca" periodicamente, para que possam lidar com alterações inesperadas
nessas páginas.
<priority>opcionalA prioridade desse URL em relação a outros URLs do mesmo site. Os valores válidos vão de 0.0 a 1.0. Esse valor não afeta o modo como as páginas são comparadas às páginas em outros sites — apenas permite que os mecanismos de pesquisa saibam quais páginas você considera mais importantes para os indexadores.

A prioridade padrão de uma página é 0,5.
Observe que não é provável que a prioridade atribuída a uma página influencie a posição dos URLs nas páginas de resultados de um mecanismo de pesquisa. Os mecanismos de pesquisa podem usar essas informações quando selecionam entre URLs no mesmo site. Use essa tag para aumentar a probabilidade de a maioria das páginas importantes estarem presentes em um índice de pesquisa.

Além disso, observe que a atribuição de uma prioridade alta a todos os URLs no site provavelmente não o ajudará. Como a prioridade é relativa, ela só é usada para priorizar os URLs do seu site.

Tabela retirada do sitemaps.org

Como dito anteriormente, ter um sitemap.xml não garante que uma URL seja ou não mais indexada que as outras, mas é altamente recomendável que você utilize este protocolo para que os buscadores fiquem mais informados sobre os endereços do seu blog.

Se você não utiliza nenhum plugin e não sabe como gerar um sitemap manual ou automaticamente, poderá utilizar os diversos serviços criadores de sitemaps existentes na rede, com destaque para o xml-sitemaps.com.

2.3.2 Como informar os buscadores da existência do seu sitemap.xml.

Há duas maneiras para informar aos mecanismos de busca que seu sitemap.xml está atualizado:

  • Enviando o Sitemap por meio da interface de mecanismo de pesquisa;
  • Especificando a localização do Sitemap no seu arquivo robots.txt (não recomendado)

Especificar a localização via robots.txt não é a melhor medida evidentemente porque o robot deverá visitar o seu blog anteriormente. Para indicar o sitemap.xml pelo robots.txt basta acrescentar essa linha ao arquivo: Sitemap: sitemap.xml

O Sitemap é amplamente empregado e conta com suporte de todos os maiores buscadores. Para enviar o seu sitemap.xml por meio da interface de pesquisa você pode usar os seguintes endereços:

  • Ask: http://submissions.ask.com/ping?sitemap=http://www.ofurico.com.br/sitemap.xml
  • Bing: http://www.bing.com/webmaster/ping.aspx?siteMap=http://www.ofurico.com.br/sitemap.xml
  • Google: http://www.google.com/webmasters/sitemaps/ping?sitemap=http://www.ofurico.com.br/sitemap.xml
  • Yahoo: http://search.yahooapis.com/SiteExplorerService/V1/updateNotification?appid=YahooDemo&url=http://www.ofurico.com.br/sitemap.xml

Todos os mecanismos citados acima tem uma interface de acompanhamento do progresso de seu sitemap, mas o melhor de todos é o do Google. Você necessitará uma conta no Google para acessar estas informações. Se você já tem outra conta, como gmail por exemplo, basta habilitá-la para que possa acompanhar todo o processo no Google Webmaster Tools. Você pode também incluir o seu arquivo de sitemap por meio de uma solicitação HTTP enviando uma solicitação para o seguinte endereço: https://www.google.com/webmasters/sitemaps/sitestatus?hl=pt-BR.

A melhor forma de pingar os mecanismos citados é adaptar o código ao script de seu blog. Por exemplo: a cada novo post, o NDig pinga os supra endereços citados para dizer que o sitemap foi atualizado. Dessa forma o mecanismo de busca fica sabendo quase que em tempo real da atualização do seu blog.


Notícias relacionadas:

 

Comentários

Anderson, logo depois de atualizar ou criar um novo artigo o script do site dispara o ping: http : / / www . google . com / webmasters / sitemaps / ping?sitemap = endereco_do_seu_sitemap (sem os espaços)

Como assim que o seu blog pinga os supra endereços citados para avisar ao sitemap foi atualizado?

lo que yo queria, gracias

Viu ?
Por isso tô curtindo o NDig...!
Sempre tem informação importante pra passar !!!!
Parabéns, Admin !!!
:-)

Deixe um comentário sobre o artigo