Ir para conteúdo

Arquivado

Este tópico foi arquivado e está fechado para novas respostas.

geektr

como remover

Recommended Posts

Só para avisar..tenho o site cadastrado no webmaster tools e também tenho acesso ao ftp do site...

 

Eu vi em um site um tutorial de como fazer um pedido para remoção de páginas pelo webmaster tools...porém o layout do webmaster tools mudou, daí não achei a opção...

 

se alguem souber se esta opção ainda existe, passa pra mim o caminho fazendo um favor...e também queria saber se é melhor remover pelo webmaster tools (se der), pelas meta tags, ou robots.txt...considerando que parece que o site é visitado a cada +/- 3 semanas e meia pelos bots ( http://forum.imasters.com.br/public/style_emoticons/default/cry.gif )

Compartilhar este post


Link para o post
Compartilhar em outros sites

Também não achei mais a opção.

Porém usando a busca do help encontrei isso

 

Remover com robots.txt

 

 

Como remover o seu site inteiro usando um arquivo robots.txt

 

Você pode usar um arquivo robots.txt para remover o seu site dos mecanismos de pesquisa e evitar que qualquer robô volte a rastreá-lo. É importante observar que se um robô descobrir o seu site por outros meios (por exemplo seguindo um link para o seu URL a partir de outro site), o seu conteúdo ainda poderá ser exibido em nosso índice e em nossos resultados de pesquisa. Para impedir completamente que uma página seja adicionada ao índice do Google, mesmo que outros sites estejam vinculados a ela, use uma meta tag noindex.

 

Para evitar que robôs rastreiem o seu site, coloque o seguinte arquivo robots.txt na raiz do seu servidor:

 

User-agent: *

Disallow: / Para remover o seu site do Google e evitar que o Googlebot volte a rastreá-lo, coloque o seguinte arquivo robots.txt no diretório raiz do seu servidor:

 

User-agent: Googlebot

Disallow: / Cada porta deve ter o seu próprio arquivo robots.txt. Em especial, se publicar o seu conteúdo usando tanto http quanto https, você precisará de um arquivo robots.txt para cada um desses protocolos. Por exemplo, para permitir que o Googlebot faça a indexação de todas as páginas http, mas não das páginas https, use os arquivos robots.txt a seguir.

 

Para o seu protocolo http (http://yourserver.com/robots.txt):

 

User-agent: *

Allow: / Para o protocolo https (https://yourserver.com/robots.txt):

 

User-agent: *

Disallow: /

Compartilhar este post


Link para o post
Compartilhar em outros sites

×

Informação importante

Ao usar o fórum, você concorda com nossos Termos e condições.