Jump to content

Search the Community

Showing results for tags 'robots.txt'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Q&A Desenvolvimento
    • Perguntas e respostas rápidas
  • Desenvolvimento e Banco de Dados
    • HTML e CSS
    • Java
    • Javascript
    • .NET
    • PHP
    • Python
    • Ruby
    • Mobile
    • Ambientes de Desenvolvimento
    • Arquitetura e Métodos Ágeis
    • Banco de Dados
    • DevOps
    • Desenvolvimento de Games
    • E-Commerce e Pagamentos Online
    • SEO e Otimizações
    • WordPress
    • Algoritmos & Outras Tecnologias
  • Design e Produto
    • Fotografia
    • Photoshop
    • Design de interfaces e UX
    • Edição/Produção de Vídeos
    • Marketing Online
    • Desenho, Ilustração e 3D
  • Entretenimento e uso pessoal
    • Geral
    • Segurança & Malwares
    • Gadgets e wearable
    • Softwares e Apps
    • Entretenimento

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Google+


Hangouts


Skype


Twitter


deviantART


Github


Flickr


LinkedIn


Pinterest


Facebook


Site Pessoal


Localização


Interesses

Found 3 results

  1. penelopevitoria_

    Arquivo Robots.txt enviado errado

    Pessoal, eu tive um problema, essa semana, com URLs que apareceram como "Excluídas" no Search Console. Eu fui pesquisar mais a fundo e acho que talvez eu tenha enviado o robots.txt errado, o que me deixou MUITO preocupada. Caímos em tráfego, várias URLs sumiram do Google e caímos em posições importantes também. Eu fui na pasta raiz e já exclui o robots.txt. Podem me ajudar e dizer se configurei mesmo erroneamente? Meu arquivo robots.txt tinha as seguintes linhas: User agent: * Disallow: blog.geekhunter.com.br/author (páginas de autor) Disallow: blog.geekhunter.com.br/page (páginas 1,2,3,4 aquelas mais inúteis que ranqueiam) Sitemap: link para o meu sitemap ------------------------------------------------------------------ Ambos foram enviados no mesmo dia. Perguntas: O que posso fazer para tentar resolver isso? Tenho que subir um novo sitemap ou um novo robots.txt refeito? Quanto tempo vocês acham que demora para melhorar? Me ajudem pois estou muito desesperada. Obrigada desde já :(
  2. Esta é minha primeira experiência neste Fórum. Desculpem-me minha inexperiência. Espero poder contar com a ajuda de vocês. Criei um arquivo robots.txt apenas para deixar claro o meu sitemap.xml e dizer que todas as páginas são permitidas. (Segundo o que li na internet, não seria necessário utilizar um robots.txt, já que todas as pastas são permitidas, porém eu preciso de uma análise do site majestic.com que exige um arquivo robots.txt). Meu arquivo robots.txt está assim (http://casadiasp.com.br/robots.txt): Meu sitemap.xml está em: casadiasp.com.br/sitemap.xml User-agent: * Allow: / Sitemap: http://www.casadiasp.com.br/sitemap.xml Quando utilizo no Google a ferramenta de teste do arquivo robots.txt ele me retorna erro nas duas primeiras linhas (imagem anexo). Gostaria de sabetr o que tem de errado no meu arquivo robots.txt.
  3. Boa tarde amigos , estou tendo problemas com meu arquivo ROBOTS.TXT User-agent: * Allow: User-agent: Googlebot Allow: User-agent: Googlebot-Image Allow: User-agent: Mediapartners-Google Allow: User-agent: Adsbot-Google Allow: Quando testo o robots.txt no search console ele diz que "a busca do robots.txt falhou". Alguém sabe como posso solucionar isso ? Esse problema está interferindo na minha veiculação de anúncios no google adwords!! Grato desde já, abraço a todos!!
×

Important Information

Ao usar o fórum, você concorda com nossos Terms of Use.