Pessoal,
eu tive um problema, essa semana, com URLs que apareceram como "Excluídas" no Search Console. Eu fui pesquisar mais a fundo e acho que talvez eu tenha enviado o robots.txt errado, o que me deixou MUITO preocupada. Caímos em tráfego, várias URLs sumiram do Google e caímos em posições importantes também.
Eu fui na pasta raiz e já exclui o robots.txt. Podem me ajudar e dizer se configurei mesmo erroneamente? Meu arquivo robots.txt tinha as seguintes linhas:
User agent: *
Disallow: blog.geekhunter.com.br/author (páginas de autor)
Disallow: blog.geekhunter.com.br/page (páginas 1,2,3,4 aquelas mais inúteis que ranqueiam)
Sitemap: link para o meu sitemap
------------------------------------------------------------------
Ambos foram enviados no mesmo dia.
Perguntas:
O que posso fazer para tentar resolver isso?
Tenho que subir um novo sitemap ou um novo robots.txt refeito?
Quanto tempo vocês acham que demora para melhorar?
Me ajudem pois estou muito desesperada.
Obrigada desde já :(