Pessoal, estou refazendo um banco de dados e alterando nomes em tabelas e acrescentando tabelas. Acontece que quando vou dar um join no novo banco ele não funciona. Dá esta mensagem: "A seleção atual não contém uma coluna exclusiva". Se eu excluir a coluna id e colocar uma nova até funciona, mas aí perde toda a relação entre as tabelas, pois eu tenho que continuar com os relacionamentos entre o id anterior do usuário na tabela usuário e o id_usuario na tabela destaque (por exemplo). São várias tabelas relacionadas. Eu copiei do banco anterior a estrutura do banco e fiz um select e insert para passar os dados das tabelas do bd anterior para o bd atual. Há outra maneira de fazer isso sem perder a indexação?
Olá amigos, estive pesquisando varios topicos aqui e em outros locais sobre urls amigavel,
Não encontrei o que preciso e também não consegui adaptar.
É assim:
Tenho um site que a url original seria assim: jornadadepodologia.com.br/cursos-detalhes.asp?id_curso=82&curso_nome=ONLINE-PROCEDIMENTOS-PODOLOGICOS-EM-UNHAS-MICOTICAS
consegui montar a url assim: jornadadepodologia.com.br/new/ONLINE-PROCEDIMENTOS-PODOLOGICOS-EM-UNHAS-MICOTICAS-idpllq82
onde o "-idpllq82" é o parametro identificador do curso.
Fiz assim porque eu consigo extrair o ID que é 82 através do SPLIT no ASP.
Gostaria que a url ficasse assim: jornadadepodologia.com.br/ONLINE-PROCEDIMENTOS-PODOLOGICOS-EM-UNHAS-MICOTICAS
mas precisava passar os parametros de "id_curso" para a pagina cursos-detalhes.asp sem aparecer na url, deixando a url como acima.
Alguém pode me ajudar.
Desde já, agradeço pela ajuda.
Tenho feito alguns testes para monitorar o posicionamento do meu site usando o navegador Tor para mascarar a localização de meu IP e ter uma noção do posicionamento site por meio de pesquisas à partir de outras localizações.
O curioso é que, quando uso o Tor, como se estivesse em outros países, meu site aparece quase sempre nas primeiras posições, porém nas pesquisas locais, dentro do país, o posicionamento cai bastante. Alguém saberia explicar por quê? Qual seria o parâmetro usado pelo Google nesse caso?
Achei que fazendo isso teria uma noção melhor da qualidade do SEO do meu site, mas os relatórios do Google search não me posicionam tão bem.
eu tive um problema, essa semana, com URLs que apareceram como "Excluídas" no Search Console. Eu fui pesquisar mais a fundo e acho que talvez eu tenha enviado o robots.txt errado, o que me deixou MUITO preocupada. Caímos em tráfego, várias URLs sumiram do Google e caímos em posições importantes também.
Eu fui na pasta raiz e já exclui o robots.txt. Podem me ajudar e dizer se configurei mesmo erroneamente? Meu arquivo robots.txt tinha as seguintes linhas:
User agent: *
Disallow: blog.geekhunter.com.br/author (páginas de autor)
Disallow: blog.geekhunter.com.br/page (páginas 1,2,3,4 aquelas mais inúteis que ranqueiam)
Sitemap: link para o meu sitemap
------------------------------------------------------------------
Ambos foram enviados no mesmo dia.
Perguntas:
O que posso fazer para tentar resolver isso?
Tenho que subir um novo sitemap ou um novo robots.txt refeito?
Quanto tempo vocês acham que demora para melhorar?
Me ajudem pois estou muito desesperada.
Obrigada desde já :(