FRIHOSTFORUMSSEARCHFAQTOSBLOGSCOMPETITIONS
You are invited to Log in or Register a free Frihost Account!


Evitar conteúdo duplicado com robots.txt





Bobjmp
Estou montando um site e tenho uma dúvida com relação a conteúdo duplicado nos sites de buscas.

Sei que isto pode ser evitado através do robots.txt, mas não sei quais páginas bloquear e nem como fazer. Alguém poderia me ajudar?
Bobjmp
Puts, ninhuém rabe sobre robots?
Related topics
Robots.txt
robots.txt
Robots.txt.... how important is it?
Robots.txt
get to top in SEO ranking
Brett Tabke's robot.txt blog
about robots.txt
Aparecer en el buscador de Google en 3 días.
How to prepare a "robots.txt" to get crawled by Se
Google released robots.txt generator
Please check this robots.txt file its getting complex for me
Question about robots.txt
Robots.txt
Robots.txt and Meta Robots
Reply to topic    Frihost Forum Index -> Language Forums -> Portuguese

FRIHOST HOME | FAQ | TOS | ABOUT US | CONTACT US | SITE MAP
© 2005-2011 Frihost, forums powered by phpBB.