Goossips SEO : fichier robots.txt


Google a mis à jour sa politique concernant le fichier robots.txt, précisant qu’il ne prend en charge que quatre champs : « user-agent », « allow », « disallow » et « sitemap ». Pour le dire autrement, les directives non supportées sont ainsi ignorées par les robots de Google. Cette clarification vise à encourager les propriétaires de sites web à éviter d’utiliser des directives non supportées.

Source : Journal des moteurs de recherche



Source link

Click to rate this post!
[Total: 0 Average: 0]

Leave a Reply

Your email address will not be published. Required fields are marked *

Sorry this site disable right click
Sorry this site disable selection
Sorry this site is not allow cut.
Sorry this site is not allow copy.
Sorry this site is not allow paste.
Sorry this site is not allow to inspect element.
Sorry this site is not allow to view source.