Pour optimiser le crawl de vos pages web, la question de la limite d’exploration des robots est essentielle. Google vient récemment de mettre à jour sa documentation. Si vous aviez des doutes sur le poids limite des fichiers explorés par les googlebots, vous avez désormais la réponse : 2 Mo. Ce plafond d’exploration est néanmoins valable uniquement pour Google Search.
Pour les professionnels du SEO, cette clarification peut poser question. S’agit-il d’un changement majeur ? Quels sont les principaux sites web concernés par cette limite d’exploration des googlebots ? Quelles sont les bonnes pratiques à adopter pour optimiser le crawl ? Voici ce qu’il faut comprendre.
Voir plus



Suivez-nous