Tout d’abord je tiens à rappeler que la performance d’une stratégie SEO (référencement naturel) ne se limite pas simplement aux contenus. Tous les éléments techniques n’ont pas la même importance aux yeux des moteurs de recherche, mais si votre objectif est d’avoir un SEO ultra quali alors chaque détail compte !
Les astuces pour améliorer votre SEO
C'est quoi les critères SEO ?
Pour répondre aux critères des moteurs de recherche et optimiser les performances de sa campagne SEO, il est indispensable de ne pas négliger les aspects techniques de son site, c’est-à-dire :
Les performances de chargement
La structuration des pages et du contenu
La validité du code HTML
Les données structurées (microformats)
L’indexation
Tous ces éléments techniques n’ont pas la même importance aux yeux des moteurs de recherche, mais si votre objectif est d’avoir un SEO performant alors chaque détail compte. Dans cet article, je vous partage plusieurs recommandations et un ensemble de bonnes pratiques techniques pour optimiser votre SEO.
Le temps de chargement
Une bonne performance de chargement a un impact positif sur l’UX (expérience utilisateur) de votre site mais pas que, Google intègre aussi ce facteur dans son algorithme de classement des résultats de recherche. Le temps de chargement d’un site va dépendre principalement de deux choses :
Pour réduire le temps de chargement des pages, il faut porter une attention particulière à plusieurs points.
1️⃣ Mise en cache
Mettre en cache c’est réutiliser des ressources récupérées précédemment pour les réutiliser plus tard. C’est simple, pour gagner en performances il faut limiter, ou plutôt optimiser, les allers-retours entre le serveur et le client.
Je vous donne quelques exemples de ressources qui peuvent être mis en cache :
Images (jpg, png, gif etc.)
Fichiers statiques (HTML, feuilles de styles, JavaScript, fonts etc.)
Le coup de ❤️ de notre agence pour optimiser et contrôler la mise en cache est le plugin WordPress WP Rocket.
2️⃣ Optimiser des images
Pour limiter l’impact sur la performance, chaque image doit être adaptée à son utilisation et optimisée pour le web :
Inutile de charger une image plus grande que sa taille d’affichage
Le poids des images doit être inférieur à 100 Ko (dans la mesure du possible)
3️⃣ Optimiser le poids des fichiers CSS et JS
Optimiser son code source et compiler les fichiers CSS/JavaScript permet de gagner de précieuses millisecondes. Une version compilée supprime toutes les tabulations, les espaces inutiles, les retours de lignes etc. On se retrouve avec un code illisible (pour nous les humains 🖖) mais beaucoup plus léger.
Petit exemple avec la librairie JavaScript jQuery :
Version 3.4.1 : 280 Ko
Version 3.4.1 compilée : 88 Ko
Soit un gain de 71,4% 💪
Aller petit 🎁, je vous partage un petit set d’outils pour tester la performance de votre site et aller plus loin dans l’optimisation :
Tous les langages informatiques ont une syntaxe qui leur est propre, avec des règles de vocabulaire et de grammaire (comme une langue tout simplement). Et les technologies du web n’y échappent pas, d’ailleurs l’ensemble de ces règles est répertorié par le W3C (World Wide Web Consortium). Le but de cet organisme est de standardiser l’utilisation et l’évolution des technologies web (pour le HTML notamment). Pour une lecture optimale de son site par les moteurs de recherche, il faut que les pages HTML de votre site soient W3C-friendly ✅
À noter également que les éléments indexables (contenus, images, liens etc.) ne doivent pas être appelés en AJAX. Si les éléments ne sont pas inscrits dans le code HTML, ils sont invisibles pour les moteurs de recherche et ne participent donc pas au référencement naturel.
⚠️ Ce n’est pas parce que le code est valide que la structure technique de la page est optimisée pour le SEO !
Petit rappel 💡 La structure d’une page est définie par les valeurs absolues des éléments titres : on parle de structure Hn. Ces titres aident les moteurs de recherche à mieux comprendre le contenu d’une page. Voici quelques règles pour l’utilisation des titres de section (balises h1 à h6) :
Ne pas les utiliser pour jouer sur la taille d’un texte (le CSS le fait très bien 🤙)
Utiliser un seul titre h1 par page et toujours commencer par un h1
Ne pas sauter des niveaux de titre (passer d’un h1 à un h3 c’est interdit ⛔️)
Pour éviter de nuire à la structure de la page, les éléments qui se répètent sur chaque page, comme le header ou le footer, ne doivent pas contenir de balise Hn. Il existe des balises qui sont sémantiquement neutres (ex : span).
Des résultats enrichis et des données structurées
Google utilise les données des pages web pour enrichir ses résultats de recherche (SERP) avec des éléments graphiques et des optimisations (étoiles d’avis, prix, vignettes, etc…).
Ces données supplémentaires sont des extraits enrichis ou des rich snippet (ouais je sais l’anglicisme 😅). Cela est rendu possible grâce aux données structurées, qui vont permettre aux moteurs de recherche de mieux comprendre le contenu des pages. Ce sont des informations à implémenter dans le code source.
Il existe plusieurs cas où il est possible d’implémenter ces données structurées :
Pour qu’un site puisse apparaître dans les résultats de recherche, il faut d’abord qu’il soit exploré puis indexé par les moteurs de recherche. Plusieurs éléments permettent d’agir sur l’indexation des pages d’un site :
Le fichier sitemap.xml
Le fichier robots.txt
Les URLs canonique (canonical)
Ces éléments servent à guider les moteurs de recherche afin qu’ils explorent (et indexent) de manière plus efficace un site.
1️⃣ Sitemap XML
Comme son nom l’indique, ce fichier est le plan du site; Il contient l’ensemble des pages du site afin de faciliter le crawl des moteurs de recherche. Il est également possible de créer un sitemap qui contiendra l’ensemble des images, afin qu’elles soient indexées et remontent lors des recherches par image.
2️⃣ Robots.txt
Ce fichier permet de contrôler, grâce à des règles, quelles sont les pages (ou non) à crawler et à indexer. Par exemple, on peut utiliser ce fichier pour interdire l’indexation d’un back-office.
⚠️ Attention : l’adresse des fichiers sitemap doit être présente dans le fichier robots.txt. lors d’un crawl, le fichier robots.txt est le premier à être analysé.
3️⃣ URL canonique
Les URLs canoniques vont permettre d’indiquer aux moteurs de recherche l’URL principale à indexer lorsque plusieurs pages sont identiques ou similaires. Par exemple, un article de blog peut se trouver dans plusieurs catégories et donc être accessible sous plusieurs URLs : il y a un risque de duplicate content.
Pour conclure cet article, il faut garder à l’esprit que pour qu’une campagne SEO soit performante, il ne faut pas négliger les aspects techniques qui sont tout aussi importants que les parties lexicales et la stratégie en elle-même. D’ailleurs, je vous partage une dernière recommandation : chez Yes We Dev on peut faire un audit technique de votre site, alors n’hésitez pas à nous poser vos questions. 😉
Vous avez un projet ?
Une question, un doute, un retour d'expérience ou un simple "coucou", nous lisons et répondons à tous vos messages.