Comment faire un site optimisé pour le référencement

Maintenant que vous savez ce qu’est le référencement et quels sont les principaux facteurs pris en compte par Google lors du positionnement d’un site Web, vous avez besoin de savoir quoi faire pour que votre page ait des opportunités de se positionner dans les SERPs.

Dans ce chapitre, nous allons parler de la façon d’optimiser les principaux facteurs de positionnement ainsi que les principaux problèmes SEO qui se posent lors de l’optimisation d’un site Web et ses solutions possibles.

Nous diviserons les thèmes de ce chapitre en 4 blocs principaux:

  1. Accessibilité
  2. Indexabilité
  3. Contenu
  4. Balise Meta

1. Accessibilité

La première étape dans l’optimisation du référencement d’un site Web est de permettre l’accès aux moteurs de recherche à notre contenu. C’est-à-dire que vous devez vérifier si le web est visible aux yeux des moteurs de recherche et surtout, comment ils voient la page.

Pour diverses raisons que nous expliquerons ci-dessous, il se peut que les moteurs de recherche ne puissent pas lire correctement un site web, condition préalable au positionnement.

Aspects à prendre en compte pour une bonne accessibilité

  • Fichier txt Robot
  • Robots d’étiquetage de but
  • Codes d’état HTTP
  • Plan du site
  • Structure Web
  • JavaScript et CSS
  • Vitesse de chargement
  • Fichier txt Robot

Le fichier robots. txt est utilisé pour empêcher les moteurs de recherche d’accéder et d’indexer certaines parties d’un site Web. Il est très utile d’empêcher Google d’afficher les pages que nous ne voulons pas dans les résultats de recherche. Par exemple, dans WordPress, pour les empêcher d’accéder aux fichiers administrateur, le fichier robots. txt ressemblerait à ceci:

Exemple :
Agent utilisateur: *

Disallow: /wp-admin

ATTENTION: Vous devez faire très attention à ne pas bloquer l’accès des moteurs de recherche à l’ensemble de votre site sans vous en rendre compte comme dans cet exemple:

Exemple :
Agent utilisateur: *

Disallow: / /

Nous devons vérifier que le fichier robots. txt ne bloque aucune partie importante de notre site. Nous pouvons le faire en visitant l’url www.exemple.com/robots.txt, ou via les Outils Google Webmaster dans « Tracking » > « Robot tester. txt ».

Le fichier robots. txt peut également être utilisé pour indiquer où se trouve notre sitemap en ajoutant dans la dernière ligne du document.

Par conséquent, un exemple de fichier robots. txt complet pour WordPress ressemblerait à ceci:

Exemple :
Agent utilisateur: *

Disallow: /wp-admin

Plan du site: http://www.exemple.com/sitemap.xml

Si vous voulez en savoir plus sur ce fichier, nous vous recommandons de visiter le site Web avec les informations sur la norme.

Méta balise robot

La balise meta « robots » est utilisée pour indiquer aux robots des moteurs de recherche s’ils peuvent ou non indexer la page et s’ils doivent suivre les liens qu’elle contient.

Lors de l’analyse d’une page, vous devriez vérifier s’il y a des balises meta qui bloquent par erreur l’accès à ces robots. C’est un exemple de ce que ces balises ressembleraient dans le code HTML:

Exemple:
<meta name= « robots » content= » noindex, nofollow « > 

D’autre part, les balises meta sont très utiles pour empêcher Google d’indexer des pages qui ne vous intéressent pas, comme les pages ou les filtres, mais suivez les liens pour continuer à parcourir notre site. Dans ce cas, l’étiquette ressemblerait à ceci:

Exemple:
<meta name= « robots »content= » noindex, follow « >

Nous pouvons vérifier les meta tags en cliquant droit sur la page et en sélectionnant « voir le code source de la page ».

Ou si nous voulons aller un peu plus loin, avec l’outil grenouille hurlante, nous pouvons voir en un coup d’œil quelles pages de l’ensemble du site ont implémenté ce label. Vous pouvez le voir dans l’onglet Directives et dans le champ Méta Robots 1. Une fois que vous avez localisé toutes les pages avec ces étiquettes, vous n’avez plus qu’ à les supprimer.

Codes d’état HTTP

Dans le cas où une URL renvoie un code d’état (404,502, etc.), les utilisateurs et les moteurs de recherche ne pourront pas accéder à cette page. Pour identifier ces URL, nous vous recommandons d’utiliser également Screaming Frog, car il affiche rapidement l’état de toutes les URL de votre page.

Tips: Chaque fois que vous faites une nouvelle recherche dans Screaming Frog, il exporte le résultat dans un CSV. Ainsi, vous pourrez les rassembler dans un seul Excel plus tard.

Sitemap

Le sitemap est un fichier XML qui contient une liste des pages du site ainsi que quelques informations supplémentaires, comme la fréquence de modification du contenu de la page, la date de dernière mise à jour, etc.

Un petit extrait d’un plan du site serait:

Exemple:

<url>

<loc> http://www.exemple.fr</loc>

<changefreq>daily</changefreq>

<priority>1.0</priority>

</url>

Les points importants que vous devez vérifier concernant le Sitemap, qui:

  • Suivez les protocoles, sinon Google ne le traitera pas correctement.
  • Téléchargez sur Google Webmaster Tools
  • Soyez à jour. Lorsque vous mettez à jour votre site Web, assurez-vous que vous avez toutes les nouvelles pages sur votre plan du site.
  • Toutes les pages du plan du site sont indexées par Google

Si le site n’ a pas de sitemap, il faut en créer un, en suivant quatre étapes:

  1. Génère un Excel avec toutes les pages que nous voulons indexer, en utilisant le même Excel que nous créons lors de la recherche des codes de réponse HTTP.
  2. Créez le plan du site. Pour ce faire, nous recommandons l’outil Sitemap Generators (simple et très complet)
  3. Comparez les pages qui sont dans votre excel et celles qui sont dans le sitemap et supprimez de l’excel celles que nous ne voulons pas être indexées.
  4. Téléchargez le plan du site via Google Webmaster Tools

Structure Web

Si la structure d’un site Web est trop profonde, Google aura plus de difficulté à atteindre toutes les pages. Il est donc recommandé que la structure n’ait pas plus de 3 niveaux de profondeur, (sans compter la page d’accueil) car le robot Google a un temps limité pour parcourir un web, et plus vous devez passer de niveaux, moins vous avez de temps pour accéder aux pages plus profondes.

Par conséquent, il est toujours préférable de créer une structure horizontale plutôt que verticale.

Structure verticale

Structure horizontale

Notre conseil est de faire un aperçu de l’ensemble du site Web où vous pouvez facilement voir les niveaux qu’il a, de la page d’accueil à la page la plus profonde et calculer combien de clics il faut pour y arriver.

Localisez à quel niveau se trouve chaque page et si vous avez des liens pointant vers elle en utilisant de nouveau Screaming Frog.

JavaScript et CSS

Bien qu’au cours des dernières années Google est devenu plus intelligent lors de la lecture de ce type de technologie, nous devons être prudents parce que JavaScript peut cacher une partie de notre contenu et CSS peut le désorganiser en le montrant dans un autre ordre à celui que Google voit.

Il y a deux façons de savoir comment Google lit une page:

  • Plugins
  • Commande de « cache: »

Plugins

Des plugins comme Web Developer ou Disable-HTML nous aident à voir comment un moteur de recherche parcourt le web. Pour ce faire, ouvrez un de ces outils et désactivez JavaScript. Nous le faisons parce que tous les menus déroulants, liens et textes doivent être lisibles par Google.

Ensuite nous désactivons le CSS, car nous voulons voir l’ordre réel du contenu et CSS peut changer cela complètement.

Commande de « cache: »

Une autre façon de savoir comment Google voit un site Web est d’utiliser la commande « cache: ».

Entrez « cache: www.monexemple.com » dans le moteur de recherche et cliquez sur « Version texte uniquement ». Google vous montrera une photo où vous pouvez voir comment un site Web se lit et quand il a été consulté pour la dernière fois.

Cependant, pour que la commande « cache: » fonctionne correctement, nos pages doivent être préalablement indexées dans les index Google.

Une fois que Google indexe pour la première fois une page, il détermine à quelle fréquence il la revisite pour les mises à jour. Cela dépendra de l’autorité et de la pertinence du domaine auquel cette page appartient et de la fréquence de sa mise à jour.

Soit à travers un plugin ou la commande « cache: », assurez-vous de remplir les points suivants:

  • Vous pouvez voir tous les liens dans le menu.
  • Tous les liens sur le site sont cliquables.
  • Il n’ y a aucun texte qui n’est pas visible avec CSS et Javascript activés.
  • Les liens les plus importants sont en haut.

Vitesse de chargement

Le robot Google a un temps limité quand il s’agit de naviguer sur notre site Web, moins il faut de temps pour que chaque page se charge, plus vous pourrez atteindre de pages.

Vous devez également garder à l’esprit qu’un chargement de page très lent peut faire monter en flèche votre pourcentage de rebondissement, il devient donc un facteur essentiel non seulement pour le positionnement mais aussi pour une bonne expérience utilisateur.

Pour voir la vitesse de chargement de votre site, nous vous recommandons Google Page Speed, où vous pouvez vérifier quels sont les problèmes qui ralentissent votre site et trouver les astuces proposées par Google pour les résoudre. Mettre l’accent sur les priorités hautes et moyennes.

2 Indexabilité

Une fois que le robot Google a accédé à une page, l’étape suivante est de l’indexer, ces pages seront indexées dans un index où elles sont triées par contenu, autorité et pertinence pour faciliter et accélérer l’accès à Google.

 

Comment puis-je vérifier si Google a indexé mon site Web correctement?

La première chose que vous devez faire pour savoir si Google a indexé correctement votre site Web est d’effectuer une recherche avec la commande « site: », de sorte que Google vous donnera le nombre approximatif de pages sur notre site Web qui a indexé:

Site de commande sur Google

Si vous avez lié Google Webmaster Tools à votre site Web, vous pouvez également vérifier le nombre réel de pages indexées en allant dans Google Index > Statut d’indexation.

Connaissant (plus ou moins) le nombre exact de pages de votre site web, ces données vous aideront à comparer le nombre de pages indexées par Google avec le nombre de pages réelles de votre site web. Trois scénarios peuvent se présenter:

Dans les deux cas, le chiffre est très similaire. Ça veut dire que tout est en ordre.
Le nombre qui apparaît dans la recherche de Google est plus petit, ce qui signifie que Google n’indexe pas beaucoup de pages, ce qui est parce qu’il ne peut pas accéder à toutes les pages sur le Web. Pour résoudre ce problème, consultez la partie accessibilité de ce chapitre.
Le numéro qui apparaît dans la recherche de Google est plus élevé, ce qui signifie que votre site Web a un problème de contenu en double. Sûrement la raison pour laquelle il y a plus de pages indexées qu’il n’ y en a vraiment dans votre site Web est que vous avez du contenu en double ou que Google indexe des pages que vous ne voulez pas indexées.

Contenu en double
Avoir du contenu dupliqué signifie que pour plusieurs URLs nous avons le même contenu. Il s’agit d’un problème très courant, qui est souvent involontaire et peut également avoir des effets négatifs sur le positionnement Google.

Ce sont là les principales raisons pour lesquelles le contenu doit être dupliqué:

Canonicalisation « de la page
Paramètres URL
Pagination
C’est la raison la plus fréquente de la duplication de contenu et se produit lorsque votre page d’accueil contient plusieurs URL:

Exemple
example. com

Sync by YYeTs. net

exemple. com/index. html

Sync by YYeTs. net

Chacun des précédents pointe vers la même page avec le même contenu, si vous ne dites pas à Google lequel est le bon, vous ne saurez pas lequel vous devez positionner et il peut positionner juste la version que vous ne voulez pas.

Solution. Il y a 3 options:
Effectuez une redirection sur le serveur pour vous assurer qu’il n’ y a qu’une seule page affichée aux utilisateurs.
Définissez quel sous-domaine nous voulons être le principal (« www » ou « no-www ») dans Google Webmaster Tools. Comment définir le sous-domaine principal.
Ajoutez une étiquette « rel=canonical » dans chaque version indiquant ceux qui sont considérés comme corrects.

Paramètres URL

Il existe de nombreux types de paramètres, notamment dans le commerce électronique: filtres produits (couleur, taille, ponctuation, etc.), tri (prix plus bas, par pertinence, prix plus élevé, grille, etc.) et sessions utilisateurs. Le problème est que beaucoup de ces paramètres ne changent pas le contenu de la page et que cela génère beaucoup d’URL pour le même contenu.

www.exemple.com/boligrafos?color=noir&prix-prix=5&prix=10

Dans cet exemple, nous trouvons trois paramètres: couleur, prix minimum et prix maximum.

Solution
Ajoutez une balise « rel=canonical » à la page d’origine, pour éviter toute confusion de Google avec la page d’origine.

Une autre solution possible est d’indiquer par le biais de Google Webmaster Tools > Tracking > Paramètres URL quels paramètres Google devrait ignorer lors de l’indexation des pages d’un site Web.

Pagination

Lorsqu’un article, une liste de produits ou des pages d’étiquettes et des catégories ont plus d’une page, des problèmes de contenu en double peuvent survenir même si les pages ont un contenu différent, parce qu’elles sont toutes centrées sur le même sujet. C’est un problème énorme sur les pages de commerce électronique où il y a des centaines d’articles dans la même catégorie.

Solution

Actuellement, les balises rel=next et rel=prev permettent aux moteurs de recherche de savoir quelles pages appartiennent à la même catégorie/publication et donc il est possible de focaliser tout le potentiel de positionnement sur la première page.

Comment utiliser les paramètres NEXT et PREV?

1. Ajoutez l’étiquette rel=next dans la partie du code à la première page:

link rel= « next » href= « http://www.exemple.com/page-2.html » />

2. Ajoutez les balises rel=next et rel=prev sur toutes les pages sauf la première et la dernière.

link rel= « prev » href= « http://www.exemple.com/page-1.html » />
link rel= « next » href= « http://www.exemple.com/page-3.html » />

3. Ajouter à la dernière page l’étiquette rel=prev

link rel= « prev » href= « http://www.exemple.com/page-4.html » />
Une autre solution consiste à rechercher le paramètre de pagination dans l’URL et à le saisir dans Google Webmaster Tools pour qu’il ne soit pas indexé.

Cannibalisation

La cannibalisation des mots-clés se produit quand dans un site Web il y a plusieurs pages qui rivalisent pour les mêmes mots-clés. Ceci brouille le moteur de recherche en ne sachant pas lequel est le plus pertinent pour ce mot-clé.

Ce problème est très courant dans le commerce électronique, car avoir plusieurs versions d’un même produit « attaque » avec tous aux mêmes mots-clés. Par exemple, si vous vendez un livre en version softcover, hardcover et numérique, vous aurez 3 pages avec pratiquement le même contenu.

Solution Solution

Créez une page d’accueil du produit, à partir de laquelle vous pouvez accéder aux pages des différents formats, qui comprennent une étiquette canonique qui pointe vers la page principale. L’idéal est toujours de centrer chaque mot-clé sur une seule page pour éviter tout problème de cannibalisation.

3. Contenu

Depuis ces dernières années, il est devenu évident que le contenu est roi pour Google. Offrons-lui un bon trône alors.

Le contenu est la partie la plus importante d’un site Web et autant qu’il est bien optimisé au niveau du référencement, s’il n’est pas pertinent pour les recherches faites par les utilisateurs ne sera jamais apparaître dans les positions supérieures.

Pour faire une bonne analyse du contenu de notre site vous avez quelques outils à votre disposition, mais en fin de compte la chose la plus utile est d’utiliser la page avec JavaScript et CSS désactivé comme expliqué ci-dessus. De cette façon, vous verrez quel contenu Google est effectivement en train de lire et dans quel ordre il est prêt.

Lorsque vous analysez le contenu des pages, posez-vous plusieurs questions qui vous guideront tout au long du processus:

La page a-t-elle assez de contenu? Il n’ y a pas de mesure standard de ce qui est « suffisant », mais au moins 300 mots.
Le contenu est-il pertinent? Cela doit être utile pour le lecteur, il suffit de se demander si vous voulez bien le lire. Sois honnête.
Avez-vous des mots-clés importants dans les premiers paragraphes? En plus de ces derniers, nous devons utiliser des termes apparentés parce que Google est très efficace pour lier les termes.

Vous avez des mots-clés? Si le contenu de la page « libère » trop de mots-clés à Google ne sera pas un plaisir. Il n’ y a pas de nombre exact qui définit une densité parfaite de mots-clés, mais Google conseille d’être aussi naturel que possible.
Vous avez des fautes d’orthographe?
Est-il facile à lire? Si on ne trouve pas la lecture ennuyeuse, ça ira. Les paragraphes ne doivent pas être trop longs, la police de caractères ne doit pas être trop petite et il est recommandé que les images ou les vidéos renforcent le texte. N’oubliez pas de toujours penser à quel public vous écrivez.
Google peut-il lire le texte de la page? Il faut éviter que le texte soit dans Flash, images ou Javascript. Nous allons vérifier cela en regardant la version texte de notre page, en utilisant la commande cache de Google: www. example. com et en sélectionnant cette version.

Le contenu est-il bien distribué? Il a ses H1, H2 et ainsi de suite sur les étiquettes, les images sont bien formatées etc.
Est-il lié? Si nous ne fournissons pas à l’utilisateur comment le partager, il est très probable qu’il ne le fera pas. Il inclut le partage de boutons sur les réseaux sociaux dans des endroits visibles de la page qui n’interfèrent pas avec le contenu de visualisation, que ce soit une vidéo, une photo ou un texte.
Est-elle à jour? Plus votre contenu est à jour, plus Google se déplace fréquemment sur votre site et plus l’expérience utilisateur est agréable.

Conseil

Vous pouvez créer un Excel avec toutes les pages, leurs textes et les mots-clés que vous voulez y afficher, de cette façon il sera plus facile de voir où vous devriez réduire ou augmenter le nombre de mots-clés dans chaque page.

 

4. Balises Meta

Les balises Meta sont utilisées pour transmettre aux moteurs de recherche des informations sur le contenu d’une page lorsqu’ils doivent trier et afficher leurs résultats. Ce sont les étiquettes les plus importantes à considérer:

Titre

La balise title est l’élément le plus important des balises meta. C’est la première chose qui apparaît dans les résultats de Google.

Quand il s’agit d’optimiser le titre, il ne faut pas l’oublier:

  • La balise doit figurer dans la section <head> </head> du code.
  • Chaque page doit avoir un titre unique.
  • Il ne doit pas excéder 70 caractères, s’il ne sera pas coupé.
  • Il doit être descriptif par rapport au contenu de la page.
  • Il doit contenir le mot-clé pour lequel nous optimisons la page.
  • Nous ne devrions jamais abuser des mots-clés dans le titre.

Un autre aspect à prendre en compte est de savoir où mettre la « marque », c’est à dire: le nom du web, est généralement mis à la fin pour donner plus d’importance aux mots-clés, en les séparant du nom du web avec un trait d’union ou une barre verticale.

Méta-description

Bien qu’il ne soit pas un facteur critique dans le positionnement d’un site Web, il a un effet considérable sur le taux de clics dans les résultats de recherche.

Pour la méta-description, nous suivrons les mêmes principes que pour le titre, sauf que sa longueur ne doit pas dépasser 155 caractères. Pour les titres et métadesign, nous devons éviter les doublons, ceci peut être vu dans Google Webmaster Tools > Apparence de la recherche > Améliorations HTML.

Meta Keywords

À l’époque, les mots-clés étaient un facteur très important dans le positionnement, mais Google a découvert à quel point il était facile de manipuler les résultats de recherche et l’ a éliminé comme un facteur de positionnement.

Etiquettes H1, H2, H3…

H1, H2, etc. tags sont très importants pour avoir une bonne structure d’information et une bonne expérience utilisateur, car ils définissent la hiérarchie du contenu, quelque chose qui améliorera SEO. Nous devons donner de l’importance à H1 parce qu’il est généralement dans la partie la plus élevée du contenu et le plus un mot-clé est le plus important Google sera.

Balise « Alt » dans l’image

La balise « alt » dans les images est ajoutée directement au code de l’image.

Exemple

<img src=”http://www.exemple.com/exemple.jpg” alt=”super mot clés” />

Cette balise doit être descriptive sur l’image et le contenu de cette image, car c’est ce que Google lit lorsque vous la parcourez et l’un des facteurs que vous utilisez pour la positionner dans Google Images.

Conclusion

Vous savez déjà comment faire une page optimisée pour le référencement et qu’il y a de nombreux facteurs à optimiser si vous voulez apparaître dans les meilleures positions des résultats de recherche. Maintenant vous vous demanderez probablement quels sont les mots-clés qui positionnent le mieux mon site?

 

Your Thoughts