Setup Menus in Admin Panel

PARTIE C : OPTIMISATION DES PAGES WEB (LES CRITERES « IN PAGE »)

Comprendre les interactions avec les robots : l’exemple de Googlebot

Présentation

Googlebot est le robot d’exploration (« spider » en anglais) de Google. Lors de l’exploration, Googlebot détecte de nouvelles pages et des pages mises à jour à ajouter dans l’index Google.

Grâce à un gigantesque réseau d’ordinateurs, Googlebot est en mesure d’extraire (ou « explorer ») des milliards de pages Web. Le processus de Googlebot est basé sur des algorithmes ; des programmes informatiques déterminent les sites à explorer, la fréquence d’exploration et le nombre de pages à extraire de chaque site.

Le processus d’exploration de Googlebot consiste dans un premier temps à établir une liste des URL de pages Web, générée à partir des explorations précédentes et auxquelles s’ajoutent les données sitemap fournies par les webmasters. Au cours de sa visite, Googlebot détecte les liens SRC et HREF qui figurent sur chacune des pages et les ajoute à sa liste de pages à explorer. Les nouveaux sites, les modifications de sites existants et les liens non fonctionnels sont répertoriés et utilisés pour mettre à jour l’index Google.

 

Comment Googlebot accède-t-il à un site ?

Dans la plupart des cas, les accès de Googlebot à un site doivent être espacés de plusieurs secondes en moyenne. Cependant, en raison de retards sur le réseau, il est possible que cette fréquence soit légèrement supérieure sur de courtes périodes. En général, Googlebot télécharge une seule copie de chaque page à la fois. S’il télécharge une page plusieurs fois, c’est sans doute qu’il a été arrêté, puis redémarré.

Googlebot est conçu pour être réparti sur plusieurs machines pour améliorer les performances et évoluer avec la croissance du Web. En outre, pour limiter l’utilisation de la bande passante, Google exécute de nombreux robots d’exploration sur des machines situées à proximité des sites à indexer sur le réseau. Par conséquent, les fichiers journaux des sites web peuvent indiquer des visites de plusieurs machines sur google.com, toutes avec le user-agent Googlebot. L’objectif est d’explorer autant de pages du site que possible à chaque visite, sans surcharger la bande passante du serveur qui l’héberge.

 

Comment empêcher Googlebot d’explorer un site ?

Il est quasiment impossible de garder un serveur Web secret en évitant de publier des liens qui pointent vers celui-ci. Dès lors qu’un internaute clique sur un lien d’un serveur « secret » vers un autre serveur Web, cette URL « secrète » peut s’afficher dans la balise de provenance, puis être enregistrée et publiée dans un fichier journal de cet autre serveur Web. De même, le Web contient de nombreux liens obsolètes ou non fonctionnels. Dès lors que quelqu’un publie un lien incorrect vers un site ou ne met pas à jour les liens suite à des modifications sur un serveur, Googlebot essaie de télécharger ces liens incorrects.

Pour empêcher Googlebot d’explorer un site, plusieurs options sont disponibles, comme l’utilisation d’un fichier robots.txt pour bloquer l’accès aux fichiers et aux répertoires sur le serveur d’hébergement.

Après la création du fichier robots.txt, Googlebot détecte vos modifications. Si Googlebot continue d’explorer les pages bloquées dans votre fichier robot.txt, il faut vérifier que celui-ci est placé au bon endroit. Il doit se trouver dans le répertoire principal du serveur (par exemple, www.monhebergeur.fr/robots.txt). S’il se trouve dans un sous-répertoire, il est inefficace.

Si le but est seulement d’éviter les messages d’erreur du type « fichier introuvable » dans les fichiers journaux du serveur Web, on peut créer un fichier vide intitulé « robots.txt ». Pour empêcher Googlebot de suivre les liens qui se trouvent sur une page du site, utiliser la balise Meta « nofollow ». Pour empêcher Googlebot de suivre un lien individuel, ajouter l’attribut rel= »nofollow » au lien.

 

Quelques conseils supplémentaires :

  • Vérifier que le fichier robots.txt fonctionne correctement. L’outil de test du fichier robots.txt sur les pages bloquées (sous État de santé) explique en détail la manière dont Googlebot interprète le contenu d’un fichier robots.txt. Le user-agent de Google s’appelle (judicieusement) Googlebot.
  • L’outil « Explorer comme Google » de la Search Console permet de déterminer précisément comment Googlebot voit un site. Il peut être très utile pour résoudre les problèmes liés au contenu du site ou à sa visibilité dans les résultats de recherche.

 

Comment garantir l’exploration d’un site ?

Googlebot détecte les sites en suivant les liens entre les pages. La page Erreurs d’exploration de la Search Console répertorie les problèmes rencontrés par Googlebot lors de l’exploration d’un site. Google recommande de vérifier régulièrement ces erreurs d’exploration afin d’identifier d’éventuels problèmes sur le site.

Si le fichier robots.txt fonctionne comme prévu, mais que le site ne reçoit pas de trafic, plusieurs raisons peuvent expliquer pourquoi le contenu n’est pas bien placé dans les résultats de recherche, généralement liées de manière intrinsèque audit contenu ou à des situations de spamming.

 

 

Problèmes avec les spammeurs et les autres user-agents

Les adresses IP utilisées par Googlebot changent de temps en temps. Le meilleur moyen d’identifier les accès de Googlebot est d’utiliser le user-agent (Googlebot). Grâce à la résolution DNS inverse, on peut vérifier que le robot qui accède à un serveur est bien Googlebot.

Googlebot, comme tous les robots d’exploration sérieux, respecte les directives du fichier robots.txt. En revanche, certains spammeurs ou certaines personnes mal intentionnées ne le font pas. Tout spam doit être signalé à Google.

 

Google dispose de plusieurs autres user-agents, comme Feedfetcher (user-agent Feedfetcher-Google). Les requêtes Feedfetcher sont déclenchées par des utilisateurs qui ont ajouté des flux à leur page d’accueil Google ou à Google Reader, et non par des robots automatisés. Feedfetcher ne suit donc pas les consignes du fichier robots.txt. On peut empêcher Feedfetcher d’explorer un site en configurant le serveur de manière à renvoyer un message d’erreur 404, 410 ou autres au user-agent Feedfetcher-Google.

 

Mise en forme HTML

La balise <title>

Lorsqu’un site fait partie d’une liste de résultats de recherche, il apparait dans une SERP sous forme d’un lien cliquable pointant vers la page trouvée.

Balise title

Affichage du contenu de la balise <title> sur Google

 

Le libellé de ce lien est le titre de page, il est défini par la balise <title> de ladite page.

Balise title

Exemple de balise <title>

Pour être aussi efficace que possible :

  • la balise doit être placée aussi haut que possible dans le code HTML de la page ;
  • elle doit contenir 8 mots maximum en moyenne (voire moins), soit un nombre moyen maximum de 65 caractères ;
  • elle doit contenir autant de mots clefs importants que possible (éviter les titres tels que « page d’acceuil », nom de l’entreprise, etc.) ;
  • les mots clés les plus importants doivent se trouver à gauche dans la balise <title> ;
  • Les mots clefs choisis dans la balise <title> doivent être cohérents avec le contenu de la page ;
  • La balise <title> doit être unique pour chaque page, et présente sur chaque page.

 

Les balises <h1>, <h2>, <hn>

Il est conseillé d’organiser les contenus d’une page web en paragraphes. Chaque paragraphe peut, par exemple, être titré avec un titre de niveau 2, c’est à dire un « heading » de type <h2>. Les « headings » autrement appelé balise <hn> servent à hiérarchiser les titres accompagnant des textes entre eux. Les mots clefs contenus dans la balise <h1> ont plus de poids que ceux de la balise <h2>, et ainsi de suite.

  • Il existe jusqu’à 8 niveaux de titre, mais il est recommandé d’en utiliser 3 maximum.
  • Les titres <hn> doivent contenir le moins de mots possible.
  • Les mots peu porteurs diluent l’impact SEO des mots clefs importants.
  • Chaque page contient un seul et unique <h1>.
  • La hiérarchie des titres est à respecter (le <h1> apparait avant le <h2>, par exemple).
  • Un titre <hn> est un titre… pas une longue phrase et encore moins un paragraphe.

 

La mise en gras

La mise en exergue de mots dans le contenu de votre site a un double avantage.

  • Elle améliore la lisibilité du contenu en indiquant aux lecteurs les éléments clés de la page ; ils peuvent ainsi trouver plus facilement l’information qu’ils recherchent. Cette logique se retrouve dans les pages de résultats de Google : les mots de la requête tapée par l’internaute apparaissent en gras dans la liste des résultats : balise title, url et méta description. D’où l’importance de placer son mot-clé stratégique dans ces zones pour inciter les internautes à cliquer sur votre page.

 

  • La mise en relief (mise en gras) de certains éléments confère plus de poids à ces mots aux yeux de Google. Dans sa lecture d’une page, le robot de Google ne peut pas savoir quel mot est plus important qu’un autre ; la mise en valeur par le gras est un moyen d’indiquer à Google qu’un mot a une valeur significative dans un texte, même si l’impact de cette mise en valeur est relativement faible.

 

Les liens internes

Il peut être utile d’incorporer des liens internes aux articles de votre site. Les moteurs de recherches suivront ces liens, l’internaute également, avec pour résultat de générer du trafic et faire comprendre aux moteurs de recherches que votre page est pertinente. Les liens utilisés devront comporter une « ancre« . Cette ancre décrira le lien vers l’article, elle doit donc être descriptive. Egalement vous pouvez utiliser l’attribut strong (en mettant la balise de lien en gras), afin de rendre important ce lien aux yeux des moteurs de recherches.

Nota:

Il est conseillé d’utiliser la cible de lien target= »blank_ » afin d’ouvrir votre page dans un nouvel onglet, pour éviter que l’internaute quitte votre page en cliquant sur le lien interne.

 

Les balises meta

En HTML, les balises meta permettent de fournir aux moteurs de recherche un certain nombre d’informations sur le contenu d’une page web. « meta » est une abréviation de « metadata » (métadonnée), ces balises signalent donc « de l’information sur l’information ».

Il est important de noter que les balises meta ont aujourd’hui moins d’importance pour les moteurs de recherche qu’il y a quelques années en termes de critère de pertinence et de positionnement. Trop de spam a été réalisé au travers de cette zone et, petit à petit, les moteurs se sont lassés de prendre en considération des informations qui auraient dû être très pertinentes et qui tournaient, in fine, au « réservoir à spam ».

Toutefois, même si leur impact sur le positionnement a diminué de façon significative, les balises meta demeurent un moyen d’optimiser vos pages web.

De très nombreuses autres balises meta sont disponibles et parfois visibles dans le code HTML des pages rencontrées au cours de vos pérégrinations sur le Web : revisit-after, classification, distribution, rating, identifier-URL, copyright, etc. Elles ne sont clairement prises en compte par aucun moteur de recherche majeur. Leur présence est donc superflue dans vos pages, si ce n’est pour d’autres buts que le référencement. Très peu ont un véritable intérêt : les balises meta description, robots, new_keywords et dans une très moindre mesure (obsolète), keywords.

 

  • La balise meta description

La balise Meta Description est utile pour donner une courte description de la page. Google et d’autres moteurs de recherche s’en servent parfois pour présenter une page web dans ses résultats de recherche. Google ne tiendrait pas compte de cette balise pour le référencement / positionnement. Cependant, une description bien rédigée incite généralement l’internaute à cliquer. En augmentant le taux de clic (« click-through rate », la balise meta description augmente ainsi le trafic du site, indépendamment de sa position dans les résultats de recherche.

Balise description

Affichage de la valeur de la balise meta description

  • La longueur de la balise Meta Description a varié plusieurs fois entre 2017 et 2018, et semble s’être stabilisée autour de 165 caractères sur ordinateur et 130 caractères sur mobile, espace compris
  • Synthétique, la balise Meta Description permet d’informer les moteurs de recherche, ainsi que les internautes du contenu de la page
  • Il ne s’agit pas d’une simple série ou liste de mots-clés
  • La description est rédigée de façon unique par page

 

  • La balise meta keywords

Autrefois pilier de la détermination de la pertinence d’une page web, il est aujourd’hui admis que la balise meta keywords n’a plus d’impact positif sur le référencement naturel, excepté pour le moteur de recherche … yandex (orienté vers le marché russe). Deux courants de pensée s’affrontent à ce sujet.

  • Utiliser la balise meta keywords (en saisissant en moyenne une vingtaine de mots), pour la forme et entre autres, pour inclure dans les mots-clés, des mots du même champ lexical, ou des erreurs d’orthographe courantes.
  • Ne pas l’utiliser du tout : « pourquoi offrir à la concurrence un aperçu, même partiel, des mots clés de votre stratégie SEO ».

 

  • La balise meta robots

La balise meta robots est une balise HTML située dans l’entête HTML, c’est-à-dire entre les balises <head> et </head>. Facultative, elle permet de fournir quelques directives aux robots des moteurs de recherche, par exemple pour interdire l’indexation de la page (robots noindex).

La syntaxe est très simple : <meta name= »robots » content= »noindex » />.(exemple en XHTML ou HTML5)

Pour indiquer plusieurs valeurs dans « content », il faut les séparer par une virgule comme dans cet autre exemple :

<meta name= »robots » content= »noindex,notranslate » />

La similitude d’orthographe avec le nom du fichier robots peut susciter des questions. Voici la nuance :

  • la balise meta robots sert à fournir des directives aux robots quand ils consultent une page spécifique
  • le fichier robots.txt sert à indiquer aux robots s’ils ont le droit d’accéder à une page ou un groupe de pages du site

En résumé :

  • pour interdire en amont le crawl (et donc l’indexation) d’une page, bloquez-la dans le fichier robots.txt
  • pour interdire l’indexation d’une page (autorisée au crawl), mettez une balise meta robots noindex dedans
  • attention : si une page est déjà indexée et que vous souhaitez la supprimer de Google, ne la bloquez pas au crawl (dans le robots.txt), car même si vous mettez aussi une meta noindex, Google ne consultera pas la page (à cause du robots.txt) et ne la désindexera pas.

 

  BALISE meta robots SYNTAXE SIGNIFICATION
Index <meta name= »robots » content= »index » /> Indique au robot qu’il peut indexer la page. Cette valeur étant celle par défaut, il est inutile de l’indiquer.
Follow <meta name= »robots » content= »follow » /> Indique au robot qu’il peut suivre les liens dans la page. Cette valeur étant celle par défaut, il est inutile de l’indiquer.
All <meta name= »robots » content= »all » /> Cette valeur est l’équivalent de index,follow. Cette valeur étant celle par défaut, il est inutile de l’indiquer.
None <meta name= »robots » content= »none » /> Cette valeur est l’équivalent de noindex,nofollow.
Nosnippet <meta name= »robots » content= »nosnippet » /> Indique au robot qu’il ne faut pas afficher de descriptif (snippet) dans la page de résultats.
Noarchive <meta name= »robots » content= »noarchive » /> indique au robot qu’il ne faut pas laisser l’accès à la version en cache. Le lien « En cache » dans la page de résultats ne sera donc pas affiché. Ceci peut servir à ceux qui passent leur contenu d’une version publique accessible à une version archivée payante (sites de journaux par exemple). L’inconvénient est que le webmaster ne peut plus savoir à quelle date (et heure) Google a indexé la page la dernière fois (il peut toujours voir la date de dernier crawl dans ses fichiers logs)
Nocache <meta name= »robots » content= »nocache » /> identique à noarchive, ceci est pris en compte par Bing mais pas par Google
Notranslate <meta name= »robots » content= »notranslate »/> indique à Google que l’on ne souhaite pas qu’un lien Traduire soit affiché à côté du résultat de recherche.
noimageindex

 

<meta name= »robots » content= »noimageindex »/> indique à Google qu’aucune image située sur cette page ne doit être indexée dans Google Images.
Noodp <meta name= »robots » content= »noodp » /> indique au robot qu’il ne faut pas utiliser les données associées au site par les éditeurs de l’annuaire DMOZ (Open Directory Project, ODP).
unavailable_after <meta name= »robots » content= »unavailable_after:25-Aug-2007 15:00:00 EST » /> indique au robot que la page ne doit pas ressortir dans les résultats après la date indiquée (au format RFC 850).
noydir

 

<meta name= »robots » content= »noydir » /> Seul Yahoo gère cette valeur noydir. Elle indique au moteur qu’on ne souhaite pas que les données de l’annuaire Yahoo (Yahoo Directory) soient utilisées.

Syntaxe et utilisation de la balise meta robots

 

  • La balise new_keywords pour Google Actualités

La balise meta news_keywords permet – pour Google Actualités uniquement – d’indiquer des mots clés permettant de mieux décrire un article, notamment si le titre n’est pas explicite.

  • Elle doit être positionnée, comme toutes les balises meta, dans la partie HEAD du code source.
  • Les mots qu’elle contient ne doivent pas nécessairement apparaître dans le contenu de l’article (même si, logiquement, on peut s’attendre à ce que ce soit le cas pour certains d’entre eux). La balise peut également servir pour proposer des synonymes, autres formes de mot (singulier, pluriel ou autres) ou tout terme relatif au contenu de l’article en question.
  • Ces mots clés sont pris en compte dans l’algorithme de « ranking » de Google News mais ils ne suffiront pas, bien sûr, pour que la page soit bien classée dans les résultats pour ces termes s’ils n’apparaissent que dans cette zone.
  • Une virgule doit séparer les expressions ou groupes de mots clés (la virgule est le seul signe de ponctuation autorisé).
  • On peut ajouter jusqu’à dix mots clés ou expressions pour un article. Tous les mots clés ont la même valeur, l’importance accordée au premier n’étant pas supérieure à celle accordée au dernier mot clé.

Exemple d’utilisation :

<meta name= »news_keywords » content= »balise, html, google, actualité, news keywords, seo, référencement, news »>

 

 

Les attributs alt et title

De nombreux webmasters soignent les attributs alt et title (servant à l’accessibilité et à l’affichage de texte alternatif en l’absence d’image), dans les balises images et les liens du code HTML de leurs pages web, pensant que le contenu de ces options est pris en compte comme du texte par les moteurs de recherche.

Exemple de code HTML de ce type :

<img src= »http://www.votresite.com/images/logo.gif » alt= »Mots-clés » title= »Autres mots-clés »>

 

L’attribut ALT fait référence à une alternative (ALT) de texte, qui est intégrée dans le fichier image sur un site web et qui décrit le contenu du graphique en question. Si l’image ne peut pas être affichée pour n’importe quelle raison, le texte de l’attribut ALT intégré apparaîtra. Les moteurs de recherche utilisent cet attribut pour reconnaître le contenu des images, car les fichiers images ne sont normalement pas directement lus.

 

L’attribut title (ou attribut universel), quant à lui, présente à l’utilisateur des informations au sujet de l’image après un léger décalage, quand on passe le curseur sur l’image

 

En théorie, il n’y a pas de limite de longueur de texte pour un attribut ALT. Cependant, il est conseillé de n’utiliser que quelques mots pour décrire de manière informative votre image et pour transmettre les informations essentielles aux moteurs de recherche.

 

URL

L’URL (Uniform Resource Locator) est l’adresse web d’un contenu.

Exemple : http://www.ucac-icam.com/entreprises/formez-vos-collaborateurs/

Si l’URL joue un rôle dans le SEO, son importance reste relative. Le plus important en matière de référencement reste, de bien concevoir les pages, d’offrir des contenus de qualité, d’assurer le maillage interne, de favoriser les liens entrants et de bien structurer le site.

Toutefois, même si l’URL est loin d’être l’élément le plus important pour le référencement, elle peut générer un surcroît de trafic qui mérite qu’on s’attarde sur les points ci-après.

 

  • Choisir un nom de domaine stratégique

Même si il est d’usage de réserver les noms de domaines proches de celui officiel pour éviter les amalgames et les arnaques (par exemple, acheter monsite.com, monsite.org et monsite.net), il est important de ne communiquer que sur un seul nom de domaine sans redirection, contenant si possible un ou deux mots importants (séparés par des tirets) pour l’activité/le produit. Créer en plus des sous-domaines (motclé.monsite.com) permet de faciliter la tâche des internautes et d’augmenter la visibilité dans les résultats des moteurs.

 

  • Créer des URL propres et nettes

Le principal objectif doit être l’amélioration de l’expérience utilisateur. Si Google avait autrefois du mal à indexer les URLs dites exotiques (‘longues et complexes’), ce n’est plus le cas aujourd’hui pour la majorité d’entre-elles. Une bonne pratique est de reprendre le titre <h1> de la page à la fin de l’URL.

Nota :

La réécriture d’URL permet de gérer les situations où la complexité des URLs est liée à la technologie utilisée pour développer le site web.

 

  • Intégrer des mots-clés dans vos URLs

Intégrer des mots-clés pertinents dans ses URLs reste une excellente pratique, non seulement pour leur lisibilité, mais aussi pour leur indexation. Il ne faut toutefois pas en abuser. La présence de 5 mots clés dans une URL est un grand maximum, sous peine de donner une apparence de spam.

 

  • Utiliser des séparateurs de mots

L’espace et l’underscore sont déconseillés pour séparer les mots dans les URLs. Il est préférable d’utiliser des caractères déchiffrables pour les moteurs de recherche, comme le tiret, la barre en biais ou la barre verticale.

 

  • Veiller à la longueur des URLs

Google et les autres moteurs de recherche sont capables d’indexer des URLs longues. La longueur n’est donc pas un problème. Cependant, une telle URL n’est pas très commode à exploiter et les mots-clés éventuels qui la composent risquent d’être « noyés ». Mieux vaut donc créer un URL assez courte.

 

  • Éviter les caractères spéciaux

Même si Google gère généralement bien les caractères spéciaux (accents, majuscules, etc.) dans les URLs, mieux vaut les éviter car leur utilisation génère parfois des erreurs. Miser sur la simplicité et les remplacer par un équivalent non accentué, en minuscule, etc, facilite la tâche.

 

Contenu textuel

Le contenu textuel est un élément crucial d’une stratégie de SEO. C’est lui qui donne la valeur ajoutée la plus significative à votre site. Grâce à cet élément, vous délivrez l’information à vos visiteurs, alimentez et faites vivre votre site lorsqu’il est régulièrement mis à jour. En plus, c’est la richesse de ce contenu textuel qui rend le site visible et pertinent aux yeux des moteurs de recherche.

Voici ci-après quelques directives d’optimisation du contenu textuel.

  • La qualité

L’optimisation SEO d’un contenu textuel passe tout d’abord par la qualité de ce contenu. En effet, la satisfaction de l’utilisateur étant un des critères majeurs de Google, il est important de rédiger et de créer du contenu pour vos internautes dans le but de leur apporter une information pertinente, claire et lisible.

La qualité du contenu va également de pair avec son originalité, car une des règles primordiales pour un contenu optimisé SEO est bien sûr d’éviter le duplicate content.

 

  • L’intégration des mots-clés

Lors de la rédaction du contenu, il est important de penser aux moteurs de recherche. Vous ne rédigez pas pour eux, mais vous pouvez adapter votre rédaction pour attirer leur attention. Intégrez votre champ lexical de mots-clés par exemple pour varier les expressions utilisées et ainsi les insérer de manière naturelle dans votre contenu. Et inutile de répéter votre expression clé à l’infini dans votre texte, concentrez-vous plutôt à la placer avec parcimonie et de façon subtile.

Aujourd’hui, les moteurs de recherche privilégient en parallèle la densité de mots-clés, c’est-à-dire le nombre de fois qu’un terme est répété par rapport au nombre total de mots. En règle générale, la densité maximale conseillée se situe entre 2 et 5 % du contenu (Olivier Andrieu).

 

  • La longueur du contenu

La longueur de votre contenu textuel joue également un rôle par rapport au ranking d’une page web. Afin de comprendre le contenu et le thème d’une page, les moteurs de recherche ont besoin d’un certain nombre de mots.

D’après une étude SerpQI (2012), les pages sortant dans les 5 premières positions sur les moteurs de recherche ont en moyenne une longueur de contenu compris entre 2 300 et 2 500 mots (considérer un seuil minimal de 1 000 mots).

Il est tout de même important de garder à l’esprit l’information et le sujet traité par ce contenu. Rien ne sert de produire de la longueur si cela n’est pas pertinent pour le lecteur.

 

  • Une structure optimisée

Afin d’optimiser votre contenu textuel, structurez-le à l’aide des balises <hn>. Cela vous permet d’obtenir une mise en page claire et logique de votre texte, mais aussi une mise en valeur de vos expressions clés auprès des moteurs de recherche. Soignez donc le contenu de ces balises.

 

  • Le maillage du contenu

Enfin, l’insertion de liens dans votre texte revêt également un rôle important. Le maillage interne est essentiel pour votre SEO, car il permet de démontrer la cohérence de votre site en liant les pages entre elles, et de leur donner une meilleure visibilité. N’hésitez pas non plus à ajouter des liens sortants pour enrichir votre contenu et lui donner du poids en délivrant des informations complémentaires.

 

  • Les avantages d’un contenu textuel optimisé

« Le contenu est roi » sur le web depuis de nombreuses années. Un contenu textuel optimisé permet d’atteindre deux objectifs en même temps. Avec un référencement naturel plus performant, le nombre de visiteurs augmente logiquement, mais également la satisfaction des visiteurs, grâce à la qualité de votre contenu. Ce contenu de qualité qui satisfait les internautes permet ainsi d’acquérir de l’autorité et de la crédibilité aux yeux de Google. Il ne faut pas oublier que la satisfaction de ces utilisateurs est le principal objectif de ce moteur de recherche.

Enfin, l’optimisation du contenu textuel est un moyen pour développer sa notoriété. Un contenu pertinent et visible sur les moteurs de recherche sera effectivement plus facilement partagé sur les réseaux sociaux. Cela permet en même temps d’obtenir des backlinks d’autres sites ayant apprécié le contenu, un bon point pour la notoriété ainsi que le SEO.

Pour mettre toutes les chances de son côté et bénéficier de ces avantages, il peut être utile de s’appuyer sur un rédacteur web qualifié au sein de son équipe si cela est possible ou de sous-traiter cet exercice à un rédacteur professionnel afin de produire des contenus textuels utiles au référencement nature

SEE ALL Add a note
YOU
Add your Comment

Related Courses Widget

Course

GetReady
BP : 13832 Nkolfoulou Yaoundé
Tel: 00237 655 214 000
Email: contact@lets-getready.org

top
© GetReady. Tous droits réservés.
X