Aucun lien entre un trafic web élevé et contenu de qualité

Beaucoup de personnes pensent qu’avoir beaucoup de trafic web sur une page signifie que celle-ci est de qualité. Google vient de démentir cette croyance sur Twitter.

Selon John Mueller, le trafic web n’est pas une mesure de la qualité d’une page ou d’un site. Il peut arriver que le contenu soit très bon mais tellement spécialisé qu’il ne rapporte pas visites mais, cela n’a rien à voir avec la richesse ou la pauvreté de son contenu texte ou média.

Si une page web ne reçoit pas le nombre de visites espéré, il faudrait peut-être revoir certaines choses sur le site, notamment la stratégie de référencement, en reconsidérant les attentes et questionnements des utilisateurs via les requêtes et mots-clés.
En tous cas, le trafic web ne doit pas être le seul indicateur pour juger de la qualité d’un site internet.

Rappelons que la dernière mise à jour de Google concernant son algorithme de recherche appelée la mise à jour du contenu utile (helpful content update en anglais), a justement pour but de repérer les contenus de faible qualité et jugés peu utiles par rapport à d’autres contenus similaires.
Dans son blog pour développeurs, Google donne des indications pour nous aider à créer et évaluer soi-même un contenu de qualité.

ne pas copié : contenu dupliqué

SEO : c’est quoi exactement un contenu dupliqué pour Google ?

Créer des contenus originaux, que ce soit dans la rédaction d’articles web ou de vidéos, est un vrai casse-tête pour ceux qui gèrent et animent un site internet. Il est vrai qu’il est souvent difficile de trouver l’inspiration tant on a l’impression que tout existe ou a déjà été dit sur Internet. Cependant, si l’on souhaite attirer des visiteurs avec le SEO, l’on sait pertinemment que Google n’aime pas les contenus dupliqués, au risque de subir une pénalité. Mais au fait, c’est quoi au juste un contenu dupliqué pour Google et par extension en SEO ?

Définition du contenu dupliqué ou duplicate content, en anglais, pour Google 

Un contenu dupliqué est :

– un contenu dont les images, textes, vidéos, documents,.. sont issus d’un contenu protégé par des droits d’auteurs ;

– un site qui copie et publie le contenu d’autres sites, sans y ajouter son propre contenu et qui n’apporte finalement aucune valeur supplémentaire au lecteur et/ou visiteur. Par exemple, celui-ci se contente de réécrire manuellement les articles originaux en remplaçant les mots par des synonymes ou par des techniques automatisées comme avec les outils de rédaction automatisée, avant de les republier. Ainsi, avec peu ou pas de modifications du tout, c’est un site qui reprend les contenus d’autres sites et qui devient par là sans réel intérêt pour les utilisateurs.

Contre les contenus dupliqués : ce que veut Google 

Créer des contenus “ maison “

Pour éviter que vos pages web soient perçues comme du contenu dupliqué par Google, il est essentiel de créer des contenus “ maison ”, signe de votre originalité et de votre expertise. Cela peut être : un retour sur votre expérience personnelle, une histoire drôle ou encore vos propres idées, une critique personnelle ou bien l’analyse de vos propres contenus, etc.. Ces contenus doivent être uniques et non une copie d’autres sites. 

Éviter de cannibaliser votre propre site

Mais un contenu dupliqué peut aussi provenir de votre propre site internet. C’est le cas lorsque un même contenu est répété sur la même page ou sur plusieurs pages de votre site internet.
Dans le SEO, quand il s’agit d’optimiser un site on se rend compte souvent que beaucoup de pages sont identiques ou ont un contenu qui se ressemble beaucoup. Dans ce cas, il faut choisir entre se concentrer sur le développement et l’enrichissement de chaque page ou  fusionner ces pages en une seule. 

Mettre en place des Urls canoniques

Il n’est pas rare que deux pages web aient des contenus copiés, l’une en version www et l’autre en https ://, par exemple. Il ne s’agit pas là forcément d’une tromperie délibérée à l’encontre du moteur de recherche ; peut-être que le but recherché est tout simplement de les rendre accessibles en fonction de la version d’url tapée par l’internaute. Cependant, avoir beaucoup de copies d’une même page risque de compliquer l’indexation de ces pages par le moteur de recherche qui peut hésiter dans le choix de la page à mettre en avant pour répondre aux recherches.
Si le site a plusieurs copies d’une même page, il faut aider Google dans le choix de l’url à privilégier à l’aide d’une page canonique.

Éviter le même contenu sur plusieurs domaines ou sites internet différents

Cela est bien souvent fait dans le but de manipuler les moteurs de recherche ou pour avoir plus de trafic. Ces contenus n’apportent rien de nouveau aux visiteurs s’ils tombent sur des contenus vus et répétés plusieurs fois dans les résultats de recherche.

En résumé, pour créer du contenu sur son site qui apporte de la valeur à l’internaute, il ne faut pas perdre de vue qu’il est important de :

– créer du contenu original et d’éviter de plagier d’autres sites;

– veiller à supprimer les contenus en double sur son site web pour ne pas compliquer l’indexation des pages de notre site par le moteur de recherche;

– éviter les doublons de contenus sur plusieurs domaines qui risquent d’impacter négativement notre performance dans les résultats naturels mais aussi dans une stratégie de monétisation, s’il y a lieu;

– privilégier un contenu unique.

Source : https://developers.google.com/

Audit SEO gratuit - analyse globale du référencement naturel

Meta-description : Google publie un document d’aide

Google a mis en ligne sur son blog pour développeurs un article sur la meilleure façon de rédiger une description dans une balise Meta description.

Le rôle de la balise Meta description

La balise Meta description sert à informer les internautes sur le contenu de la page de manière succincte tout en leur donnant envie de cliquer sur la page pour la visiter.
Google rappelle que la balise Meta description n’a pas vraiment de limite de caractères mais si elle est trop longue, elle n’apparaîtra pas en entier dans les résultats de recherche. 

Pour éviter cela, il est recommandé de limiter sa longueur à 160 caractères.

Rédiger une bonne Meta description 

Exemple à l’appui, il indique la méthode adéquate pour rédiger une description de page susceptible d’obtenir du trafic :

-une description par page

-chaque description doit être unique

-la description est un résumé de la page

-les informations spécifiques de la page y sont détaillées

-la description doit être pertinente

Cet article de Google n’apporte rien de nouveau sur le SEO mais c’est plutôt un rappel des bonnes pratiques à adopter aussi bien pour ceux qui découvrent l’univers du SEO que les expérimentés.

Source : https://developers.google.com/

Voici les 5 stats sur le SEO que vous devriez connaître

Si vous gérez un site web, vitrine ou e-commerce, et que vous vous demandez si optimiser le référencement naturel est si important que cela, alors les statistiques SEO qui vont suivre devraient vous intéresser.

93% des expériences en ligne débute avec un moteur de recherche

Internet a pris tellement de place dans nos vies que la première chose que nous faisons quand nous voulons une information c’est de lancer un moteur de recherche.

60% des internautes cliquent sur un des 3 premiers résultats

Il s’agit là des résultats organiques et non des résultats sponsorisés. Le premier résultat organique, soit celui positionné de manière naturelle, truste près de 32% des taux de clics. Il a 10 fois plus de chances d’obtenir un clic que le résultat en position 10.
La dernière étude sur ce sujet menée par Seoclarity et parue en novembre 2021 montre que :

-sur PC, le taux de clic est de 8,17% pour le premier résultat naturel, 3,82% pour le second et de 2,43% pour le troisième. Le dixième ne récolte que 0,44%.

-sur mobile, la première position en référencement naturel collecte 6,74% des clics, 3,41% pour la seconde position et 2,50% pour la troisième. La dixième est à 0,48%, légèrement plus que sur PC.

Rédiger une balise description attractive est plus que jamais primordial pour favoriser les clics des internautes.

Une requête c’est 2 ou 3 mots

Une autre statistique SEO intéressante concerne la longueur des requêtes. 2 ou 3 mots, c’est le nombre de mots contenus dans une requête. Les mots-clés à plus de 10.000 recherches par mois ne comportent que 2 mots, d’où l’importance de faire une analyse de mots-clés bien ciblée.
Pour info, seuls 8% des recherches sont faites sous forme de questions.

La première page de résultat drainent plus de clics

75% des internautes ne vont pas plus loin que la première page de résultat quand ils font une recherche sur un moteur de recherche tandis que 59% ne vont visiter qu’une seule page et seulement 9% iront scroller jusqu’en bas de la première page.

Les moteurs de recherche, vecteurs de trafic

Les moteurs de recherche créent 300% plus de trafic visiteurs que les réseaux sociaux et quant aux publicités ciblées, 4 personnes sur 5 préfèrent ne pas cliquer dessus et ça, c’est une statistique SEO qui doit nous aider quant à la meilleure stratégie webmarketing à adopter pour drainer des visiteurs vers notre site internet.

Ces statistiques SEO démontrent combien ce serait une erreur en 2022 de ne pas mettre en place de stratégie de référencement naturel pour votre site internet.

Source : https://www.webfx.com/blog/marketing/marketing-stats/

Google page experience pour un bon referencement google

Mise en service imminente sur PC du critère SEO Google Page expérience

Après son déploiement sur mobile, la Google Page Experience est actuellement entrain d’être intégrée sur PC  et ce jusqu’en mars 2022.

C’est une mise à jour d’importance majeure dans le SEO (l’optimisation du référencement naturel) puisque le moteur de recherche intègrera désormais l’expérience utilisateur sur une page web comme critère SEO. C’est donc une nouvelle étape dans l’évolution de l’algorithme de Google.

Elle mesure la manière dont les visiteurs perçoivent les interactions sur une page web. C’est un critère qualitatif qui ne tient toutefois pas compte de la valeur purement informative de la page.

Pour mesurer l’expérience utilisateur sur une page web, Google prend en compte 3 indicateurs que sont les signaux web essentiels à savoir :

  1. La vitesse de chargement par le biais de l’indicateur LCP dès les 2,5 premières secondes de chargement
  2. l’interactivité avec l’indicateur FID qui mesure le temps entre le moment où le visiteur clique pour interagir la première fois sur une page web, sur un lien ou sur un bouton, et le moment où le navigateur est prêt à traiter cette action.
  3. la stabilité visuelle de la page (CLS) qui mesure les décalages de mise en page qui font que lorsque l’on clique sur une page, les éléments sautent et notre clic se fait sur autre chose.

Au-delà de cela, d’autres éléments rentrent dans ce métrique comme :

  • l’adaptation sur mobile ou mobile friendly
  • la sécurité du site internet avec la présence du protocole Https
  • l’absence de contenus intrusifs comme les bannières publicitaires qui prennent trop de place et empêchent d’accéder au contenu ou les interstitiels cookies mal placés, etc.

Il est possible de voir quels sont les signaux web essentiels de votre site internet qui pénalisent votre SEO avec l’outil gratuit de Google Lighthouse. Pour l’obtenir, il suffit de télécharger l’extension dans Chrome.

A voir dans le temps si un mauvais score d’expérience de Page peut suffire à pénaliser un site web dans le classement des résultats de recherche, soit le positionnement des résultats suite à l’optimisation du référencement naturel.

La base du SEO

Pour placer votre site internet dans les premiers résultats de Google, il est impératif de maîtriser les techniques SEO recommandées par les moteurs de recherche.

Définition du SEO

Le SEO ou Search Engine Optimization en anglais regroupe l’ensemble des techniques pour améliorer le trafic des visites sur un site internet et le placer dans les premiers résultats des moteurs de recherche.

Travailler pleinement le SEO de votre boutique en ligne, page web après page web, prend beaucoup de temps. Cependant, il vous est possible d’obtenir des résultats en optimisant quelques critères comme :

  • les balises Metas
  • les liens entrants et sortants
  • le maillage interne

Ceci accompagné d’un contenu riche à destination de votre cible devrait bien vous positionner sur les moteurs de recherche et normalement, le nombre de visites devrait augmenter.

Les avantages et les inconvénients du SEO et du SEA

Voici une petite comparaison sous forme d’infographie qui explique les avantages et les inconvénients des deux principales stratégies marketing sur les moteurs de recherche, le SEO et le SEA :

Le SEA

Le SEA pour Search Engine Advertising en anglais désigne les campagnes publicitaires sur les moteurs de recherche qui se font principalement sur Google (Adwords) et Bing (bings Ad).
Plus éphémère, le SEA peut être réservé à de l’évènementiel (lancement de produit, fêtes, etc.) ou pour booster vos campagnes e-marketing.

Le SEO

Le SEO (Search Engine Optimization) fait référence aux techniques pour optimiser le classement des sites internet sur les moteurs de recherche.
Le SEO est une technique faite pour améliorer le positionnement d’un site internet dans la durée, c’est pour cette raison que l’on dit qu’il est plus rentable à moyen et long terme que le SEA.

Cependant, on a souvent tendance à opposer ces deux stratégies alors qu’elles sont plutôt complémentaires pour améliorer la visibilité d’un site internet sur les moteurs de recherche comme Google et acquérir plus de trafic.

Voici ci-dessous une infographie pour vous donner une idée des avantages et des inconvénients du SEO et du SEA.

référencement Google - SEO et SEA comparatif

Voici les 5 erreurs à ne pas faire pour bien optimiser son contenu web

Pour être bien référencé sur Google, il faut du contenu pertinent (textes et images) qui respecte les critères de référencement naturel. Toutefois, certains facteurs ne doivent pas être négligés, même si le contenu est de qualité. Voici les 5 erreurs à ne pas commettre pour ne pas entraver le référencement naturel de vos pages web et être bien référencé dans Google :

Un site internet qui n’est pas mobile friendly et mobile-first

Désormais, depuis juillet 2019, Google se base sur la version mobile de votre site internet pour positionner celui-ci. Un petit conseil : si vous tenez à être bien référencé sur Google, le n°1 des moteurs de recherche, vérifiez sur la Search Console que votre site web est visible sur les tablettes et les smartphones et suivez les conseils de Google pour corriger les éventuelles erreurs qui empêcheraient leur indexation par les robots de Google.
En effet, certains contenus, bien que visibles sur la version PC, sont difficilement cliquables ou visibles sur mobile, autrement dit : ils ne sont pas responsive. C’est souvent le cas des formulaires ou des boutons cliquables qui se chevauchent sur la version mobile.

Un site qui n’est pas en html

Les développeurs privilégient bien souvent le Javascript pour générer le style et le contenu des pages web. Or, cela peut rendre ces dernières moins performantes voire inaccessibles, sans parler du fait que certains navigateurs n’affichent pas certaines fonctionnalités selon les utilisateurs.
Même si le site s’affiche correctement sur ordinateur, il peut y avoir des soucis de responsive design empêchant l’affichage sur mobile, ce qui vous prive d’un grand nombre de visiteurs potentiels. Il faut garder en tête que les robots ou crawlers des moteurs de recherche privilégient les contenus développés directement en Html. Il vaut mieux réserver le Javascript pour les applications.

Indexer vos pages web en mode preprod

Si lors de la création de sites web, la version test ou preprod est indispensable, indexer cette version preprod nuit gravement au référencement naturel de votre site internet.
Pour éviter cela, il vaut mieux utiliser les balises noindex et nofollow durant le processus de création de site internet et avec un accès restreint par mot de passe. Cela évitera que les crawlers des moteurs de recherche indexent plusieurs versions de votre site internet. Par contre, une fois le travail terminé, n’oubliez pas d’enlever les noindex/nofollow pour indexer le contenu définitif mis en ligne et faciliter le travail des crawlers (robots) pour être bien référencé dans Google.

Ne pas utiliser la pagination pour vos contenus

Quand on a grande quantité de contenus à présenter, la pagination est conseillée pour améliorer l’expérience utilisateur. Elle a pour avantage de faciliter la navigation sur votre site internet car, le visiteur de votre site web pourra décider soit d’afficher plus de résultats, soit de décider du nombre de pages qu’il souhaite voir. Mais, elle ne doit pas être systématique au risque d’avoir certaines pages avec peu de contenus à présenter aux moteurs de recherche.

Négliger le temps de chargement des pages web

La vitesse de chargement d’une page web est un critère primordial en SEO, ne serait-ce que pour l’expérience utilisateur qu’il propose. Pour optimiser le chargement d’une page web, il faut mettre l’accent sur un hébergement web et une configuration serveur au top. Eviter aussi le trop plein de publicités, de carrousels et autres contenus media qui vont venir grignoter sur la vitesse de chargement de vos pages et faire fuir les visiteurs de votre site. Optimiser la vitesse de chargement de ses pages web est le BA-ba pour être bien référencé sur Google.

Avant d’envisager tout travail d’optimisation de référencement naturel sur votre site internet, faites appel à un expert SEO ou à un de nos consultants SEO pour un audit SEO préalable de votre site web.

Sources : Journal du net

Bing lance un outil de vérification des Urls

Bing Webmaster Tools a développé et mis en place un outil pour vérifier la qualité des Urls d’un site internet.

L’outil est simple d’utilisation : il suffit d’indiquer l’Url d’une page web pour obtenir des précisions sur la page en question ainsi que des conseils sur les améliorations possibles. L’outil analyse :

  1. l’indexation : il donne des précisions sur l’état de l’indexation de la page web et les détails de l’Url à savoir la date et le lieu où l’Url a été explorée et indexée. Il est également possible de voir sa version Html ainsi que les détails de la réponse HTTP;
  2. le SEO : il vous dit quelles sont les erreurs et les avertissements relatifs au référencement naturel de la page web. Il analyse 15 critères SEO et vous donne les erreurs potentiels avec le code Html correspondant et les différentes étapes pour les rectifier. On peut aussi avoir les erreurs qui apparaissent telles qu’elles apparaissent sur Bing;
  3. les détails du MarkUp : cela concerne les balises structurées (schéma.org, microdonnées Html, Json-LD, etc.) présents dans le code source de la page web afin que Bing puisse lire les informations correctement;
  4. la validation en direct : cela peut-être utile si l’on souhaite juste savoir si la page web est explorable ou non, sans forcément vouloir demander son indexation.

Cette outil est mis à disposition des webmasters mais aussi à tous ceux qui sont chargés du SEO d’un site web comme les consultants SEO. Cela leur permet d’avoir des informations structurées et précises pour les aider à mettre à jour le contenu d’une page et pour améliorer son positionnement dans les résultats du moteur de recherche.

Sources : https://blogs.bing.com/