La plupart des sites qui se classent parmi les 20 meilleurs résultats de recherche Google ne répondent actuellement pas aux exigences minimales pour une bonne expérience de page énoncées dans la nouvelle mise à jour Core Web Vitals du moteur de recherche, qui, selon une nouvelle recherche, sera officiellement déployée en juin.

L’étude de Searchmetrics a révélé que 96% des sites Web testés sur des recherches sur ordinateur aux États-Unis et plus de 90% des sites Web testés sur des recherches mobiles ont échoué aux trois seuils de Google Core Web Vitals pour une bonne performance et une bonne convivialité des sites Web et qu’ils risquent que leur classement soit affecté à partir de juin À partir de.

L’étude a analysé plus de 2 millions de sites Web qui figurent dans les 20 meilleurs résultats de Google aux États-Unis, au Royaume-Uni et en WordPress.

Google lance Core Web Vitals pour évaluer et améliorer l’expérience utilisateur Web réelle dans trois domaines

1. Vitesse de chargement du contenu d’une page
2. Réactivité (le temps qu’il faut pour répondre à la première interaction d’un visiteur, comme cliquer sur un bouton ou un lien)
3. Sa stabilité visuelle (la mise en page ou le contenu saute).

Ces signaux sont intégrés dans l’algorithme de recherche de Google, le moteur de recherche visant à donner un coup de pouce au classement des sites Web offrant une bonne expérience.

« Code de ballonnement »

Les raisons de la mauvaise expérience utilisateur mise en évidence dans l’étude incluent l’apparition de «gonflement du code» ou de code inutile sur les pages Web créées à l’aide de modèles inclus dans les concepteurs de sites Web tels que WordPress et Wix, ainsi que du code supplémentaire dans les plugins Web, qui seront tous ralentissez les pages et créez des défis d’optimisation. Un autre problème est le contenu dynamique comme les publicités et les boîtes d’inscription à la newsletter, qui peuvent entraîner un décalage de la mise en page des pages s’ils ne sont pas correctement mis en œuvre.

L’étude Searchmetrics montre qu’il existe déjà une relation positive entre les pages de rang supérieur et les pages qui fonctionnent bien sur les métriques Core Web Vitals (ce qui suggère que Google récompense déjà les sites Web offrant une meilleure convivialité). Une fois la mise à jour officiellement publiée, les Core Web Vitals auront probablement encore plus d’impact sur le classement des pages, selon Searchmetrics.

Actuellement, selon l’analyse de Searchmetrics, seuls les 2 ou 3 meilleurs sites Web classés dans les résultats de recherche obtiennent la note «bonne» requise dans la plupart des métriques Core Web Vitals.

Une exception notable à la tendance générale des premiers résultats était YouTube, propriété de Google, qui occupe actuellement une place élevée dans les requêtes de recherche, bien que les Core Web Vitals fonctionnent mal en termes de vitesse de chargement et de réactivité. Cela peut changer lorsque la mise à jour sera officiellement publiée en juin. Cependant, YouTube peut bénéficier de sa forte notoriété, ce qui permet de surmonter les problèmes d’utilisabilité négatifs individuels.

D’un autre côté, l’encyclopédie en ligne Wikipédia fonctionne actuellement bien sur toutes les métriques Core Web Vitals – cela pourrait être un bon exemple du type d’expérience utilisateur que les autres devraient rechercher. Les bons résultats sont liés à son approche légère de la conception Web, qui utilise principalement du texte et des images optimisées, et au fait qu’il n’utilise pas trop de contenu dynamique comme des publicités qui peuvent rebondir sur la page et créer une expérience négative. .

Qu’est-ce que Core Web Vitals?

Google lance Core Web Vitals pour évaluer l’expérience utilisateur du Web dans le monde réel dans trois domaines: à quelle vitesse le contenu d’une page se charge, à quelle vitesse il répond (le temps qu’il faut pour répondre à la première interaction d’un visiteur, par exemple en cliquant sur un bouton ou un lien) et sa stabilité visuelle (la mise en page ou le contenu saute). Ces signaux sont intégrés dans l’algorithme de recherche de Google, le moteur de recherche visant à donner un coup de pouce au classement des sites Web offrant une bonne expérience.

«La mise à jour de Google Core Web Vitals est à bien des égards une réponse à des sites Web qui ne répondent pas vraiment aux attentes des utilisateurs. C’est un message clair aux propriétaires de sites Web que la non-conformité des utilisateurs peut avoir un impact négatif sur les classements », a déclaré Marcus Tober, fondateur et évangéliste en chef de Searchmetrics. «Nos premiers résultats suggèrent que la plupart des sites Web ont encore beaucoup de travail à faire pour mettre à jour leur convivialité. Et bien sûr, le commerce électronique et les autres entreprises doivent être conscients qu’une bonne expérience utilisateur affecte non seulement leur classement Google, mais a également un impact positif sur l’entreprise. Cela peut aider à générer des conversions et encourager les visiteurs à rester plus longtemps, à s’impliquer et à revenir. « 

Selon Searchmetrics, l’une des raisons de la mauvaise expérience utilisateur mise en évidence dans l’étude est l’augmentation du «gonflement du code» ou du code inutile sur les pages Web créées à l’aide de modèles inclus dans les constructeurs de sites Web tels que WordPress et Wix, ainsi que du code supplémentaire dans le Web. ses plugins ralentissent les pages et créent des défis d’optimisation. Un autre problème est le contenu dynamique comme les publicités et les boîtes d’inscription à la newsletter, qui peuvent entraîner un décalage de la mise en page des pages s’ils ne sont pas correctement mis en œuvre.

L’étude approfondie de Searchmetrics est conçue pour fournir un aperçu des performances du site Web avant la mise à jour de Core Web Vitals. Cinq conclusions clés basées sur des recherches américaines sont:

1) Seuls les sites Web des rangs 1 à 3 offrent une bonne expérience utilisateur pour un chargement rapide du contenu de page important (couleur de contenu la plus grande).

La plus grande couleur de contenu mesure le temps nécessaire pour que la plus grande image ou bloc de texte devienne visible lorsqu’un utilisateur clique sur une page. Pour une bonne expérience utilisateur, Google suggère que cela soit fait dans les 2,5 premières secondes. Cependant, sur les 20 premiers sites dans les résultats de recherche, seules les trois premières positions sont en dessous de ce seuil. Le temps moyen pour les pages répertoriées dans les 20 premières positions est de 3 secondes (21,3% plus lent que le benchmark Google).

2) La plupart des sites Web échouent au test de contrôle des éléments de relocalisation sur leurs pages (relocalisation cumulative de mise en page).

Le décalage de mise en page cumulatif permet de suivre à quel point les éléments sautent ou se déplacent sur une page, ce qui entraîne une expérience utilisateur négative. Et l’analyse montre que la plupart des sites Web font de mauvais résultats à cet égard. Google attribue un score inférieur à 0,1 comme «bon», tandis qu’en dessous de 0,25, il est «à améliorer» – tout le reste est «mauvais». Les principales causes des changements de mise en page incluent le contenu dynamique et les fenêtres contextuelles multimédias telles que les champs ou les publicités «S’abonner maintenant». Selon les données, seuls les résultats de position zéro (extraits de code), que Google place au-dessus des résultats organiques traditionnels pour des réponses rapides à des questions factuelles, obtiennent une «bonne» note. La première position est proche, mais tous les autres résultats de recherche se situent dans la «mauvaise» fourchette (inférieure à 0,25). Le nombre moyen de points ou les 20 meilleurs résultats est de 0,38 (275,6% de moins que la «bonne» note requise par Google).

3) La majorité des sites Web ne répondent pas au référentiel de Google pour une bonne réactivité (First Input Delay).

Le premier délai d’entrée mesure le temps nécessaire à une page pour répondre à une interaction du visiteur, par ex. B. quand quelqu’un clique sur un bouton ou un lien. Étant donné que cela ne peut être mesuré que lorsqu’un utilisateur interagit réellement avec une page, Google suggère d’utiliser le temps de blocage total (TBT) comme une bonne mesure proxy. TBT évalue le temps total nécessaire pour effectuer des tâches qui empêchent l’utilisateur d’interagir avec une page (par exemple, récupérer des images, des vidéos, des scripts, etc.). L’étude suggère que les 5 premiers résultats du classement ont un temps de blocage total moyen de 554 millisecondes – 84,6% plus lent que le « bon » benchmark de Google de 300 millisecondes (la moyenne des 20 premiers résultats de recherche est 136,7% plus lent que le benchmark). Seuls les sites Web répertoriés dans les 2 premiers classements sont systématiquement en dessous du seuil de «bonne» performance de Google. Cela signifie qu’il existe de nombreux sites Web gourmands en ressources avec de longues tâches de chargement qui ralentissent la réactivité des utilisateurs.

4) YouTube se classe en haut, bien qu’il affiche actuellement de mauvaises vitales Web de base

Il a été constaté que YouTube a actuellement de mauvais scores Core Web Vitals pour la vitesse de chargement (LCP) et la réactivité (FID). Lorsque d’autres sites Web fonctionnent mal, on pense qu’ils offrent une expérience utilisateur de mauvaise qualité. Même ainsi, YouTube se classe en haut, probablement en raison de la popularité écrasante de la plate-forme, qui contribue à fournir des signaux positifs aux utilisateurs. La plupart des autres sites ne pouvaient pas se permettre de marquer aussi bas sur les mesures de l’expérience utilisateur individuelle car, selon Searchmetrics, ils n’ont pas le luxe de la notoriété extrême de la marque YouTube.

5) Wikipédia pourrait être le « poster boy » de la nouvelle mise à jour Core Web Vitals

Wikipédia atteint ou dépasse actuellement les seuils de performances de Google Core Web Vitals pour presque toutes les mesures, ce qui signifie que cela pourrait être un bon exemple pour la communauté Web. L’approche simple du site Web de l’encyclopédie en matière de conception Web, qui utilise principalement du texte et des images optimisées, se traduit par le score le plus bas pour la «meilleure couleur de contenu» sur de nombreux sites Web. Il a également une bonne réactivité avec un temps de blocage total de 0 sur de nombreuses pages, ce qui est obtenu en évitant les longues tâches de chargement créées par des plugins, un JavaScript excessif ou des fichiers vidéo volumineux. Et comme il utilise une mise en page relativement fixe pour la majorité de ses pages et limite le contenu dynamique sans publicité, il ne souffre pas du contenu ou de la mise en page qui rebondit.

Le livre blanc complet de Searchmetrics, «Étude CORE WEB VITALS – Avril 2021», fournit des explications détaillées, des données, des informations et des conseils avant de mettre à jour Core Web Vitals. En plus des nouveaux Core Web Vitals, il comprend une analyse de l’impact sur le classement d’un ensemble plus large de métriques d’expérience de page que Google considère comme importantes.

Téléchargez l’étude ici

À propos de l’étude

Searchmetrics a exploré plus de 2 millions d’URL, calculé les chiffres et effectué une analyse de corrélation pour les 20 meilleures positions de recherche organique sur Google. dans trois pays: les États-Unis, le Royaume-Uni et l’Wordpress. Les mots-clés ont été filtrés en fonction de leur pertinence et les ensembles de mots-clés régionaux ont été aussi différents que possible. Les principaux Web Vitals et autres mesures de performances des résultats de recherche ont été mesurés en accédant aux API PageSpeed ​​et Lighthouse. Une fois les données collectées, Searchmetrics a effectué une analyse de corrélation pour calculer un coefficient de corrélation pour chaque métrique de performance. Cette valeur donne l’impression qu’une bonne note dans la métrique sélectionnée est associée à un bon classement des pages. Pour chaque métrique, des moyennes simples ont été calculées pour les 20 et 5 premières positions, ainsi que la proximité de ces valeurs par rapport aux benchmarks de Google.

La source: www.searchmetrics.com



Source link

Recent Posts