Rich Snippet: Enrichissez le lien de votre site dans les résultats de Google

Les rich snippets sont-ils utiles et si oui quel impact ont-ils en terme de SEO ?

Les Rich Snippets ou textes enrichis en français sont des informations supplémentaires telles que du texte, une image ou encore des avis de consommateurs qui viennent enrichir la description d’un lien qui apparaît dans les résultats de recherche de Google (SERP).

Voici l’exemple d’un de nos clients qui est photographe:

capture d'écran rich snippets

Ici, le rich snippet se matérialise par l’ajout d’une photo du photographe. Aussi anodin que cela puisse paraître, cette photo incitera davantage un internaute à cliquer sur son url car inconsciemment ce type d’information viendra bien souvent le rassurer.

Autant dire que pour les sites d’e-commerce, c’est donc un moyen supplémentaire d’attirer le consommateur  surtout depuis que Google a mis en place des rich snippets spécifiquement pour les e-commercants. En effet, Google leurs donne la possibilité d’enrichir les informations portant sur leurs produits en leur permettant notamment d’afficher le prix et les avis des internautes.

Cependant tous les sites de manière générale semblent y trouver leur compte. La raison principale étant que quelque soit le site, les rich snippets rendent bien plus visible un simple lien dans les résultats de Google.

Toutefois plusieurs questions demeurent, questions que posent très clairement le JDN:

« Quelles sont les conséquences sur le trafic d’un site et plus précisément sur celui issu de Google? »

Selon Aurélien Delefosse « avant que les Rich Snippets ne soient autant généralisés, un résultat en cinquième position qui les affichaient pouvait capter disons autant de trafic qu’un lien classique en première position ». Il est vrai que depuis les Rich Snippets sont de plus en plus utilisés et que les conséquences peuvent être maintenant moins significatives mais celles-ci n’en demeurent pas moins très positives.

A ce titre Aurélien Delefosse souligne aussi que mettre les balises indispensables aux extraits enrichis permet de donner des informations (prix, avis, images) mais aussi d’envoyer des signaux pris en compte et appréciés par le moteur, qui pourra plus facilement bien indexer ces informations. Ces balises peuvent donc également servir de levier pour le positionnement des pages dans les résultats du moteur.

Mais les Rich Snippet sont à manier avec précaution. En effet une photo peut certes donner plus de visibilité à une page dans les résultats, mais elle peut aussi être laide et ne pas donner envie de cliquer. La photo d’un auteur peut aussi ne pas être appropriée au contenu qu’elle accompagne dans les SERP selon le JDN

« Certains e-commerçants les refusent aussi, car cela peut donner un avantage aux concurrents. Ils expliquent que cela reviendrait à envoyer les promotions et prix qu’ils pratiquent par mail à leurs rivaux », témoigne l’expert SEO Aurélien Delefosse. Mais, à part dans quelques cas, l’expert recommande les Rich Snippets, « ne serait-ce que pour avoir la même visibilité dans les SERP que la concurrence ».

Cependant vous vous posez encore sans doute la question du nombre de données structurées ou de rich snippets il est bon de mettre sur une page, si ce nombre est illimité, si une photo portrait issues de Google plus est obligatoire pour la balise auteur ou encore s’il est dangereux de tricher sur le nombre d’étoiles, toutes ces questions sont autant de raisons de faire confiance à une agence marketing pour mettre en place des Rich snippets. Ce type d’action se fait généralement dans le cadre d’une stratégie d’optimisation du référencement de votre entreprise sur le web et vous assure un travail fait par des professionnels qui respectent les codes et règles de Google en la matière.

 

 

 

 

Publicités

mars 25, 2013 at 1:50 Laisser un commentaire

Google Panda et Google Pingouin: A quoi servent-ils et comment agissent-ils sur la toile ?

Google Pingouin est une évolution de Google Panda qui  est actif depuis février 2011, et vient finalement compléter et assister son binôme.  Ils ont  été créés dans le but d’assurer au lecteur la pertinence et la qualité du contenu de ses résultats de recherche.

Pour entrer dans les détails Google panda enquête une fois par mois sur le contenu des sites afin de lutter contre le keyword stuffing (l’accumulation de mots clés pour augmenter son référencement), et les contenus dupliqués.

Alors qu’à l’inverse Google Pingouin traque tous les jours le mauvais netlinking (l’abus de liens entrant et sortant), c’est-à-dire qu’il combat les backlinks de mauvaise qualité ainsi que le spamming et sanctionne les pages fautives.

En d’autres termes, ces deux prédateurs lâchés sur la toile par Google ont pour but de faire la chasse aux sites utilisant des méthodes de référencement abusives qui ne respectent pas les guidelines de google en matière de référencement. Et les sanctions tombent! Disparition de la page concernée, site blacklisté… certains sites ont vu leur trafic diminuer de 80%.

Il est donc important que le webmaster soit conscient que du contenu mal rédigé, bâclé ou recopié d’un autre site peut nuire au classement de son site en entier et désintéresser complètement les visiteurs.

Pour autant cela n’annonce pas la mort du SEO pour 2013 mais bel et bien une redéfinition de la stratégie SEO que mettent en place les agences de marketing. Pour se faire, les professionnels du marketing reconnaissent d’une part la nécessité des mesures prises par Google pour afficher des résultats de qualité dans son moteur de recherche et travaillent d’autre part en adéquation avec celles-ci en mettant en place une stratégie de backlink respectueuse de ces mesures.

Par ailleurs aujourd’hui  plus que jamais le SEO c’est aussi la présence dans le local, le partage social (notamment les +1) les versions mobile et tablette des sites internet. Des tendances qui se poursuivent, s’accentuent  et viennent renforcer le poids du SEO en 2013.

 

 

février 11, 2013 at 12:08 Laisser un commentaire

Le SOLOMO : Une tendance qui se poursuit

L’acronyme SoLoMo est la contraction de trois mots : Social, Local, Mobile. Il désigne la forte tendance du web à s’orienter vers ces trois secteurs.

Avec le SoLoMo, l’objectif de Google est d’apporter aux utilisateurs de Téléphone intelligent une recherche personnalisée.

Du point de vue marketing pur, c’est le retour de la proximité. Ainsi pour une enseigne, c’est en tout cas clairement une bonne manière de gagner de nouveaux clients qui ne la connaissent pas encore.

Pour les PME, le SOLOMO est un excellent outil qui peut grâce au système de géolocalisation optimiser leur présence dans les résultats locaux de recherche, ainsi les PME seront plus visibles sur le web et pourront espérer une nette augmentation de leur clientèle.

De toutes les nouvelles technologies, les Smartphones, les tablettes et les iPod sont celles qui ont vu leur utilisation explosée en l’espace de moins de 2 ans. En seulement 2 années ses produits ont cumulé plus de 50 millions d’utilisateurs. Le phénomène du « mobile » lié à ses produits, est la technologie qui a connu le développement le plus rapide par rapport à n’importe qu’elle autre technologie.

D’après un récent recensement plus de 46% des américains adultes possédaient un Smartphone en 2012, contre seulement 36% en 2011. D’autant plus que 95% des utilisateurs ont effectué une recherche locale (restaurant, dentiste, garage…) et suite à cette recherche 59% ont fréquentés l’entreprise qu’ils recherchaient. Cette nette évolution montre bien le potentiel que dégagent les Smartphones ainsi que les produits comprenant une connexion 3G pour la publicité, d’autant plus que ces téléphones intelligents dispose d’un système de géolocalisation permettant aux entreprises d’attirer les personnes se trouvant à proximité.

Ces technologies ont également entraîné le développement des réseaux sociaux tels que Facebook, Twitter, LinkIn. Les utilisateurs partagent en temps réel leurs photos, leurs statuts, ainsi que leur localisation. Plus de 50% des utilisateurs de Facebook se connecte via un Téléphone Intelligent.

Les connexions à haut débit sont en train de changer la façon dont nous vivons et consommons. Si vous n’avez pas encore effectué le virage mobile… essayez-le afin de développer votre entreprise grâce aux  Smartphones !

janvier 28, 2013 at 3:14 Laisser un commentaire

Le Google Knowledge Graph ou graph de la connaissance…

Le Google Knowledge Graph ou graph de la connaissance…

Google continue de faire évoluer son moteur de recherche en lançant  en 2012 le Knowledge graph.

Il s’agit d’une gigantesque base de données qui regroupe notamment les données de Wikipédia, de freebase ou encore du World Factbook de la CIA.

Ce puissant outils contient plus de 500 millions d’objets et plus de 3,5 milliards de faits et relations entre ces différents objets, se rapprochant ainsi de l’idée originale du créateur du web de créer un web sémantique.

A ce titre, Johanna Wright, chef de produit chez Google disait « Nous sommes au début d’une transformation qui va nous faire passer d’un moteur d’information à un moteur de savoir ».

Le knowledge graph utilise ainsi l’intelligence collective du web  pour vous offrir instantanément des informations pertinentes sur des lieux, des bâtiments ou des personnes que Google connait. C’est un concentré d’informations sous forme de textes et d’images.

Le but a terme est d’apporter toujours plus d’ampleur et de profondeur a la recherche mais aussi une expérience plus satisfaisante, parce que plus poussée, pour l’internaute.  Par exemple, selon Olivier Duffez, consultant indépendant en référencement et créateur du site webrankinfo.com, désormais lorsqu’on tape le nom d’un lac (exemple « Lake Tahoe »), Google pourra afficher directement dans la page de résultats tout un tas d’informations comme l’emplacement géographique du lac, son altitude, sa température moyenne et son degré de salinité.

Toujours selon Olivier Duffez, l’objectif principal de Google est de convaincre les internautes qu’ils doivent continuer à utiliser Google pour faire leurs recherches. L’idée est qu’il faut donner le maximum d’informations à l’internaute, quitte à ce qu’il reste longtemps sur Google et consulte plusieurs pages de résultats. En effet, après une première requête tapée directement par l’internaute (ou dictée !), l’utilisateur aura tendance à cliquer sur les liens proposés dans les encadrés Knowledge Graph. C’est ce qu’observe Google depuis son lancement sur google.com : une forte hausse du nombre de pages vues par internaute. Même s’il s’agit de requêtes indirectes (l’internaute ne les tape plus), l’utilisateur fait davantage de requêtes qu’avant : une sorte d’hyper-recherche.

Attention toutefois : plus de requêtes n’est pas forcément synonyme de plus de revenus publicitaires pour Google, car – c’est un élément paradoxal majeur – les blocs d’information du knowledge graph s’affichent à l’emplacement habituellement réservé aux publicités AdWords. Google prend donc un pari : il est prêt à se couper éventuellement d’une partie de ses revenus AdWords pour renforcer encore l’usage de son moteur par les internautes. « Eventuellement », car sans doute dans la majorité des cas, il n’y avait de toutes façons pas de publicité AdWords sur ces requêtes. Mais au global, Google y gagne de toutes façons, c’est le match de la fidélisation et donc des parts de marché.

Puisque Google ne semble pas vouloir s’arrêter là – à en juger par la série de nouvelles fonctions mises en place cette année  pour proposer à l’internaute la meilleure expérience possible; ne nous en déplaisent d’ailleurs – On a donc bien hâte de voir ce que Google nous réserve pour l’année 2013.
Pour plus d’informations je vous invite à consulter cette page de Google :http://www.google.com/insidesearch/features/search/knowledge.html

janvier 4, 2013 at 11:32 Laisser un commentaire

Le Référencement aussi pour les mobiles!

Le Web mobile est une des nouvelles tendances prometteuses en terme entre autre de référencement.  Selon comScore, 6.6 millions de Canadiens posséderaient un téléphone intelligent à partir duquel ils peuvent naviguer sur le Web. Un sondage Ipsos Reid montre que 20% des propriétaires de téléphone intelligent passent 5 heures et plus par jour sur Internet depuis leur cellulaire.

Il est donc indispensable de considérer l’optimisation du référencement sur le Web mobile. Les sites sont la plupart du temps trop riches en contenu et complexes au niveau technique pour un cellulaire. Quant à l’optimisation dans les SERP, le Web mobile répond à quelques exceptions près aux mêmes règles que les sites Internet sur le Web.

Afin de faciliter l’utilisation d’Internet sur cellulaire, il est primordial d’adapter un site Internet à la nouvelle tendance « mobile ».

La version Web d’un site Internet sera donc conçue de manière différente. Il faudra se retourner vers le Webmaster du site afin qu’il applique les particularités techniques d’un site Web mobile. Il faudra par exemple utiliser seulement des images au format GIP ou JPEG, n’installer aucun redirection automatique, ou encore aucune fenêtre pop-up.

En ce qui concerne le contenu du site Web mobile; il faudra bien évidemment l’adapter quelque peu afin de le rendre plus lisible aux utilisateurs. Il est conseillé de synthétiser le contenu et la navigation.

Adapter un site Internet classique pour les mobiles nécessite un investissement et un suivi régulier. Il faut donc être sûre que la version mobile apportera un plus à votre activité en terme de trafic, ventes, popularité, etc.

Pour plus d’information : http://www.google.com/sites/help/mobile-landing-pages/mlpb.html

 

juin 13, 2012 at 3:47 3 commentaires

Google Maps vs. Google Adresses

Pour beaucoup de gens, la distinction entre Google Maps et Google Adresses n’est pas claire. Nous sommes nombreux à ne pas comprendre ce qui différencie ces deux services proposés par Google.

Google Maps est un service qui permet de visualiser des cartes en zoomant à travers des villes, des rues et de tracer des itinéraires. Par la suite, Google Maps a donné la possibilité aux internautes, grâce à Street View, de déambuler aux adresses de leur choix à l’aide d’images satellites. Google Maps est tout simplement un service de cartographie internet.

Google Adresses est, quant à lui, un annuaire Web permettant de placer les entreprises listées dans le Google Maps. Vous pouvez créer un profil complet de votre business : photo, heures d’ouverture, définition, etc. Il est possible pour les internautes de commenter et d’évaluer les entreprises. Google Adresses vous permet d’apparaître dans les résultats de recherche Google.

Cependant, toutes les entreprises visibles dans Google Maps ne font pas partie de Google Adresses. En effet, Google indexe parfois automatiquement des entreprises grâce à l’adresse fournie dans leurs informations. Toutefois, ces entreprises là ne bénéficieront pas de profils complets. Elles seront uniquement indiquées par la fameuse « épingle rouge » de Google Maps.

Google Adresses permettra à une entreprise d’être indexée de façon la plus optimisée possible grâce au volume d’information que Google permet de fournir. Les résultats locaux apparaissent de plus en plus parmi les résultats généraux de Google. De plus, des études ont montré qu’aujourd’hui nous assistons à une montée des recherches personnalisées surtout au niveau du local, les internautes incluant davantage un nom de lieu dans leurs mots clés.

N’hésitez donc pas à vous enregistrer sur Google Adresses! C’est gratuit! Comptez un délai de 3 semaines pour apparaître dans Google Maps. Vous pourrez ainsi accroître votre visibilité web et avec de la chance, augmenter le trafic de votre site Internet!

Chez Dubuc Marketing, nous désirons vous faciliter la tâche et vous garantir le meilleur référencement possible pour votre entreprise sur le Web. Afin de répondre aux attentes de nos clients, nous nous chargeons de l’inscription et du maintien de votre présence sur Google Adresses.

mai 18, 2012 at 9:41 Laisser un commentaire

L’algorithme de Google change à nouveau!

Google vient d’annoncer son nouvel algorithme faisant suite au fameux filtre Panda de l’année dernière. Cette nouvelle version va permettre de lutter davantage contre le spam. Google veut récompenser les « good guys » qui fournissent un contenu de qualité tout en respectant les règles du net en adoptant une attitude dite de « white hat ». Ceux-ci tentent de déjouer les contrôles de Google afin d’augmenter leur ranking par exemple. Google souhaite faire un tri parmi ceux qui utilisent des techniques frauduleuses allant à l’encontre des directives de qualité instaurées par Google.

Ainsi, avec ce nouvel algorithme, Google va revaloriser les sites qui agissent autant pour leur propre intérêt que celui des internautes. Seront de-même récompensés ceux qui fournissent le maximum de contenu « above the fold ».

Google veut donner à ses internautes la meilleure expérience possible en leur proposant des résultats de qualité maximum.

Avec ce nouvel algorithme, Google espère inciter les sites à créer du contenu de qualité, de la créativité et surtout le respect des règles du net. Vous l’aurez compris; éradiquer le spam sur le web pour plus des résultats optimisés. Il est prévu que ce changement affectera 3% des sites toutes langues confondues (contre 12% avec le filtre Panda).

DUBUC Marketing Inc. se réjouit de cette nouvelle. Nos stratégies de présence Internet ont toujours respecté les chartes Google de qualité. Nous espérons que nos travaux s’en trouveront alors davantage mis en valeur grâce à ce changement d’algorithme.

mai 3, 2012 at 1:20 1 commentaire

Articles précédents


Marques pages

Bookmark and Share Add to Google Reader or Homepage

Catégories