Le chiffre d’affaires d’une SAS peut-être augmenté si la SAS vend ses produits sur internet. Il faut que le site soit visible dans les moteurs de recherche, que l’internaute ait envie de cliquer sur le site de votre SAS. Ces 14 étapes doivent permettre d’être plus visible dans Google :
1 – Structuration des contenus
Chacune des pages du site de la SAS doit être bien structurée pour aider Google à les lire et les comprendre à l’aide des balises Title, HN et B. Donnez des attributs Alt à vos images, structurez vos contenus à l’aide de balises schema.org. Les balises Schema.org permettent de mieux expliciter semantiquement parlant, de quoi parle une page web. Elles mâchent le travail à Google pour mieux comprendre un contenu.
2 – Ciblage des bons mots-clefs
Afin de générer du trafic sur un site, il est nécessaire de placer les bons mots-clefs en lien avec l’activité de la SAS, pour obtenir un maximum de visiteurs bien ciblés vers le site de votre société par actions simplifiée. Pour trouver des listes de mots clefs en lien avec votre activité vous pouvez aller sur SEM RUSH, Yooda, ou Uber Suggest.
3 – Lier les contenus avec des liens
Le maillage interne permet de relier des pages d’un site entre elles. Cela aide à renforcer la popularité des pages auprès des moteurs de recherche. Pour cela ajoutez 2-3 liens dans vos pages et organisez les contenus en silo ou cocon sémantique. pour en savoir plus : linking interne : les stratégies performantes
4 – Travailler la sémantique
Google ne se contente plus de chercher des mots-clefs, il est en mesure de comprendre les concepts : plus un texte est riche et travaillé, mieux il est considéré.
5 – Faire des liens externes vers des sites à forte autorité
Dans vos pages, faire quelques liens vers des sites à forte autorité permet de crédibiliser le contenu auprès du lecteur mais aussi du moteur de recherche.
6 – Optimiser la vitesse d’un site
Cette statistique démontre l’importance du temps de chargement d’un site : 4 internautes sur 10 quittent un site qui met plus de 3 secondes à charger. Réduire le temps de chargement est vital
7 – Améliorer le taux de clic
Dans les metas-descriptions en dessous du lien des SERPS, il faut tout faire pour se démarquer des concurrents et donner envie de cliquer sur votre site plutôt qu’un autre. Un texte incitatif et original, l’utilisation de symboles pour attirer l’oeuil feront la différence !
8 – Crawler le site pour détecter les pages en erreur 404
Il se peut que Google n’arrive pas à trouver de pages à cause d’une URL mal construite, d’un lien manquant ou voit des contenus dupliqués. les solutions screaming frog et on crawl permettent de trouver les pages défectueuses et d’améliorer le référencement.
9 – Faire un site adapté au format mobile
La majorité du trafic web va maintenant passer par le mobile. Ce facteur est pris en compte par la firme de Mountain View qui favorisera les pages au langage AMP (Accelerated Mobile Page). AMP est une méthode de création de pages Web pour du contenu statique permettant un rendu rapide. Dans la pratique, AMP se compose de trois parties :
AMP HTML est du HTML comportant certaines restrictions pour assurer des performances fiable, ainsi que certaines extensions permettant de créer du contenu enrichi plus élaboré qu’avec le HTML de base.
10 – Faire un site au format HTTPS
Google favorise les pages au format https dans ses résultats. Attention si votre site est au format HTTP et que vous passez au HTTPS, n’oubliez pas qu’il faut rediriger toutes les anciennes URL (en HTTP) vers les nouvelles (en HTTPS).
11 – Robot txt et Sitemap.xml
Ces 2 fichiers sont à intégrer dans le site de votre SAS. Le protocole d’exclusion des robots, plus connu sous le nom de robots.txt, est une convention visant à empêcher les robots d’exploration (web crawlers) d’accéder à tout ou une partie d’un site web. Le fichier robots.txt, à placer la racine d’un site web, contient une liste de ressources du site qui ne sont pas censées être explorées par les moteurs de recherches. Ce fichier permet également d’indiquer aux moteurs l’adresse du fichier sitemap.xml du site. Par convention, les robots consultent le fichier robots.txt avant d’explorer puis d’indexer un site Web. Lorsqu’un robot tente d’accéder à une page web, comme par exemple http://www.mon-domaine.fr/page.html, il tente d’accéder en premier lieu au fichier robots.txt situé à l’adresse http://www.mon-domaine.fr/robots.txt
Le protocole Sitemaps permet aux webmaster d’indiquer d’une manière simple et claire les pages d’un site web qui doivent être explorées par les robots des moteurs de recherche comme Google, Yahoo! ou Bing. Dans sa forme la plus simple et courante, un sitemap est un fichier au format XML généralement nommé sitemap.xml qui liste l’ensemble des URL d’un site ainsi que des métadonnées facultatives complémentaires qui pourraient leur être associées (date de dernière modification, fréquence de mise à jour, priorité de cette URL par rapport aux autres URL du site), de façon à favoriser une exploration plus intelligente du site par les robots des moteurs de recherche. Le protocole sitemap est soutenu par Google, Yahoo! et Microsoft et est entièrement expliqué et décrit par ces trois sponsors sur le site officiel sitemaps.org.
12 – Partage du contenu sur les réseaux sociaux
Même si cela n’as pas d’impact direct sur le SEO, cela permet de créer plus de trafic qualifié vers votre site et d’envoyer de bons signaux à Google.
13 – Optimisation des URLs
Une URL courte et descriptive permet de générer des liens mieux compris par les moteurs et les visiteurs de votre site.
14 – De l’importance du contenu
Publier des articles longs, complets, un vocabulaire clair, insérer des contenus médias (images, vidéos, documents…), varier les formats des articles : infographies, guides, mettre à jour les anciens articles
Très pertinent avec des idées bien analysées comme article . Je suis du même avis que vous l’optimisation des contenus web permet une bonne visibilité d’un site
J’aimeJ’aime