Les sujets
Les stages
Vocabulaire
Contacte
Structuration et optimisation de sites
Le rôle de la structuration dans l'optimisation de sites
La structuration d'un site joue également un rôle important dans le référencement des pages Web. Un nombre très élevé de robots, par exemple, ne peut pas suivre plus que trois liens internes. On peut donc dire qu'une page qui ne peut pas être atteint après trois cliques, partant de la page d'accueil, ne sera pas indexée dans de nombreuses bases de données de moteurs à cause de la mauvaise structuration. Une telle page sera donc perdue pour l'optimisation et le référencement.
Structuration et optimisation des pages Web
Un site correctement structuré utilise de propres dossiers pour les fichiers de base, les images ainsi que pour les fichiers qui ne devraient pas figurer dans les bases de données des moteurs de recherche, ce qui facilite également l'utilisation du fichier robots.txt. L'optimisation de sites oblige en plus de créer de sites où chaque page soit atteint après trois cliques.
Le titre principal pour le référencement se trouve entre les balises <TITLE>
et </TITLE>
(<title> et </title> en xhtml). Pour être sûr que ce titre soit optimisé pour les moteurs de recherche et accepté par les robots il doit contenir entre 50 et 80 caractères. Les moteurs de recherche considèrent donc une soixantaine de mots mots suffisants pour un titre optimisé. A cause de cette limitation nous allons donc difficilement trouver plus que trois mots clés à insérer. Il ne nous sert donc pas beaucoup à vouloir optimiser une page pour plus que ces trois mots clé. Pour réussir dans le référencement nous sommes alors souvent obligés de partager le contenu d'une page en deux ou même trois pages pour pouvoir utiliser d'autres mots clés supplémentaires et de très bien choisir ses trois mots clés. En utilisant plusieurs pages, nous avons la possibilité d'optimiser de titres et sous-titres supplémentaires pour les robots qui visitent régulièrement nos pages. Pour réussir en optimisation et référencement il faut toujours appliquer toute technique et tout moyen possible. Cette limitation oblige à penser structuration avant d'écrire les pages et à savoir quels titres et sous-titres seront employés pour chaque page d'un site.
Mais structuration ne signifie pas seulement à créer une navigation complète et rapide et optimisée. En référencement il y a d'autres éléments supplémentaires qu'il faut respecter pour que les pages soient correctement scrutées par les robots et ensuite indexées et référencées par les moteurs de recherche.
En utilisant un fichier robots.txt qui ne devrait pas manquer dans aucun site, nous avons, par exemple, la possibilité de bloquer certaines fichiers et dossiers. Mais si nous ne voulons pas que chaque visiteur cherche justement ces fichiers cachés, il est nécessaire d'optimiser déjà la structuration et de placer ces fichiers dans un dossier que nous "bloquons" entièrement aux robots. Il est donc important de structurer le site de la manière que les pages qui demandent un login, les pages réservés à certaines personnes, les images non destinées aux bases de données ou les pages qui ne comportent pas des éléments à référencer se trouvent dans de dossiers séparés du contenu principal.
En utilisant de pages dynamiques qui ajoutent de numéros de session, modifient chaque fois certaines informations ou ajoutent liens et publicité, donc de pages qu'un robot ne peut pas lire correctement, il faut également les placer dans de dossiers séparés et de ne pas obliger les robots à perdre du temps pour chercher des pages (pour lui) illisibles. Beaucoup de Webmasters oublient d'inclure ces faits dans leur méthode de structuration qui est toutefois le premier pas de création.
L'optimisation des pages par une bonne structuration
Les robots des moteurs de recherche acceptent les sites bien structurés plus facilement que les sites chaotiques. Optimisation de pages Web signifie donc de les intégrer dans une structure déjà présente.
Il ne faut pas oublier qu'un robot qui rencontre un "mur" a la tendance de ne pas référencer le reste du site non plus et de ne plus revenir ensuite. Les dommages qu'une mauvaise structuration peut causer à une entreprise sont donc dévastateurs et sont en règle générale les fautes du Webmaster qui peut être fait responsable pour cette négligence.
Il n'y a presque aucun Webmaster qui, au début de sa carrière, n'a pas essayé de structurer un site au fur et à mesure du procès de la création, même si cela soit en réalité impossible. Cette méthode "chaotique" d'une structuration ne fait que perdre du temps et de ne pas atterrir dans les bases de données des moteurs de recherche et empêche un référencement correcte.
De l'autre côté, les robots n'aiment pas non plus qu'un site de 20 pages dispose de 5 sous-dossiers. Si le site n'est pas assez complexe il ne doit pas comporter de sous-dossiers qui contiennent de pages destinées aux basés de données des moteurs de recherche. Il suffit ici, par exemple, un sous-dossier avec des images à référencer, les images qui ne devraient pas être référencées et un sous-dossier avec les pages protégées par un login ou de fichier en flash, PHP, ASP ou d'autres. La partie dominante d'un tel site doit, selon les règles d'une bonne structuration, trouver sa place dans le dossier racine du serveur.
Une bonne structuration présente, en forme de dessin ou d'organigramme et des notes, un site entier et inclut déjà les noms des pages ainsi que les titres des pages. Les mots clés nécessaires pour le référencement sont donc connu dès que la structuration soit établie.