Référencement technique (SEO technique)
Le SEO technique regroupe tout ce qui permet aux moteurs de crawler, comprendre et indexer vos pages efficacement : performance, architecture, balises, sitemaps, robots, redirections, duplication, données structurées… C’est la plomberie du SEO : invisible quand c’est parfait, très visible quand ça fuit.
Objectif
Lever les freins : pages trouvables, indexables, rapides, stables, et cohérentes.
Résultat attendu
Meilleure exploration, moins d’erreurs, meilleur crawl budget, et base solide pour le contenu.
Crawl & indexation : les fondations
Avant de parler “positions”, il faut que les moteurs puissent : découvrir vos pages, les analyser, puis les indexer. Sans ça, même le meilleur contenu du monde reste… un secret bien gardé.
Robots.txt
Contrôler l’exploration (bloquer l’inutile), déclarer le sitemap, éviter les blocages accidentels.
Sitemaps XML
Aider à découvrir les pages importantes, surtout celles peu maillées (nouveaux contenus, pages profondes).
Balises meta robots
Gérer noindex/nofollow au cas par cas (ex : pages internes, panier, recherche interne, filtres).
Canonical
Résoudre le contenu dupliqué (variantes, paramètres, facettes) en indiquant la page de référence.
Erreur classique
Bloquer une page dans robots.txt et espérer que le moteur “comprenne quand même”. Robots.txt = pas de lecture.
Architecture & URLs : faire simple, faire propre
- Profondeur : les pages clés doivent être accessibles en peu de clics.
- URLs lisibles : pas de paramètres inutiles, pas d’ID partout, structure stable.
- Maillage : liens internes contextuels + navigation cohérente.
- Pagination : maîtrisée, utile, et sans générer des milliers d’URLs faibles.
- Filtres/facettes : gérer les paramètres (indexation sélective, canonical, noindex selon stratégie).
Objectif
Que les robots (et les humains) comprennent rapidement “où ils sont” et “ce qui est important”.
Performance & Core Web Vitals
La performance influence l’expérience et, indirectement, les signaux SEO. L’enjeu : pages rapides, stables et réactives.
| Indicateur | Ce que ça mesure | Améliorations typiques |
|---|---|---|
| LCP | Affichage du contenu principal. | Optimiser images hero, cache, TTFB, lazyload intelligent. |
| INP | Réactivité aux interactions. | Réduire JS, différer scripts, limiter plugins lourds, optimiser handlers. |
| CLS | Stabilité visuelle. | Dimensions fixes images/iframes, éviter injections tardives, polices maîtrisées. |
Le trio “qui fait gagner”
- Images : formats modernes, compression, tailles adaptées, lazyload.
- Cache : cache serveur + navigateur, CDN si pertinent.
- JS/CSS : réduire, différer, charger uniquement ce qui est utile.
Conseil
Sur WordPress, 80% des problèmes viennent souvent du même endroit : scripts inutiles + images trop lourdes.
Contenu dupliqué & paramètres : dompter les clones
- Variantes : HTTP/HTTPS, www/non-www, trailing slash → une seule version via 301.
- Paramètres : tri, filtres, tracking → canonical/noindex selon stratégie.
- Archives : tags/auteurs/dates → utiles ou à limiter si elles créent des pages faibles.
- Recherche interne : généralement noindex.
Le bon réflexe
Si 10 URLs affichent “quasi la même page”, le moteur se disperse. Le canonical est votre chef d’orchestre.
Redirections, erreurs & hygiène
- 301 : migration / changement d’URL définitif (conserver le signal SEO).
- 302 : temporaire (à éviter en “solution permanente”).
- Chaînes : limiter les 301 → 301 → 301 (perte de perf + complexité).
- 404 : corriger (ou rediriger si équivalent), sinon nettoyer le maillage.
- 5xx : priorité absolue (serveur instable = crawl instable).
Astuce
Une bonne 404 peut exister (page supprimée). Une mauvaise 404, c’est une page importante perdue.
Données structurées (Schema.org)
Les données structurées aident les moteurs à comprendre le contenu et peuvent améliorer l’affichage (rich results) selon le type de page.
- Organization / LocalBusiness : identité, coordonnées, horaires.
- Service : prestations, zones, informations clés.
- Article : blog, auteur, date, image.
- FAQ : questions/réponses si pertinent (et si la page les contient réellement).
- Breadcrumb : fil d’ariane.
Attention
Pas de “schema cosmétique”. Le balisage doit refléter le contenu réel de la page.
Logs & crawl budget : jouer en ligue pro
Sur les sites volumineux, analyser les logs (ou l’activité des bots) permet de voir où le moteur passe du temps, quelles pages sont crawlées trop souvent, et lesquelles sont ignorées.
- Identifier les pages “inutiles” crawlées (paramètres, filtres, pages faibles).
- Mettre en avant les pages stratégiques (maillage, sitemap, performance).
- Réduire les erreurs (404/5xx) pour ne pas gaspiller le budget de crawl.
Livrables recommandés (SEO technique)
Audit technique
Liste priorisée : erreurs bloquantes, optimisations, quick wins, risques.
Plan de correction
Actions chiffrées, responsables, étapes, et impacts attendus.
Table de redirections
Mapping anciennes → nouvelles URLs, avec vérifications.
Recommandations CWV
Images, cache, scripts, priorisation des optimisations.
Checklist SEO technique (avant mise en prod)
- Indexation : sitemap OK, robots OK, pas de noindex accidentels, canonical cohérents.
- URLs : une seule version (https + www ou non), redirections 301 propres, pas de chaînes.
- Erreurs : 404/5xx traitées, pages orphelines corrigées, maillage propre.
- Performance : images optimisées, cache actif, JS limité, pages stables.
- Mobile : responsive réel, interactions fluides, pas d’éléments bloquants.
- Duplication : paramètres/facettes gérés (canonical/noindex), archives maîtrisées.
- Schema : balisage pertinent, validé, aligné avec le contenu.
- Suivi : Search Console, logs/monitoring, alertes erreurs, plan de maintenance.
Conseil de terrain
Quand le SEO technique est bon, on ne le remarque pas. Quand il est mauvais… on le remarque dans les stats (et au moral).