Crawl Indexation Core Web Vitals Sitemap Robots Schema

Référencement technique (SEO technique)

Le SEO technique regroupe tout ce qui permet aux moteurs de crawler, comprendre et indexer vos pages efficacement : performance, architecture, balises, sitemaps, robots, redirections, duplication, données structurées… C’est la plomberie du SEO : invisible quand c’est parfait, très visible quand ça fuit.

Objectif

Lever les freins : pages trouvables, indexables, rapides, stables, et cohérentes.

Résultat attendu

Meilleure exploration, moins d’erreurs, meilleur crawl budget, et base solide pour le contenu.

Crawl & indexation : les fondations

Avant de parler “positions”, il faut que les moteurs puissent : découvrir vos pages, les analyser, puis les indexer. Sans ça, même le meilleur contenu du monde reste… un secret bien gardé.

Robots.txt

Contrôler l’exploration (bloquer l’inutile), déclarer le sitemap, éviter les blocages accidentels.

Sitemaps XML

Aider à découvrir les pages importantes, surtout celles peu maillées (nouveaux contenus, pages profondes).

Balises meta robots

Gérer noindex/nofollow au cas par cas (ex : pages internes, panier, recherche interne, filtres).

Canonical

Résoudre le contenu dupliqué (variantes, paramètres, facettes) en indiquant la page de référence.

Erreur classique

Bloquer une page dans robots.txt et espérer que le moteur “comprenne quand même”. Robots.txt = pas de lecture.

Architecture & URLs : faire simple, faire propre

  • Profondeur : les pages clés doivent être accessibles en peu de clics.
  • URLs lisibles : pas de paramètres inutiles, pas d’ID partout, structure stable.
  • Maillage : liens internes contextuels + navigation cohérente.
  • Pagination : maîtrisée, utile, et sans générer des milliers d’URLs faibles.
  • Filtres/facettes : gérer les paramètres (indexation sélective, canonical, noindex selon stratégie).

Objectif

Que les robots (et les humains) comprennent rapidement “où ils sont” et “ce qui est important”.

Performance & Core Web Vitals

La performance influence l’expérience et, indirectement, les signaux SEO. L’enjeu : pages rapides, stables et réactives.

Indicateur Ce que ça mesure Améliorations typiques
LCP Affichage du contenu principal. Optimiser images hero, cache, TTFB, lazyload intelligent.
INP Réactivité aux interactions. Réduire JS, différer scripts, limiter plugins lourds, optimiser handlers.
CLS Stabilité visuelle. Dimensions fixes images/iframes, éviter injections tardives, polices maîtrisées.

Le trio “qui fait gagner”

  • Images : formats modernes, compression, tailles adaptées, lazyload.
  • Cache : cache serveur + navigateur, CDN si pertinent.
  • JS/CSS : réduire, différer, charger uniquement ce qui est utile.

Conseil

Sur WordPress, 80% des problèmes viennent souvent du même endroit : scripts inutiles + images trop lourdes.

Contenu dupliqué & paramètres : dompter les clones

  • Variantes : HTTP/HTTPS, www/non-www, trailing slash → une seule version via 301.
  • Paramètres : tri, filtres, tracking → canonical/noindex selon stratégie.
  • Archives : tags/auteurs/dates → utiles ou à limiter si elles créent des pages faibles.
  • Recherche interne : généralement noindex.

Le bon réflexe

Si 10 URLs affichent “quasi la même page”, le moteur se disperse. Le canonical est votre chef d’orchestre.

Redirections, erreurs & hygiène

  • 301 : migration / changement d’URL définitif (conserver le signal SEO).
  • 302 : temporaire (à éviter en “solution permanente”).
  • Chaînes : limiter les 301 → 301 → 301 (perte de perf + complexité).
  • 404 : corriger (ou rediriger si équivalent), sinon nettoyer le maillage.
  • 5xx : priorité absolue (serveur instable = crawl instable).

Astuce

Une bonne 404 peut exister (page supprimée). Une mauvaise 404, c’est une page importante perdue.

Données structurées (Schema.org)

Les données structurées aident les moteurs à comprendre le contenu et peuvent améliorer l’affichage (rich results) selon le type de page.

  • Organization / LocalBusiness : identité, coordonnées, horaires.
  • Service : prestations, zones, informations clés.
  • Article : blog, auteur, date, image.
  • FAQ : questions/réponses si pertinent (et si la page les contient réellement).
  • Breadcrumb : fil d’ariane.

Attention

Pas de “schema cosmétique”. Le balisage doit refléter le contenu réel de la page.

Logs & crawl budget : jouer en ligue pro

Sur les sites volumineux, analyser les logs (ou l’activité des bots) permet de voir où le moteur passe du temps, quelles pages sont crawlées trop souvent, et lesquelles sont ignorées.

  • Identifier les pages “inutiles” crawlées (paramètres, filtres, pages faibles).
  • Mettre en avant les pages stratégiques (maillage, sitemap, performance).
  • Réduire les erreurs (404/5xx) pour ne pas gaspiller le budget de crawl.

Livrables recommandés (SEO technique)

Audit technique

Liste priorisée : erreurs bloquantes, optimisations, quick wins, risques.

Plan de correction

Actions chiffrées, responsables, étapes, et impacts attendus.

Table de redirections

Mapping anciennes → nouvelles URLs, avec vérifications.

Recommandations CWV

Images, cache, scripts, priorisation des optimisations.

Checklist SEO technique (avant mise en prod)

  • Indexation : sitemap OK, robots OK, pas de noindex accidentels, canonical cohérents.
  • URLs : une seule version (https + www ou non), redirections 301 propres, pas de chaînes.
  • Erreurs : 404/5xx traitées, pages orphelines corrigées, maillage propre.
  • Performance : images optimisées, cache actif, JS limité, pages stables.
  • Mobile : responsive réel, interactions fluides, pas d’éléments bloquants.
  • Duplication : paramètres/facettes gérés (canonical/noindex), archives maîtrisées.
  • Schema : balisage pertinent, validé, aligné avec le contenu.
  • Suivi : Search Console, logs/monitoring, alertes erreurs, plan de maintenance.

Conseil de terrain

Quand le SEO technique est bon, on ne le remarque pas. Quand il est mauvais… on le remarque dans les stats (et au moral).

FAQ rapide

Robots.txt ou noindex : lequel utiliser ?
Robots.txt empêche le crawl (la page n’est pas lue). Noindex laisse crawler mais empêche l’indexation. Pour contrôler proprement l’index : noindex est souvent plus adapté.
Dois-je tout optimiser pour les Core Web Vitals ?
Prioriser les pages stratégiques (home, services, landing, pages d’entrée SEO). On vise l’impact business, pas la perfection “sur tout”.
Les plugins SEO suffisent-ils ?
Ils aident pour les balises et sitemaps, mais ne remplacent pas l’architecture, la performance, la gestion des paramètres, la qualité du maillage et le nettoyage technique.