Un projet de structuration analytique à fort impact : fiabiliser, automatiser, gagner du temps, et piloter l’acquisition SEO avec précision.
Disclaimer : ce projet repose sur des données confidentielles non exposables. Les chiffres et exemples partagés ici sont illustratifs, mais les mécaniques décrites sont fidèles à la réalité du fonctionnement mis en place.
Quand tu gères un site avec plus de 3500 pages (et plus de 300k si tu comptes le forum), analyser chaque URL à la main n’a plus aucun sens. Il faut des outils pensés pour le pilotage, pas juste pour la restitution.
Contexte et enjeux
En tant que Digital Analyst au sein de la Direction Marketing du groupe Matmut, j’ai intégré une équipe en pleine réorganisation, dans le cadre d’une création de poste. Le besoin était clair : structurer, fiabiliser, et automatiser l’analyse SEO sur un périmètre vaste, critique et historiquement peu centralisé.
Un volume ingérable sans structuration
Avec plus de 3500 pages actives sur le site principal, un forum de plus de 300 000 pages, et des dizaines de sous-domaines ou sites satellites, la volumétrie SEO du groupe Matmut rendait toute analyse manuelle irréaliste. Chaque chef de projet (SEO, SEA, partenariats...) disposait de ses propres tableaux, souvent sur Excel, sans structure commune ni outil transverse. Résultat : une charge analytique importante, des interprétations souvent hétérogènes, et un risque de perte de cohérence globale.
Des enjeux critiques à chaque mouvement
Dans un environnement aussi concurrentiel que l’assurance, une variation de position de 0,3 point sur une requête générique à fort volume peut avoir des conséquences directes sur les leads générés, la pression publicitaire sur certains produits, ou la capacité du groupe à capter l’attention en amont du tunnel.
Jusqu’alors, le pôle acquisition s’appuyait principalement sur le pôle marque pour des analyses secondaires. Mais il manquait un suivi SEO de premier niveau, consolidé, temps réel, et surtout orienté pilotage : un outil capable de restituer la performance par entité, par requête, et par page, avec une finesse suffisante pour guider les arbitrages quotidiens.
Des contraintes fortes sur la souveraineté de la donnée
Le projet comportait une contrainte majeure : la Matmut protège strictement sa donnée. L’usage de solutions SaaS non françaises ou de plateformes basées sur des modèles prédictifs posait problème. À l’exception de GSC et Piano Analytics (solutions compatibles RGPD et hébergées de manière conforme), l’essentiel des outils du marché (Semrush, Ahrefs, Sistrix...) ne convenaient ni aux exigences de sécurité, ni à la lecture granulaire attendue.
Ces outils peuvent être utiles pour une veille concurrentielle ou une photographie à large échelle, mais ne permettent pas une interprétation fine, quotidienne et propriétaire des positions, intentions ou performances SEO. Il était donc essentiel de construire une solution sur mesure, à partir de sources internes, fiables, validées par la DSI.
Une solution pensée pour la réactivité et l’autonomie
Le dashboard conçu répond à un double objectif : accélérer la réactivité analytique (lecture quotidienne, hebdomadaire, glissante) et permettre aux équipes SEO et aux chargés d’études d’exploiter eux-mêmes la donnée, sans dépendance à des exports ou à des outils fermés.
Il croise les données issues de GSC, Piano et autres sources internes, pour offrir une lecture consolidéepar page, par requête, par entité métier, dans un format à la fois stratégique et opérationnel. C’est aujourd’hui un pilier du pilotage SEO — utilisé aussi bien par les équipes opérationnelles que la direction.
Problèmes identifiés
- Suivi SEO fragmenté, non opérationnel : aucune interface unique ne permettait de suivre l’évolution des positions ou du trafic sans passer par des exports manuels fastidieux
- Absence de vision transverse : chaque BU analysait ses performances dans son coin, sans référentiel partagé ni possibilité de benchmark inter-équipes
- Écosystème d’outils hétérogène : GA4, Piano, GSC, Semrush… sans passerelle consolidée ni logique d’unification, les données restaient cloisonnées et difficilement exploitables
- Fiabilité des données SEO tierces limitée : la plupart des outils du marché reposent sur des modèles prédictifs ou extrapolés, incompatibles avec l’exigence de précision attendue. Certains outils connus se trompent de plus de 30%.
- Perte de temps considérable pour la production de reporting hebdo/mensuels — jusqu’à plusieurs heures par analyse, sans garantie d’exhaustivité ou de cohérence
2. Design du dashboard
- Filtres dynamiques : marque/hors marque, période, canal, business unit, device, mot-clé, type d’intention
- Graphiques évolutifs : performance requêtes, positions moyennes, évolution CTR
- Suivi haute fréquence : des tops 1–3, 4–10, 11–20, 30–100 (requêtes vs pages vs clics)
Méthodologie mise en place
1. Architecture de la donnée
- Lecture simplifiée des données GSC (requêtes, pages, positions) dans un modèle Looker Studio unifié
- Nettoyage et harmonisation des dimensions critiques : requêtes, type de device, marque vs hors-marque, pages agences vs pages hub
- Création d’un dictionnaire de KPI partagé : impressions, clics, CTR, position moyenne, variation de position, taux de clic hors-marque, etc.
- Distinction entre période N-1, T-1 et A-1 pour juger et considérer la saisonnalité.
- etc...
2. Segmentation sur-mesure et souveraine
Pour contourner les limites des outils SEO du marché — souvent basés sur des modèles d’estimation ou de projection — j’ai mis en place un système de segmentation propriétaire, directement à partir des requêtes Search Console, en régEx, et sans perte de granularité.
- Distinction entre marque et hors-marque : grâce à un pattern de plus de 70 variantes orthographiques, fautes de frappe et phonétiques, chaque requête est catégorisée proprement (ex.
matmaut
,maatmut
,mutmat assurance
, etc.) - Segmentation par Business Unit via les URLs : chaque page est rattachée automatiquement à une entité métier grâce à un mapping des chemins d’URL (ex.
/auto/
,/sante/
,/prevoyance/
,/ociane/
, etc.), ce qui permet une analyse consolidée ou isolée par produit ou service - Découpage des positions stratégiques : segmentation des performances en zones claires (1-3, 4-10, 11-20, etc.) pour faciliter la lecture business des mouvements
- Identification des pages agences : distinction des requêtes locales pour analyser indépendamment les performances des entités de proximité (agences, implantations territoriales)
Cette structuration permet d’aligner les indicateurs sur la réalité terrain des équipes métiers, d’exclure les requêtes “bruitées” ou inutilisables, et de se concentrer sur les zones à fort levier.
3. Construction du dashboard Looker Studio
- Création de vues dynamiques par entité, levier, intention ou typologie de page
- Intégration de filtres interactifs : période, BU, marque/hors-marque, zone géographique
- Export PDF mensuel automatisé pour les directions et intégration dans les points hebdo métiers
Résultats obtenus
- Dashboard SEO consultable en autonomie, sans extraction Excel
- Réduction de 80 % du temps d’analyse pour les chefs de projet et moi-même
- Vision consolidée de l’évolution des requêtes stratégiques (par jour/semaine)
- Gain de réactivité : détection quasi immédiate d’une baisse de position critique
Un projet duplicable et scalable
Ce socle a été conçu pour évoluer. Il est déjà prêt à intégrer de nouveaux segments (Marques satellites, Forum, pages locales), et peut facilement être adapté pour d’autres canaux (YouTube, App Store SEO, etc.).
La granularité par page, par requête, par entité permet une **lecture à 360°**, que ce soit pour une analyse ponctuelle, un audit de fond, ou une veille concurrentielle continue.