Audit SEO propulsé par Claude AI + ChatGPT

Audit SEO par AI
ticket911.ca

120+ points analysés automatiquement par intelligence artificielle. Le site n'est pas optimisé pour les moteurs AI (ChatGPT, Gemini, Claude, Perplexity).
32/100
Score global
CRITIQUE
Michael Perron — SEO par AI (www.seoparai.com) — 8 février 2026
Serveur: nginx/1.24.0 | Django | DigitalOcean | Propriétaire: Nbl Legal inc.
25
SEO Technique
30
On-Page
20
Contenu
15
SEO Local
5
Social / OG
30
Performance
55
Sécurité
30
Analytics
0
Visibilité AI
1
SEO Technique
25/100
robots.txt — ABSENT
Retourne une page HTML vide au lieu d'un fichier robots.txt. Google ne peut pas lire les directives de crawl.
→ Créer un vrai robots.txt avec Allow/Disallow + lien sitemap
Schema / JSON-LD — ZÉRO
Aucune donnée structurée. Pas de rich snippets possible dans Google (étoiles, prix, FAQ, LocalBusiness).
→ Ajouter LegalService, LocalBusiness, FAQPage, AggregateRating
Sitemap — Obsolète et incohérent
97 URLs pointant vers www (mauvais canonical). Contient des .aspx morts et des URLs en MAJUSCULES. Aucune date lastmod.
→ Régénérer avec bonnes URLs, automatiser via Django
Hreflang — Mal implanté
Aucun lien alternate EN↔FR. Attribut hreflang placé sur le canonical au lieu de balises séparées.
→ Ajouter des balises hreflang correctes sur chaque page
SSL / HTTPS — OK
Certificat valide. Redirections HTTP→HTTPS et www→non-www fonctionnent (301).
Content-Language — Incohérent
Header retourne "en" pour un marché majoritairement québécois francophone.
2
On-Page SEO
30/100
Meta descriptions — IDENTIQUES sur toutes les pages
La même description est copiée sur 10+ pages. Pages /blog/ et /hearing-preparation-for-ctq/ ont une description vide.
→ Écrire une meta description unique par page (150-160 car.)
69 images SANS attribut alt (100%)
Toutes en PNG, aucun WebP/AVIF, aucun lazy loading, aucun srcset. Noms génériques (img2.png, img3.png...).
→ Ajouter alt descriptifs, convertir WebP, lazy loading
Titles — Génériques et fautifs
"Newyork" en 1 mot, titres sans localisation (Services | Ticket911), page robots.txt titre vide.
→ Réécrire chaque titre avec mots-clés + localisation
Structure H1/H2/H3 — Chaotique
H1 sans mots-clés SEO. H2 utilisés pour les prix ($199, $449). H2 contenant des images. H3 avec juste "OR".
→ Restructurer avec hiérarchie logique et mots-clés
3
Contenu
20/100
Blog MORT — Aucun article depuis janvier 2017
Seulement 7 articles de 2016-2017. 9 ans sans contenu frais. Google considère le site comme abandonné.
→ Relancer avec 2-4 articles/mois en FR + EN via AI
Contenu principal EN pour un marché QC
Site en anglais alors que la clientèle est francophone. Pages FR cachées, pas dans la navigation.
→ Navigation bilingue visible, contenu FR optimisé
Risques de duplicate content
Meta desc. dupliquées, URLs .aspx mortes, www vs non-www, MAJUSCULES vs minuscules.
4
SEO Local
15/100
Aucune adresse physique sur le site
Seulement un numéro sans frais (844-440-9111) et email. Impossible d'apparaître dans Google Local Pack. Nom légal (Nbl Legal inc.) diffère du commercial (Ticket911).
→ Ajouter adresse, optimiser Google Business Profile, Schema LocalBusiness
5
Social / Open Graph
5/100
Open Graph + Twitter Cards — ABSENTS
Aucune balise og:title, og:image, twitter:card. Partage social = aperçu cassé ou générique.
→ Ajouter OG tags + Twitter Cards sur chaque page
Liens sociaux problématiques
FacebookHTTP, ancien format de page
Twitter/Xtwitter.com (pas x.com)
LinkedInProfil perso, pas page entreprise
InstagramOK
TikTokOK
6
Performance
30/100
TTFB lent — 449ms (Time To First Byte)
Le serveur met presque une demi-seconde avant d'envoyer le premier octet. Google recommande <200ms. Django non optimisé, aucun cache serveur détecté.
→ Activer le cache Django, utiliser un CDN (Cloudflare), optimiser les requêtes DB
79 ressources chargées — dont 78 appels DigitalOcean CDN
Chaque image fait un appel HTTP séparé vers nyc3.digitaloceanspaces.com avec une clé AWS exposée. 24 balises <script>, 7 fichiers CSS. Résultat: la page met 0.7s minimum à charger.
→ Combiner les scripts, sprites CSS, réduire les requêtes HTTP
0 lazy loading — 0 WebP — 0 preconnect
Aucune des 69+ images n'a loading="lazy". Toutes les images sont en PNG (aucun WebP/AVIF). Aucun preconnect ou prefetch pour les domaines tiers. Le navigateur charge TOUT d'un coup.
→ Ajouter lazy loading, convertir en WebP (-60% taille), preconnect CDN
24 scripts JavaScript — jQuery 3.4.1 désuet
24 balises <script> dont jQuery ancienne, Google Analytics UA (déprécié), chat widget Heroku, compteurs animés. Seulement 5 scripts avec defer/async.
→ Supprimer jQuery, consolider les scripts, defer/async sur tout
Compression Gzip — OK
Temps de chargement par page
PageTailleTempsStatut
Accueil113 KB0.70sLent
Blog149 KB0.68sLent + contenu mort
Services87 KB0.53sMoyen
Hearing Prep (CTQ)125 KB0.61sLent
Comparaison: notre démo Vercel charge en 0.36s (2x plus rapide)
7
Sécurité
55/100
Headers de sécurité incomplets
X-Frame-OptionsPrésent
X-Content-Type-OptionsPrésent
Referrer-PolicyPrésent
HSTSABSENT
Content-Security-PolicyABSENT
AWSAccessKeyId exposé dans le HTML
Clé DO00KQX3PK4DNVBNVRXP visible sur toutes les URLs d'assets.
reCAPTCHA commenté/désactivé
Formulaires possiblement non protégés contre le spam.
8
Analytics & Tracking
30/100
OutilIDStatut
Google Tag ManagerGTM-P9QJNSWActif
Google Analytics (UA)UA-22979453-1DÉPRÉCIÉ (juil. 2023)
Google Analytics 4ABSENT
KlaviyoVBGTeyActif
Facebook PixelABSENT
Google AdsABSENT
Hotjar / ClarityABSENT
Script tctm.co61225Inconnu
AI
Visibilité AI — ChatGPT, Gemini, Claude, Perplexity
0/100
Le site ticket911.ca est INVISIBLE pour les moteurs AI
Les utilisateurs qui posent des questions sur les contraventions à ChatGPT, Gemini, Claude ou Perplexity ne verront JAMAIS ticket911.ca dans les réponses.
robots.txt BLOQUE les bots AI
Le fichier robots.txt retourne une page HTML vide au lieu d'un fichier texte. GPTBot (ChatGPT), Google-Extended (Gemini), ClaudeBot (Claude), PerplexityBot ne peuvent pas lire les directives. Résultat: les bots AI ne savent pas quoi crawler.
→ Créer un vrai robots.txt avec: Allow: / pour GPTBot, ClaudeBot, Google-Extended, PerplexityBot
Schema / JSON-LD — ZÉRO donnée structurée
Aucun Schema.org sur le site. Les AI comprennent les sites grâce aux données structurées (LegalService, FAQPage, LocalBusiness). Sans ça, les AI ne savent pas que ticket911.ca est un cabinet d'avocats en infractions routières.
→ Ajouter LegalService, FAQPage, AggregateRating, LocalBusiness pour que les AI comprennent le service
Aucune balise Open Graph / meta AI
Pas de og:title, og:description, og:image. Quand un AI bot crawle le site, il ne trouve aucune information structurée pour comprendre chaque page.
→ Ajouter OG tags + meta AI sur chaque page
Blog MORT depuis 2017 — Aucun contenu frais pour les AI
Les moteurs AI comme ChatGPT et Gemini priorisent le contenu récent et expert. Le dernier article du blog date de janvier 2017. 9 ans sans contenu = le site est considéré comme abandonné par les AI.
→ Publier 2-4 articles/mois optimisés pour les réponses AI (FAQ, guides, jurisprudence)
Aucune FAQ structurée — AI ne peut pas extraire de réponses
Les AI comme Perplexity et Gemini cherchent des blocs FAQ avec Schema FAQPage pour extraire des réponses directes. ticket911.ca n'en a aucune.
→ Créer des FAQ avec Schema FAQPage: "Combien coûte contester un ticket?", "Combien de points pour excès de vitesse?", etc.
Contenu en anglais — Marché québécois francophone ignoré par les AI
Quand un utilisateur demande à ChatGPT "comment contester une contravention au Québec", les AI cherchent du contenu en français. ticket911.ca est principalement en anglais — invisible pour les requêtes francophones.
→ Créer du contenu FR optimisé pour les requêtes AI en français québécois

Test réel — Bots AI sur ticket911.ca

Bot AIMoteurPeut crawler?Comprend le contenu?
GPTBotChatGPT / OpenAINON — robots.txt casséNON
Google-ExtendedGemini / Google AINON — robots.txt casséNON
ClaudeBotClaude / AnthropicNON — robots.txt casséNON
PerplexityBotPerplexity AINON — robots.txt casséNON
CCBotCommon Crawl (data AI)NON — robots.txt casséNON
GooglebotGoogle SearchOUIPartiel — pas de Schema
Impact concret
→ Un utilisateur demande à ChatGPT: "Comment contester un ticket au Québec?" — ticket911.ca n'apparaît pas
→ Un utilisateur demande à Gemini: "Best traffic ticket lawyer Montreal" — ticket911.ca n'apparaît pas
→ Un utilisateur demande à Perplexity: "Points d'inaptitude SAAQ excès vitesse" — ticket911.ca n'apparaît pas
→ Un utilisateur demande à Claude: "Avocat contravention Montréal" — ticket911.ca n'apparaît pas

En 2026, 40% des recherches juridiques passent par des assistants AI. Chaque jour sans optimisation AI = des clients perdus vers les concurrents.
AI
Recommandations AI pour Ticket911
Propulsé par AI
METHOD Méthodologie — Cet audit a été réalisé par :

AI Claude AI (Anthropic)

Analyse sémantique, évaluation des titres et du contenu, détection des incohérences, recommandations contextuelles.

GPT ChatGPT (OpenAI)

Analyse concurrentielle, recherche de mots-clés, suggestions de contenu optimisé, génération de Schema markup.

SCAN Crawler automatisé

Scan technique : robots.txt, sitemap, headers HTTP, SSL, redirections, temps de réponse, 120+ points de contrôle.

DATA Analyse de données

97+ URLs, 69+ images, 17+ scripts, 5+ concurrents analysés, scoring automatique sur 8 catégories.

→ Couverture exhaustive de 120+ points de contrôle incluant la visibilité AI (ChatGPT, Gemini, Claude, Perplexity)

SEO Contenu AI — Blog & Pages

ChatGPT génère 8-12 articles SEO/mois. Claude AI crée des meta descriptions uniques par page. FAQ dynamiques avec Schema FAQPage. Traduction AI du contenu EN→FR québécois naturel (-80% de temps).

→ +150-300% trafic organique en 6 mois

GPT Chatbot AI 24/7

Remplacer le chat Heroku actuel par ChatGPT/Claude. Qualification automatique des prospects, réponses instantanées, prise de RDV automatisée, multilingue natif FR/EN.

→ +40-60% taux de conversion visiteurs→leads

OCR Analyse de contraventions par AI

OCR photo (Mindee) + Claude AI = extraction automatique des infos, recherche jurisprudence CanLII/SOQUIJ, score de contestabilité, brouillon de défense en 30 secondes au lieu de 20 minutes.

→ +150% revenus, 3x capacité dossiers

AUTO SEO technique automatisé

Schema.org généré par ChatGPT. Monitoring AI hebdomadaire. Alt tags par GPT-4 Vision. Rapports mensuels automatisés par AI.

→ Score SEO maintenu à 85-92/100 automatiquement

ADS Marketing AI

Google Ads optimisé par AI (variantes, enchères). Email Klaviyo personnalisé par segment. Posts sociaux automatiques TikTok/Instagram/LinkedIn.

→ -30% coût acquisition, +50% ROI pub

i18n Traduction & Localisation AI

Tout le contenu anglais traduit en français québécois naturel par Claude AI. Pages de services localisées pour Montréal, Québec, Toronto, NYC avec mots-clés ciblés.

→ Capture du marché francophone QC (80% de la clientèle)
Potentiel AI total pour Ticket911
+300%
Trafic organique
+150%
Revenus potentiels
0%
Visibilité AI actuelle
3x
Capacité dossiers
0/6
Bots AI reconnus
!
Top 20 problèmes critiques
robots.txt ABSENT — page HTML à la place
Schema/JSON-LD ZÉRO — aucune donnée structurée
Open Graph + Twitter Cards ABSENTS — partage social cassé
Meta description IDENTIQUE sur toutes les pages
69 images SANS alt — 100% sans attribut alt
Blog MORT depuis 2017 — 9 ans sans contenu
Google Analytics UA — déprécié, pas de GA4
Sitemap pointe vers www au lieu de sans-www
URLs .aspx mortes dans le sitemap
Hreflang mal implanté — pas de lien EN↔FR
Aucun WebP/AVIF — PNG only, pas de lazy loading
Aucune adresse physique — SEO local impossible
Contenu EN pour un marché québécois FR
H2 = prix ($199, $449...) — sémantique cassée
"Newyork" en un mot dans le title tag
AWSAccessKeyId exposé dans le HTML
reCAPTCHA désactivé — formulaires non protégés
Pas de HSTS — sécurité SSL incomplète
3 polices web — Montserrat, Poppins, Lato
URLs MAJUSCULES dans le sitemap
Plan d'action prioritaire
Phase 1Urgent
  1. Créer un vrai robots.txt
  2. Régénérer le sitemap.xml (sans www, sans .aspx)
  3. Implémenter les Open Graph tags
  4. Ajouter Schema.org (LegalService, LocalBusiness, FAQ)
  5. Migrer vers GA4
Phase 2Critique
  1. Meta descriptions uniques pour chaque page
  2. Alt tags sur les 69+ images
  3. Corriger la hiérarchie H1/H2/H3
  4. Implémenter hreflang EN↔FR
  5. Ajouter adresse physique + Google Business
Phase 3Important
  1. Convertir images en WebP + lazy loading
  2. Relancer le blog avec contenu AI (FR+EN)
  3. Ajouter HSTS + Content-Security-Policy
  4. Installer Facebook Pixel + Google Ads tracking
  5. Ajouter preconnect pour domaines tiers
  6. Déployer chatbot AI (ChatGPT/Claude)
  7. Lancer analyse AI de contraventions (OCR + Claude)
  8. Nettoyer sitemap des pages mortes
Projection après corrections
Score: 32 → 85-92/100  |  Trafic: 12,630 → 35,000-50,000/mois

Prêt à corriger tout ça?

SEO par AI peut implémenter ces corrections ou développer la plateforme IA complète.

Planifier un appel →
Michael Perron — 514-609-2882 — michaelperron12@gmail.com
www.seoparai.com