SEO e Analisi Sito
Validatore robots.txt
Controllo sintassi e direttive principali.
Obiettivo: Prevenire blocchi di crawling involontari.
Validatore robots.txt
Analizza il file che istruisce i crawler: controlla il formato Direttiva: valore, commenti con #, gruppi User-agent e URL Sitemap. Il tool lavora in locale sul browser: nessun upload al server.
robots.txt
Nessun problema rilevato
Sintassi coerente con le convenzioni più usate; verifica comunque su Search Console dopo il deploy.
Dimensione
158 B
Gruppi (~)
2
Regole path
A 1·D 2
Sitemap
1
Esito analisi
Nessun messaggio: il file è vuoto o non presenta problemi secondo queste regole.