Torna all'indice tools

SEO e Analisi Sito

Validatore robots.txt

Controllo sintassi e direttive principali.

Obiettivo: Prevenire blocchi di crawling involontari.

Validatore robots.txt

Analizza il file che istruisce i crawler: controlla il formato Direttiva: valore, commenti con #, gruppi User-agent e URL Sitemap. Il tool lavora in locale sul browser: nessun upload al server.

robots.txt

Nessun problema rilevato

Sintassi coerente con le convenzioni più usate; verifica comunque su Search Console dopo il deploy.

Dimensione

158 B

Gruppi (~)

2

Regole path

A 1·D 2

Sitemap

1

Esito analisi

Nessun messaggio: il file è vuoto o non presenta problemi secondo queste regole.