Generatore Robots.txt
Crea un file robots.txt perfetto in pochi secondi. Aggiungi multipli user-agent, regole allow/disallow, crawl delay e sitemap - poi copia o scarica istantaneamente.
Genera robots.txt
https://iltuodominio.com/robots.txt
Cos'è robots.txt?
Un file di testo semplice nella root del tuo dominio che indica ai crawler web quali pagine indicizzare.
Cos'è?
robots.txt è posizionato all'indirizzo
https://example.com/robots.txt
e utilizza il Robots Exclusion Protocol per dire ai crawler - Google, Bing, Yandex - quali pagine possono o non possono visitare.
Perché è importante per la SEO
- Previene lo spreco del crawl budget su pagine di basso valore
- Mantiene le aree admin e di staging fuori dall'indice
- Indica ai crawler la tua XML sitemap
- Separa i contenuti dagli URL duplicati con parametri
- Accelera l'indicizzazione delle tue pagine importanti
Sintassi spiegata
User-agent: * - si applica a tutti i crawler
Disallow: /admin/ - blocca questo percorso
Allow: / - consenti esplicitamente l'accesso
Crawl-delay: 10 - pausa di 10 secondi tra le richieste
Sitemap: https://… - link alla tua sitemap
Esempio reale
Errori Comuni da Evitare
Questi errori possono silenziosamente far crollare il tuo posizionamento SEO o esporre pagine private ai crawler.
example.com/robots.txtDomande Frequenti
Disallow dice ai crawler di non visitare un URL.
Un meta tag noindex dice ai crawler di non indicizzare una pagina che possono visitare.
Usa noindex per una rimozione garantita dai risultati di ricerca.
User-agent: applica regole solo a quel bot. Un bot utilizza il blocco corrispondente più specifico; se non esiste, ricade su *.
https://iltuodominio.com/robots.txt direttamente in un browser.