Generador de robots.txt Controla el rastreo de buscadores

¿Necesitas controlar cómo los motores de búsqueda rastrean tu sitio web? Este generador de robots.txt te permite crear un archivo robots.txt personalizado para indicar a Google, Bing y otros buscadores qué páginas deben indexar y cuáles deben ignorar. Perfecto para profesionales SEO, desarrolladores web y administradores de sitios que quieren optimizar el rastreo de su sitio, proteger contenido privado y mejorar su posicionamiento.

✓ User-agent personalizable ✓ Reglas Allow/Disallow ✓ Sitemap incluido ✓ Crawl-delay configurable ✓ User-agents adicionales ✓ Ejemplos predefinidos ✓ Código listo para copiar ✓ Compatible con Googlebot, Bingbot y más

Crea un archivo robots.txt para controlar cómo los motores de búsqueda rastrean tu sitio web. Define qué páginas indexar y cuáles excluir.

* robots.txt se coloca en la raíz de tu sitio web (ej: https://tusitio.com/robots.txt)

Configuración
Opcional - URL de tu sitemap.xml
Segundos entre peticiones (0 = sin delay)
robots.txt generado

                    
¿Qué significa cada directiva?
User-agent:
Especifica a qué robot aplican las reglas.
Disallow:
Rutas que NO deben rastrearse.
Allow:
Rutas que SÍ pueden rastrearse.
Sitemap:
Ubicación del archivo sitemap.xml.
Crawl-delay:
Tiempo entre peticiones del robot.
Host:
Dominio preferido (espejos).
Ejemplos comunes:
Historial de generaciones

No hay generaciones guardadas

Preguntas frecuentes sobre robots.txt

¿Qué es un archivo robots.txt?

robots.txt es un archivo que se coloca en la raíz de un sitio web para dar instrucciones a los robots de los motores de búsqueda sobre qué partes del sitio pueden o no pueden rastrear.

¿Cómo usar este generador de robots.txt?

Selecciona el user-agent principal, elige entre permitir todo, bloquear todo o reglas personalizadas. Añade user-agents adicionales si lo necesitas, configura el crawl-delay y genera el archivo.

¿Qué diferencia hay entre Allow y Disallow?

Allow indica qué rutas pueden rastrearse. Disallow indica qué rutas NO pueden rastrearse. El orden de las reglas puede afectar cómo se aplican.

¿Qué es crawl-delay?

Crawl-delay especifica el tiempo (en segundos) que un robot debe esperar entre peticiones. Útil para evitar sobrecargar el servidor en sitios con muchos recursos.

¿Robots.txt evita que mis páginas aparezcan en Google?

No completamente. Si otras páginas enlazan a tu contenido, Google puede indexarlo aunque esté bloqueado en robots.txt. Para evitar indexación, usa meta robots "noindex".