top of page

robots.txt

SEO Técnico

¿Qué es el archivo robots.txt y por qué es esencial para el SEO?

El archivo robots.txt es un documento de texto ubicado en la raíz de un sitio web que indica a los bots de rastreo (crawlers) qué carpetas o páginas no deben acceder ni indexar.


Forma parte del estándar Robots Exclusion Protocol y no garantiza la seguridad de los archivos, pero sí ayuda a optimizar el crawl budget y a evitar contenido duplicado o no deseado en los resultados de búsqueda.



¿Cómo funciona el archivo robots.txt?

Cuando un bot llega a tu dominio, lo primero que solicita es /robots.txt.

El servidor responde con las directivas que define el webmaster. Si el bot respeta el protocolo, obedece las instrucciones y omite las rutas desautorizadas, mejorando la eficiencia de rastreo.



Directivas más comunes en robots.txt

Las directivas básicas incluyen:

  • User-agent: especifica a qué bot se dirigen las reglas (por ejemplo, User-agent: * para todos).

  • Disallow: ruta que no debe rastrear (por ejemplo, Disallow: /admin/).

  • Allow: ruta concreta que sí puede rastrear dentro de un directorio desautorizado.

  • Sitemap: ubicación de tu sitemap XML para facilitar la indexación.

También existen directivas menos comunes como Crawl-delay (retraso entre peticiones) o Host (para motores específicos como Yandex).



Buenas prácticas para optimizar tu robots.txt

  • Coloca el archivo en la raíz del dominio (https://tusitio.com/robots.txt).

  • No bloquees recursos críticos como hojas de estilo, scripts o imágenes necesarios para el renderizado.

  • Incluye la ruta al sitemap XML con Sitemap: https://tusitio.com/sitemap.xml.

  • Valida tu robots.txt con herramientas como la prueba de robots.txt de Search Console.

  • Mantén el archivo ligero y actualizado, evitando directivas redundantes o rutas obsoletas.



Ejemplo sencillo de robots.txt

txtCopyEditUser-agent: *



Disallow: /wp-admin/



Allow: /wp-admin/admin-ajax.php







Sitemap: https://tusitio.com/sitemap.xml

En este ejemplo, todos los bots quedan prohibidos de rastrear /wp-admin/, salvo el archivo admin-ajax.php, y se les indica la localización del sitemap.



Conclusión

El archivo robots.txt es una herramienta fundamental del SEO técnico: controla qué contenido rastrean los motores, optimiza tu crawl budget y evita la indexación de secciones sensibles o duplicadas.


Configurar y mantener correctamente este archivo garantiza que los bots de búsqueda descubran e indexen sólo lo que tú deseas, mejorando la eficiencia y la relevancia de tu sitio en las SERPs.

¿Quieres profundizar aún más en SEO y Marketing Digital?

Te invitamos a seguir aprendiendo en nuestro blog, donde encontrarás artículos, guías y recursos actualizados sobre las últimas tendencias en posicionamiento, estrategias de contenido y herramientas digitales. A continuación, te mostramos nuestros 6 últimos posts para que no te pierdas ninguna novedad y sigas optimizando tu presencia online.

bottom of page