Checklist SEO On-Page Interactiva
Una guía completa para optimizar todos los aspectos clave del SEO en tus páginas.
Ver ChecklistDefine las reglas de rastreo para los bots con un robots.txt personalizado y configura tu servidor Apache con un .htaccess a medida. Optimiza el SEO técnico, la seguridad y el rendimiento de tu sitio web.
Añade bloques para especificar directivas para diferentes bots.
Añade la URL completa de tus archivos sitemap.xml.
Establece un crawl-delay global para bots no definidos en bloques específicos. No todos los bots respetan esta directiva. Algunos (como Googlebot) la ignoran y usan la configuración de Google Search Console.
Necesario para algunas reglas como forzar WWW/no-WWW o prevenir hotlinking.
Selecciona los módulos que deseas incluir en tu archivo .htaccess y configura sus opciones.
# El contenido del .htaccess generado aparecerá aquí...
El Generador Consolidado de Optikit te permite crear y personalizar dos archivos cruciales para la gestión de tu sitio web: robots.txt
y .htaccess
(este último específico para servidores Apache).
robots.txt
?El archivo robots.txt
es un fichero de texto que se coloca en la raíz de tu sitio web (ej. www.ejemplo.com/robots.txt
). Su propósito principal es comunicar a los robots de los motores de búsqueda (como Googlebot, Bingbot) y otros rastreadores web qué partes de tu sitio NO deben rastrear o indexar. Es una parte fundamental del Protocolo de Exclusión de Robots.
Usar robots.txt
te ayuda a:
.htaccess
(para Apache)?El archivo .htaccess
(hypertext access) es un archivo de configuración a nivel de directorio para el software de servidor web Apache. Permite definir reglas y directivas que modifican el comportamiento del servidor para el directorio en el que se encuentra y sus subdirectorios, sin necesidad de editar los archivos de configuración principales del servidor (lo cual a menudo no es accesible en hostings compartidos).
Con .htaccess
puedes, entre otras muchas cosas:
mod_rewrite
): Crear URLs amigables, redirigir páginas (301, 302), forzar HTTPS o la versión WWW/no-WWW del dominio.mod_expires
, mod_headers
) para mejorar la velocidad de carga.Este generador te ayuda a construir ambos archivos de forma modular, seleccionando las directivas que necesitas. Es vital entender que un .htaccess
mal configurado puede romper tu sitio web. Siempre prueba en un entorno de desarrollo y haz copias de seguridad.
robots.txt
o .htaccess
.robots.txt
:
*
para todos, Googlebot
, Bingbot
)./admin/
, /tmp/
, /*.pdf$
para todos los PDF).Disallow: /private/
seguido de Allow: /private/public-info/
).User-agent
, ingrésalo. Googlebot lo ignora.robots.txt
se genera en tiempo real en el área de texto. Usa los botones para copiarlo o descargarlo.robots.txt
en el navegador, cargar una previa o resetearla..htaccess
(Servidores Apache Únicamente):
http://
o www
, ej. ejemplo.com
). Esto es usado por algunas reglas..htaccess
se genera en el área de previsualización con resaltado de sintaxis. ¡Léelo y entiéndelo antes de usarlo!.htaccess
).robots.txt
debe subirse al directorio raíz de tu sitio web (ej. public_html/robots.txt
o www/robots.txt
)..htaccess
generalmente también va en el directorio raíz, pero puede colocarse en subdirectorios para aplicar reglas específicas a esas secciones. Consulta la documentación de tu servidor o CMS.robots.txt
:robots.txt
para ocultar información sensible: Los bots pueden ignorar robots.txt
, y el archivo es público. Para contenido privado, usa autenticación (contraseñas) o la meta etiqueta noindex
en las páginas.Disallow: /
Bloquea TODO: Ten mucho cuidado con esta directiva, ya que impedirá que todos los bots (que lo respeten) rastreen cualquier parte de tu sitio.robots.txt
: Usa herramientas como el Probador de robots.txt de Google Search Console para verificar que funciona como esperas y no bloquea contenido importante..htaccess
(¡MUCHA PRECAUCIÓN!):.htaccess
en un sitio en producción, haz una copia de seguridad del archivo existente. Si algo sale mal, podrás restaurarlo rápidamente..htaccess
puede causar un "Error Interno del Servidor (500)" y hacer que todo tu sitio sea inaccesible..htaccess
en un entorno de desarrollo o staging antes de aplicarlas al sitio en vivo.mod_rewrite
, mod_expires
, mod_headers
) requieren que esos módulos estén cargados y habilitados en la configuración de tu servidor Apache. Si no lo están, las directivas no funcionarán o podrían causar errores. Consulta con tu proveedor de hosting..htaccess
puede ser muy importante, especialmente para las reglas de mod_rewrite
. Una regla puede afectar a la siguiente.#
) en tu archivo .htaccess
para explicar qué hace cada bloque de código. Esto te ayudará a ti (y a otros) a entenderlo en el futuro. El generador añade comentarios básicos..htaccess
es flexible, el servidor Apache tiene que leerlo y procesarlo en cada petición al directorio (y subdirectorios si no hay otro .htaccess). En sitios de muy alto tráfico, demasiadas reglas complejas en .htaccess
pueden tener un pequeño impacto en el rendimiento. Si tienes acceso a la configuración principal del servidor (httpd.conf
), es a menudo más eficiente colocar las directivas allí. Para la mayoría de los sitios, el impacto es negligible.max-age
). Deshacer esto es complicado. Considera enviar tu sitio a la lista de precarga HSTS solo cuando estés completamente seguro.robots.txt
?Necesitas un robots.txt
para indicar a los motores de búsqueda y otros rastreadores web qué partes de tu sitio preferirías que no visiten o indexen. Es una forma de guiar su comportamiento, optimizar tu presupuesto de rastreo y evitar la indexación de contenido no deseado (como páginas de administración, resultados de búsqueda internos, o contenido duplicado temporal).
robots.txt
para bloquear completamente el acceso a una página?No para seguridad. robots.txt
es una directiva, no una barrera. Bots maliciosos o aquellos que no siguen el estándar pueden ignorarlo. Además, si una página bloqueada en robots.txt
está enlazada desde otros sitios, aún podría ser indexada por Google (aunque sin rastrear su contenido). Para proteger contenido sensible, usa autenticación (contraseñas) o la meta etiqueta noindex
en la propia página.
Disallow
y noindex
?Disallow: /ruta/
en robots.txt
le dice a los bots "no rastrees esta ruta". La página aún podría ser indexada si Google la encuentra por otros medios (ej. enlaces externos), aunque no visitará la página para ver su contenido. La meta etiqueta <meta name="robots" content="noindex">
en el <head>
de una página HTML le dice a los bots "puedes rastrear esta página, pero no la muestres en los resultados de búsqueda". Para desindexar completamente una página, permite el rastreo en robots.txt
(o no la bloquees) y usa la meta noindex
.
Si quieres dar las mismas instrucciones a todos los bots, puedes usar User-agent: *
. Si quieres dar instrucciones específicas a un bot en particular (ej. permitir a Googlebot algo que bloqueas a otros), entonces necesitas un bloque User-agent: Googlebot
separado. Si un bot específico no encuentra un bloque con su nombre, seguirá las reglas del bloque User-agent: *
.
.htaccess
?La mayoría de los proveedores de hosting que usan servidores web Apache lo soportan. Si tu hosting usa Nginx, IIS, o Litespeed (en modo Nginx compatible), .htaccess
no funcionará o tendrá una funcionalidad limitada. Consulta la documentación de tu proveedor de hosting o su soporte técnico si no estás seguro.
.htaccess
?El módulo "Forzar HTTPS" de esta herramienta genera el código común para ello. Generalmente implica verificar si la conexión actual no es HTTPS (RewriteCond %{HTTPS} off
) y luego redirigir todas las peticiones a la versión HTTPS de la misma URL (RewriteRule ^(.*)$ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301]
).
Significa elegir una versión canónica de tu dominio (ej. www.ejemplo.com
o ejemplo.com
) y redirigir automáticamente todas las peticiones de la otra versión a tu preferida. Esto es importante para el SEO porque evita que los motores de búsqueda vean las dos versiones como sitios separados con contenido duplicado, consolidando la autoridad de tu dominio.
Los "Expires Headers" (o control de caché) le dicen al navegador del usuario por cuánto tiempo puede almacenar localmente ciertos tipos de archivos (imágenes, CSS, JS). Cuando el usuario vuelve a visitar tu sitio (o navega a otra página que usa los mismos archivos), el navegador puede cargarlos desde su caché local en lugar de descargarlos de nuevo del servidor, lo que acelera significativamente la carga de la página.
HSTS (HTTP Strict Transport Security) es una excelente medida de seguridad que obliga a los navegadores a conectarse a tu sitio solo mediante HTTPS. Sin embargo, solo debes habilitarlo si todo tu sitio y todos sus subdominios se sirven de forma segura a través de HTTPS y planeas mantenerlo así indefinidamente. Si partes de tu sitio aún usan HTTP, habilitar HSTS podría romper el acceso a esas partes para los usuarios cuyo navegador haya recibido la cabecera HSTS.
.htaccess
?No. .htaccess
es extremadamente potente y tiene cientos de directivas y configuraciones posibles. Este generador se enfoca en algunas de las más comunes y útiles para SEO, seguridad básica y rendimiento. Para configuraciones muy avanzadas o específicas, necesitarás investigar y escribir las reglas manualmente o consultar con un experto en Apache.
Si usas los botones "Guardar Config.", la configuración actual de la pestaña activa (robots.txt o .htaccess) se guarda en el LocalStorage de tu navegador. Son dos almacenamientos separados. Esto te permite recargar la página y recuperar tu trabajo, pero es específico de ese navegador y dispositivo.
El desarrollo de herramientas robustas como esta es un esfuerzo continuo. Tu apoyo nos ayuda a mantenerlas gratuitas y mejorarlas.
Apoyar el Proyecto Optikit