El SEO técnico es el conjunto de prácticas que permiten que los motores de búsqueda encuentren, indexen y posicionen correctamente una web. No es solo cosa de marketers — los administradores de sistemas y desarrolladores web necesitan entenderlo para configurar servidores, cabeceras HTTP y arquitectura de URLs correctamente.
Elementos clave del SEO técnico
robots.txt — controlar el rastreo
El archivo robots.txt vive en la raíz del servidor y le dice a los bots de búsqueda qué pueden y qué no pueden rastrear. Un error común es dejarlo en blanco o mal configurado, lo que puede hacer que Google indexe páginas que no quieres.
sitemap.xml — el mapa para Google
El sitemap es un archivo XML que lista todas las URLs importantes de tu web junto con su prioridad y fecha de modificación. Google lo usa para descubrir páginas nuevas más rápido. Debe incluirse también en robots.txt para que los bots lo encuentren automáticamente.
Meta canonical — evitar duplicados
Si una misma página es accesible desde varias URLs, Google puede penalizarte por contenido duplicado. El meta canonical le indica cuál es la URL oficial:
Open Graph — redes sociales
Las etiquetas Open Graph controlan cómo se muestra tu página cuando alguien la comparte en redes sociales. Sin ellas, Twitter o LinkedIn pueden mostrar cualquier imagen o texto al azar de la página.
Schema.org — datos estructurados
Los datos estructurados en formato JSON-LD permiten que Google entienda el contenido semánticamente: si es un artículo, un producto, una persona, una ruta de navegación. Esto puede generar resultados enriquecidos en las búsquedas (rich snippets) con estrellas, fechas, breadcrumbs visibles directamente en Google.
Esta web ya implementa robots.txt, sitemap.xml, meta canonical y Open Graph. El siguiente paso sería añadir más datos estructurados Schema.org para mejorar la visibilidad en buscadores.