Auditoría SEO Técnico, la puesta a punto de nuestro proyecto web

Auditoría SEO Técnico, la puesta a punto de nuestro proyecto web
 

Con este post completamos una serie de artículos relacionados con las auditorias SEO. En esta ocasión hablaremos sobre la Auditoría de SEO Técnico, y vamos a ver esos factores técnicos que debemos tener en cuenta para mejorar en los resultados de búsqueda.

El perfil de un SEO técnico

El perfil del SEO Técnico es imprescindible dentro de un proyecto web. Es el encargado de optimizar el código y trabajar con las “tripas” del CMS o editor web en el que se esté realizando el proyecto. Estos serían los conocimientos con los que debe contar un SEO técnico:

  • Conocer, y editar en caso de ser necesario, el código HTML
  • Crear y estructurar URLs
  • Identificar y corregir problemas con enlaces internos y externos
  • Editar y configurar los archivos sitemap, robots.txt y .htaccess
  • Conocer y editar micro datos
  • Conocer y editar archivos de configuración del CMS o editor web
  • Extraer información de cualquier web
  • Configuración y optimización de servidores web.

¿Qué es una Auditoría de SEO Técnico?

Una auditoría, desde el punto de vista del SEO técnico, es la puesta a punto de los cimientos de nuestra página web. Trabajaremos, como su propia palabra indica, toda la parte técnica del proyecto.

Los buscadores rastrean La Red constantemente con una misión: almacenar y clasificar toda la información accesible que en ella se encuentra. Para realizar este rastreo “envían” programas automatizados llamados bots, o también llamados arañas, en busca de ese contenido relevante.

Hoy en día, en Internet hay millones de páginas, con lo cual, los bots no pueden pasar mucho tiempo en cada una de ellas. En apenas unos segundos deben de acceder al mayor número de URLs de nuestra web, comprender y estructurar el contenido para luego indexarlo en sus servidores. Y este, es uno de los puntos donde el SEO técnico juega su papel más importante.

Qué vamos a ver en una Auditoría de SEO Técnico

Tal y como hemos mencionado, los bots de los buscadores pasan muy poco tiempo en nuestra web. Por esta razón no hay que ponerles obstáculos que les impida acceder, además de dejarles bien claro nuestro contenido. En este tipo de auditorías SEO debemos trabajar principalmente en cuatro aspectos: accesibilidad, indexabilidad, estructura web y servidor web.

Auditoría SEO técnico. Accesiblidad

El primer punto a la hora de desarrollar una estrategia de posicionamiento web es comprobar la accesibilidad que tienen los buscadores a nuestra web. Debemos saber si Google y el resto de buscadores están accediendo a nuestro contenido, mejor dicho, debemos saber y asegurarnos a qué contenido tienen acceso. Porque una cosa tenemos que tener clara, los buscadores sólo deben acceder a la información que nosotros consideremos importante y necesaria para ellos.

Por defecto los buscadores indexan todo nuestro contenido, y cuando decimos todo, es todo. Desde las páginas y post hasta información y archivos de configuración. Con lo cual, para evitar disgustos, hay que dejarles claro a que pueden acceder.

Robots.txt

Es un archivo de texto plano que se coloca en la raíz del dominio. Es un archivo público, esto quiere decir que cualquier persona lo puede ver. Para ello tan solo debemos escribir en la barra de direcciones de nuestro navegador la URL del dominio seguido de /robots.txt. Quedaría de este modo: www.midominio.es/robots.txt. En este archivo principalmente vamos a indicar dos tipos de órdenes: a que pueden acceder los bots y a que no pueden acceder los bots.

Editar este archivo de texto es sencillo. Por una lado indicaremos el user-agent (bot), y por otro la acción “disallow” o “allow” seguido del directorio de nuestro dominio al cual le damos o denegamos el acceso. Ponemos un ejemplo:

archivo robots.txt

En la imagen tenemos un ejemplo de un robots.txt, donde estamos indicando que todos los bots (user-agent: *) no pueden acceder (disallow) a  los directorios que le hemos indicado. Los motivos por los que no nos interesa que los buscadores indexen contenido en sus servidores pueden ser varios:

  • Seguridad: no queremos que indexen los archivos de administración de nuestro CMS o
  • Gestión: no nos interesa indexar las páginas tipo “aviso legal”, la página de cookies o páginas en las que no tenemos información relevante para nuestros usuario o clientes
  • WPO: no nos interesa indexar páginas páginas que tardan mucho tiempo en cargar
  • Contenido duplicado: podemos utilizar esta técnica si hemos detectado que estamos duplicando contenido en nuestra web, bloqueando el acceso a los bots al contenido duplicado. De este modo nos podemos salvar de alguna penalización por parte de Google. Puedes utilizar esta técnica si, por ejemplo, has preparado una landing page para una campaña de Adwords y el contenido es similar o igual a una de tus páginas de productos. En este caso no nos interesa indexar esa página ya que nuestros usuarios nos van a llegar desde los anuncios de Google.

Como parte “negativa”, podemos decir, que al tratarse de un archivo público nuestros competidores o usuarios mal intencionados pueden ver que estamos bloqueando o que no estamos bloqueando. Esto, a nivel de seguridad, es un dato que debemos tener en cuenta. Y sino que se lo pregunte a Dropbox y los problemas de seguridad y privacidad que sufrieron por no configurar bien este archivo.

Etiquetas HTML Meta robots

La función de estas etiquetas es muy similar a la del archivo robots.txt. Son líneas de código HTML que ponemos en cada página de nuestra web con unas serie de órdenes. Algunos ejemplos:

  • <META name=”robots” content=”NOINDEX”> : no queremos que indexe esta página
  • <META name=”robots” content=”INDEX,NOFOLLOW”>: queremos que indexe la página pero que no siga los enlaces que en ella se encuentrar. Esta opción nos puede interesar si queremos mejorar el Link Juice de la página.
  • <META name=”robots” content=”NOINDEX,NOFOLLOW”>: no queremos que indexa la página y además que no siga los enlaces.
  • <META name=”robots” content=”NOARCHIVE”>: con esta etiqueta le estamos diciendo a los bots que no guarde en caché esta página

Códigos de estado HTTP

Los códigos de estado HTTP son las repuesta a las peticiones que se hacen al navegador por parte del usurio. Dicho de otro modo, cuando un usurario hace una petición de acceso a un recurso web desde un navegador, éste devuelve un resultado en base a un estado. Estos códigos tienen cinco tipos de respuesta:

  • 1XX Respuestas informativas: esos códigos informan al navegador que se van a efectuar algunas peticiones
  • 2XX Peticiones correctas: indica que se ha recibido y procesado correctamente la solicitud
  • 3XX Redirecciones: indican al navegador que para completar la solicitud debe de efectuar una acción, en este caso redireccionar a otra URL
  • 4XX Errores del cliente: indican que hay un error que el navegador no puede procesar
  • 5XX Errores de servidor: indican que ha habido un error y en este caso el responsable es el servidor web

Poniendo un ejemplo lo vamos a ver mejor. ¿Quién no se ha encontrado alguna vez este  mensaje?:  error 404 página no encontrada.  Esto sería un código de estado HTTP 4xx

error404

En una auditoría de SEO técnico es muy importante auditar el estado de los códigos HTTP que está dando nuestro servidor y nuestra web. Tal y como hemos mencionado al inicio del post, a los motores de búsqueda les gusta que todo esté correcto. Tener un elevado número de errores de este tipo nos va a restar puntos a la hora de posicionar, además de la pérdida de usuarios que esto provoca.

A la hora de auditar los estados HTTP debemos comprobar:

  • nuestro servidor está en correcto estado (HTTP 5xx)
  • nuestra páginas están accesibles y responde bien a las consultas (HTTP 2xx)
  • no tenemos errores de página no encontrada (HTTP 4xx) y de haberlos detectado, que nuestras redirecciones a las nuevas URL están bien (HTTP 3xx).

Para auditar los estados HTTP podemos utilizar varias herramientas, una de las más utilizadas es Screaming Frog, que en su versión gratuita nos permite realizar estas comprobaciones hasta en 500 URLs.

Datos Estructurados

Los datos estructurados son información para los bots y consisten en una serie de etiquetas que describen el contenido de nuestras páginas web. Estas etiquetas son “transparentes” para los usuarios, y son necesarias para que los buscadores entiendan mejor nuestro contenido y darles más información.

Para auditar los datos estructurados de un proyecto nos guiaremos por las recomendaciones de Schema.org.

Schema.org

Es una iniciativa de Google, Bing y Yahoo. Definieron un estándar de datos estructurados para que los responsables del desarrollo web lo implanten en sus proyectos.

Con el uso de datos estructurados vamos a mejorar la indexación de nuestra web y además permite a los buscadores que resalte nuestro contenido mediante fragmentos enriquecidos. Los usos más comunes de datos estructurados son:

  • Foto de autor
  • Recetas
  • Vídeo
  • Productos
  • Valoraciones
  • Precios
  • Negocios locales
  • Datos de contacto

 

datos estructurados

Los datos estructurados nos ayudan a resaltar las estrellas de valoración

Canibalización de palabra clave

Dentro de una Auditoría de SEO técnico la canibalización de palabras clave es un punto que no podemos pasar por alto. Hablamos de canibalización de palabra clave cuando estamos trabajando la misma palabra clave en dos o más páginas de nuestra web. Esto provoca que los buscadores no sepan cuál es la página más relevante para ese keyword y tengan dificultades para mostrar a los usuarios el mejor resultado.

Es por esta razón que en 2009 los tres principales buscadores se pusieron de acuerdo para solucionar este problema y crearon la etiqueta HTML <link rel=”canonical”>.

Las principales causas de una canibalización de palabras son:

  • Fichas de producto de un ecommerce donde lo único que cambian son tallas y colores. Esto puede crear varias URLs con el mismo contenido. Es un error muy común.
  • También es muy típico que deseemos publicar en nuestro blog una entreveista que nos han hecho en un blog del sector, o un blog que hemos publicado como invitados en otro medio. En este tipo de casos, donde lo único que queremos es hacer una mención, es preferible indicar a los buscadores cual es el contenido original.
  • Una mala estructura de URLs internas también puede ser el desencadenate de una canibalización de palabras.

¿Cómo solucionamos este problema?

El primer paso es detectar el contenido duplicado de nuestra página web, para ello nos podemos apoyar en diferentes herramientas:

El siguiente paso sería añadir la etiqueta <link rel=”canonical”> en todas las páginas donde necesitemos hacerlo. Pongamos un ejemplo. Tenemos en nuestro e-commerce una prenda en diferentes tallas y colores. En este caso debemos tener una pagína principal del producto con una URL tipo: www.mitienda.com/camiseta-verano-hombre y el resto de páginas de ese mismo producto añadiremos la etiqueta HTML de este modo:

<link rel=”canonical” href=”http://www.mitienda.com/camiseta-verano-hombre”>

Errores de paginación

Los enlaces anterior y siguiente que nos encontramos en la parte inferior de un blog nos ayudan a que los usuarios naveguen por los contenidos de nuestra web. Está claro que a nivel de usuario es una herramienta que ayuda mucho. Pero de cara a los buscadores nos pueden ocasionar ciertos incovenientes.

botones de paginación

El principal problema es que cada página nos genera una URL distinta, sería algo asÍ:

  • Página 1: www.misitioweb.com/blog
  • Página 2: www.misitioweb.com/blog/pagina2/
  • Página 3: www.misitioweb.com/blog/pagina3/

Pero seguimos manteniendo los mismo Titles y Descriptions para cada una de ellas. Esto para los buscadores es contenido duplicado, ya que dos de los principales indicadores de SEO tienen el mismo contenido.

Para solucionar este problema debemos añadir unas etiquetas HTML en cada una de las páginas. Estas etiquetas son  rel=”next” y rel=”prev”. Y se deben de implementar del siguiente modo:

  1. En la primera página, http://www.misitioweb.com/blog
    <link rel="next" href="http://www.misitioweb.com/blog/pagina2" />
  2. En la segunda página, http://www.misitioweb.com/blog/pagina2/
    <link rel="prev" href="http://www.misitioweb.com/blog" />
    <link rel="next" href="http://www.misitioweb.com/blog/pagina3 />
  3. En la tercera página, www.misitioweb.com/blog/pagina3/
    <link rel="prev" href="http://www.misitioweb.com/blog/pagina2" />
    <link rel="next" href="http://www.misitioweb.com/blog/pagina4" />
  4. Y en la última página, http://www.misitioweb.com/blog/pagina4
    <link rel="prev" href="http://www.misitioweb.com/blog/pagina3" />

Auditoría SEO Técnico. Indexabilidad

En este punto de nuestra auditoría de SEO técnico vamos a comprobar qué contenido se está indexado en los buscadores. Necesitaremos saber si se está indexando bien la totalidad de nuestro sitio web, de no ser así, habrá que ver que partes no se están indexando y porqué. Además plantearemos las mejoras necesarias para corregir posibles errores.

Footprints o comando de búsqueda

Los footprints son comandos avanzados que ponemos en las búsquedas de Google. Tienen varios usos, desde hacer búsquedas avanzadas hasta el conocido Google Hacking. En nuestra una auditoría SEO, los footprints nos pueden resultar de gran ayuda para comprobar estados de indexación de nuestra web. Veamos unos ejemplos.

Footprint “site:”

La primera prueba para comprobar el estado de indexación de nuestra web es hacer una búsqueda en los buscadores con el comando site:midominio.com. Este comado sirve tanto para Google como para Bing

comado site:

 comando de búsqueda site

Tras hacer esta búsqueda las primeras conclusiones que debemos sacar son:

  • El primer resultado es nuestra home
  • Los siguientes resultados de búsqueda tienen relación con nuestra web y son páginas relevantes

Esta búsqueda nos puede llevar a tres escenarios diferentes:

  • Tenemos indexadas las mismas URLs que en nuestro Sitemap. Es un indicador de que lo estamos haciendo bien
  • Tenemos más URLs indexadas que nuestro Sitemap. Podemos tener contenido duplicado
  • Tenemos menos URLs indexadas que nuestro Sitemap. Por alguna razón estamos bloqueando el accedo a parte de nuestro contenido

Para auditar estados de indexación nos podemos apoyar en herramientas como Screaming Frog o las herramientas gratuitas para webmasters de Google y Bing.

Footprint “cache:”

Este comando de búsqueda nos va a mostrar la última versión que tiene Google en su caché.Tras obtener la vista en caché que nos va a dar Google tras hacer la búsqueda, podemos comprobar si está todo el contenido, especialmente los últimos contenidos que hemos añadido. Si observamos que falta algo habrá que analizar lo que está sucediendo y porque ese contenido está bloqueado. Para ver nuestra caché haremos la siguiente búsqueda cache:mipaginaweb.com

Footprint “site: + palabra”

Este comando es de utilidad para comprobar si se ha indexado, por ejemplo, la última página o post que hemos creado. Vamos a suponer que hemos escrito un artículo titulado “pasos para montar un ecommerce” y queremos saber si Google lo ha indexado. En este caso realizaremos la siguiente búsqueda: “site:mipagina.com pasos para montar un ecomerce”. Si Google ha indexado nuestro contenido nos debería de aparecer el primer resultado. Cabe recordar que lo buscadores tardan unas horas en indexar y mostrar el contenido.

Google Search Console y Bing Webmaster Tools

Son las herramientas básicas que todo SEO debería de conocer, con ellas vamos a comprobar el estado de la indexación de nuestra página web:

  • Enviar y comprobar nuestro sitemap.xml.
  • Comprobar y ajustar la frecuencia de indexación
  • Errores HTTP 404, páginas no encontradas por los bots
  • Ver estadísticas de indexación de  nuestro sitio
  • Crear y comprobar el archivo robots.txt
  • Ver las palabras clave que nos están reportando tráfico y porcentaje de clicks
  • Geolocalizar el dominio por idiomas o por país
Podemos ver el número de URLs enviadas y el número de URLs indexadas

Podemos ver el número de URLs enviadas y el número de URLs indexadas

errores

Errores de coURL que no se encuentrar y errores 404

Además de detectar errores de indexación, estas herramientas nos van a permitir ver el número de clicks que hemos recibido, que palabras clave nos están dando tráfico, los dispositivos desde los que acceden los usuarios, país y CTR.

Google Search Console. Auditoría de SEO técnico

Auditoría SEO Técnico. Estructuración web y enlazado interno

La estructuración web, además de ser un punto clave en nuestro  SEO On Page, es uno de los aspectos más importantes que hemos de planificar y tener en consideración a la hora de publicar una página web, ya que influirá directamente en la relevancia que los buscadores otorgarán a nuestro contenido en sus páginas de resultados. En SEOtic, a la hora de planificar una estructura web, lo hacemos en base a una estrategia de posicionamiento en buscadores. Para planificar y desarrollar una estrategia de posicionamiento web analizaremos los siguientes puntos: estudio de palabras clave, estudio de mercado, estudio de competencia online
Éste análisis nos llevará a nuestra estructura web con la finalidad de llegar a dos grupos:

  • Los usuarios: podemos decir que son nuestro consumidor final, por lo tanto nuestra estructura web les debe facilitar el acceso a los contenidos de un modo muy intuitivo y rápido.
  • Los robots y arañas de los buscadores: son nuestro medio para llegar a los usuarios, deben acceder sin problemas a toda nuestra arquitectura web.

Estructura de la página web

La estructura web de una página debe de planearse antes de lanzar un proyecto, ahorraremos tiempo y muchos quebraderos de cabeza. Por lo general, realizar cambios de estructura en un proyecto que ya está publicado en Internet, es una labor complicada y en ocasiones tediosa que si no se hace bien podemos perder gran parte del trabajo realizado. Tenemos que pensar que Google ya tiene indexado todo o gran parte de nuestro contenido, y si realizamos cambios de estructura, significa que nuestras URLs van a cambiar. Esto nos va a obligar a redireccionar URLs, dexindexar contenido y cambiar enlaces externos.
La estructura web puede definirse como la manera en la que organizamos nuestra web en distintas secciones, y cómo los usuarios y arañas pueden navegar por el sitio hasta llegar a todos los niveles. Un ejemplo típico de estructura web correcta sería: Home -> Categorías Importantes -> Subcategorías Relevanles -> Productos Relevantes

Recomendaciones para una estructura web correcta:

  • no superar los tres niveles de profundidad.
  • enlazar en modo horizontal, es decir, enlazar entre categorías y productos relacionados.
  • todos los productos o servicios deben de estar a un click de la categoría principal.

esquema de estructura web. Auditoría de SEO técnico

Enlaces internos, links por página

Los enlaces internos son los enlaces de nuestra web apuntan a distintas páginas, categorías, productos o secciones de nuestra propia web. Si planificamos bien el enlazado interno de nuestra web vamos a conseguir mejoras en la indexación de las páginas y una buena experiencia de usuario.  En cuanto al número de links por página,  podemos recomendar que no pasen de 150 para páginas principales (home, categorías..)

 Anchor Text y posición

El anchor text es el texto visible de un enlace y nos da información sobre la página a la que nos lleva, donde preferentemente utilizaremos como anchor text la palabra clave de la página de destino.

En una auditoría de SEO técnico, a la hora de auditar los enlaces internos en una página comprobaremos los siguientes puntos:

  • El enlace más importante está el primero
  • El anchor text incluye la palabras clave de la página de destino
  • No abusaremos de enlaces, el exceo de link juice nos puede perjudicar
  • No tiene que haber enlaces rotos

Enlaces rotos

Otro de los puntos a analizar en una auditoría de SEO técnico es el de los enlaces rotos. Es muy importante comprobar que no tenemos enlaces rotos, ya que los bots de los buscadores cuando rastrean una web siguen los enlaces que tenemos para ir profundizando en la estructura y contenidos.

A nivel de experiencia de usuario (UX), un enlace roto produce malestar a nuestros visitantes ya que les conduce a páginas de error o sin contenido. En cuanto al posicionamiento en buscadores, un enlace roto es una oportunidad perdida para que los bots de Google indexen nuevo contenido.  Además, en caso de que encuentren muchos enlaces rotos dentro de una  web, puede ser motivo de penalización dentro de los resultados de búsqueda.

Para comprobar nuestros enlaces nos podemos apoyar en hemarramientas como Screaming Frog, Xenu o Google Search Console. También tenemos plugins para como Broken Link Checker

Auditoría SEO Técnico. Optimización del rendimiento web

seo técnico optimización web

Que tu página web carge rápido es un factor muy importante para el SEO. La velocidad de carga de tu página es un factor de relevancia para los buscadores y un factor decisivo para los usuarios. Para ello, medir y optimizar la velocidad de carga de tu página web a través de las recomendaciones de Google será una tarea de obligado cumplimiento.

Para medir la velocidad de carga de un proyecto web nos apoyaremos en la herramienta de Google PageSpeed Insights. Esta herramienta, además de darnos una puntuación de 0 a 100 para calificar el estado de nuestra web, nos ofrece un resumen de sugerencias donde podemos ver los puntos a mejorar. Además nos da unas pautas para poder corregirlo.

 PageSpeed Tools - SEO TÉCNICO

Uno de los puntos a mejorar en la gran mayoría, por no decir todas, de las páginas que están desarrolladas en WordPress, es el de la carga de los ficheros de JavaScript y CSS. Por lo general ésto se debe a que la plantilla que estás utilizando necesita cargar desde un principio estos ficheros. De no hacerlo se desconfiguraría el diseño y seguramente veríamos la página en forma de texto plano.

Hay algunos trucos para tratar de solucionar esto, cómo “mandar” el JavaScript al footer, pero por lo general da problemas. Para ello puedes utilizar un plugin como Javascript to footer o si no quieres instalar ningún plugin puedes añadir estas líneas de código en el  functions.php:

function footer_enqueue_scripts() {
remove_action(‘wp_head’, ‘wp_print_scripts’);
remove_action(‘wp_head’, ‘wp_print_head_scripts’, 9);
remove_action(‘wp_head’, ‘wp_enqueue_scripts’, 1);
add_action(‘wp_footer’, ‘wp_print_scripts’, 5);
add_action(‘wp_footer’, ‘wp_enqueue_scripts’, 5);
add_action(‘wp_footer’, ‘wp_print_head_scripts’, 5);
}
add_action(‘after_setup_theme’, ‘footer_enqueue_scripts’);
function footer_enqueue_scripts() {
remove_action(‘wp_head’, ‘wp_print_scripts’);
remove_action(‘wp_head’, ‘wp_print_head_scripts’, 9);
remove_action(‘wp_head’, ‘wp_enqueue_scripts’, 1);
add_action(‘wp_footer’, ‘wp_print_scripts’, 5);
add_action(‘wp_footer’, ‘wp_enqueue_scripts’, 5);
add_action(‘wp_footer’, ‘wp_print_head_scripts’, 5);
}

Recomendamos hacer una copia de seguridad antes de probar el plugin o meter el código en el functions.php

Otras herramientas para auditar la velocidad de carga de tu web

Además de las herramientas de Google, en la actualidad podemos encontrar varios servicios online que nos permiter auditar nuestra web:

GTmetix: es una potente herramienta que además nos va a mostrar en modo gráfico la secuencia de carga de la página

Pingdom tools: esta herramienta nos da el tiempo de carga acompañada de una evaluación global del rendimiento

Dotcom Monitor: esta herramienta nos permite hacer un test de carga desde 22 países diferentes a la vez. Un punto a tener en cuenta si nuestro sitio web trabaja a nivel internacional

Sobre imanol

Consultor SEO especializado en investigación de palabras clave y detección de oportunidades, SEO On Page y SEO técnico.

Comentarios (2)

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Cargando…