Páginas Indexadas: cómo revisar tu indexación en Google

por | Feb 23, 2016 | Indexación | 0 Comentarios

Si pensamos en temas de rastreo e indexación, deberíamos tener claro que todo lo que Google tenga indexado de nuestra web, tendrían que ser urls con contenidos que generen demanda orgánica en búsquedas. Dicho de otra forma, tenemos que sacar la basura y para ello, debemos analizar cuáles son nuestras páginas indexadas.
Para ello, voy a usar dos herramientas:

Extraer páginas indexadas con el comando «site»

Un primer vistazo en Google:
comando site mjcachon
Lo que hacemos es añadir esa misma query con el comando, a la herramienta Simple Serp Scraper, de este modo:
Páginas Indexadas en Google con Serp Scraper
Una vez termine de extraer todas las páginas indexadas, veremos el csv de esta forma:
resultados comando site
 

Chequear el status actual de las urls

Con Screaming Frog vamos a analizar todas estas urls en modo lista, a ver qué nos encontramos
Elegimos modo lista, en la versión nueva, podemos pegar directamente desde el portapapeles, así que copiamos del csv anterior y pegamos en Screaming pulsando «paste»
modo lista pegar screaming
 
El aspecto que observaremos será este, una vez lea todas las urls que teníamos copiadas:
lista urls screaming
 
Ahora nos vamos a ver el resultado del rastreo de Screaming Frog y podemos analizar cosas básicas de primeras:

  • Errores
  • Tipos de redirects
  • Páginas con poco contenido
  • Detectar patrones de urls, por ejemplo, ?attachment_id
  • Revisar directivas: robots y canonical

¿Tienen tráfico orgánico o nasti de plasti?

Sabiendo que es posible usar tanto GSC como GA en Screaming Frog puedes chequear las urls en bulk y tener en el mismo crawleo, los datos de visitas orgánicas, para tener una primera idea de contenidos que están indexados y no están generando tráfico orgánico.
Llegados a este punto tendremos 2 escenarios muy claros:

  1. Contenidos antiguos, cortos o mal optimizados y con potencial de mejora.
    Aquí tocaría sacar el bisturí y analizar a fondo extensiones de contenido (numero de palabras) y tratar de revisar qué términos clave tiene asignada cada url para cruzar con posiciones medias de GSC. Optimizar, re-publicar y seguimiento posterior.
  2. Contenidos obsoletos o duplicados
    Aquí tocaría reflexionar, si tenemos opción de redirigir a un destino relevante, siempre y cuando el origen tenga algo que «salvar». De lo contrario, nos tocará desindexar, bien eliminando contenido y ofreciendo un 410, o bien, manteniendo el contenido ofreciendo un 200, pero con «noindex», depende de los casos.

Y hasta aquí un post muy breve que ampliaremos con algún otro tutorial más profundo, próximamente…