914 34 75 81

somos@mjcachon.es

Revisando las páginas indexadas

Si pensamos en temas de rastreo e indexación, deberíamos tener claro que todo lo que Google tenga indexado de nuestra web, tendrían que ser urls con contenidos que generen demanda orgánica en búsquedas.

Dicho de otra forma, tenemos que sacar la basura.

Para ello, voy a usar dos herramientas:

Extraer páginas indexadas con el comando "site"

Un primer vistazo en Google:

comando site mjcachon

Lo que hacemos es añadir esa misma query con el comando, a la herramienta Simple Serp Scraper, de este modo:

simple serp scraper urlprofiler

Una vez termine de extraer todas las páginas indexadas, veremos el csv de esta forma:

resultados comando site

 

Chequear el status actual de las urls

Con Screaming Frog vamos a analizar todas estas urls en modo lista, a ver qué nos encontramos

Elegimos modo lista, en la versión nueva, podemos pegar directamente desde el portapapeles, así que copiamos del csv anterior y pegamos en Screaming pulsando "paste"

modo lista pegar screaming

 

El aspecto que observaremos será este, una vez lea todas las urls que teníamos copiadas:

lista urls screaming

 

Ahora nos vamos a ver el resultado del rastreo de Screaming Frog y podemos analizar cosas básicas de primeras:

  • Errores
  • Tipos de redirects
  • Páginas con poco contenido
  • Detectar patrones de urls, por ejemplo, ?attachment_id
  • Revisar directivas: robots y canonical

¿Tienen tráfico orgánico o nasti de plasti?

Sabiendo que es posible usar tanto GSC como GA en Screaming Frog puedes chequear las urls en bulk y tener en el mismo crawleo, los datos de visitas orgánicas, para tener una primera idea de contenidos que están indexados y no están generando tráfico orgánico.

Llegados a este punto tendremos 2 escenarios muy claros:

  1. Contenidos antiguos, cortos o mal optimizados y con potencial de mejora.
    Aquí tocaría sacar el bisturí y analizar a fondo extensiones de contenido (numero de palabras) y tratar de revisar qué términos clave tiene asignada cada url para cruzar con posiciones medias de GSC. Optimizar, re-publicar y seguimiento posterior.
  2. Contenidos obsoletos o duplicados
    Aquí tocaría reflexionar, si tenemos opción de redirigir a un destino relevante, siempre y cuando el origen tenga algo que "salvar". De lo contrario, nos tocará desindexar, bien eliminando contenido y ofreciendo un 410, o bien, manteniendo el contenido ofreciendo un 200, pero con "noindex", depende de los casos.

Y hasta aquí un post muy breve que ampliaremos con algún otro tutorial más profundo, próximamente...

MJ Cachón
Sobre MJ Cachón

The boss. La madre de la criatura. La Daenerys del SEO. MJ Cachón lleva más de ocho años dedicándose a esto del marketing online y el posicionamiento, (y eso que venía de la banca...)

Otros contenidos que te pueden interesar

¿Qué estás pensando...Facebook?

Esto nos pregunta Facebook cada vez que entramos a sus amplios designios, y sinceramente, ya ...

Yoast SEO versión 3.7: sobre la actualización

Amigos del WordPress, el plugin SEO más famoso de la historia de los CMS se ha actualizado a ...

Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *