Por fin, muchas de las plegarias de los SEOs han sido escuchadas por Google y ya tenemos un forma más exacta de medir la indexación para un sitio Web. El milagro se llama «Estado de la Indexación» y es un reporte nuevo que se ha añadido en el Google Webmaster Tool.
Antiguamente para medir el número de páginas indexadas en Google, se tomaba los datos del comando site:www.misitioweb.com, cuyos resultados eran un dolor de cabeza (sobretodo en sites grandes) ya que fluctuaban de forma un poco ilógica. Era posible que hoy obtuvieran un número de páginas indexadas de 40.000 y en 2 días el comando site:, te decía que para el mismo sitio web tenías unas 35.000 páginas indexadas. ¡Vaya locura!
El juguete nuevo para los SEO denominado «Estado de la Indexación», consiste en una gráfica histórica que muestra la evolución de las páginas indexadas, desde que se dió de alta la web en el Google Webmaster Tool. En este caso si tenemos una curva lógica que siempre debería ir en sentido ascendente.
La gráfica muestra 4 ratios que son:
Total de páginas indexadas: El número total de URL que se encuentran actualmente en el índice de Google. Estas direcciones URL están disponibles para aparecer en los resultados de la búsqueda, junto con otras URL que Google puede descubrir por otros medios. Este número cambiará con el tiempo, a medida que se añadan nuevas páginas y se indexen, y se eliminen las páginas antiguas. El número de URL indexadas casi siempre es significativamente más pequeño que el número de URL rastreadas, porque no incluye URL que se han identificado como duplicadas, no canónicas o menos útiles, o que contienen una metaetiqueta “noindex”.
Rastreadas alguna vez: El total de direcciones URL de tu sitio que Google ha rastreado en algún momento. No todas las direcciones URL rastreadas se indexan, y es posible que Google detecte algunas URL por otros medios, como, por ejemplo, los enlaces de entrada de otros sitios. Este número debería aumentar con el tiempo a medida que se añadan nuevas páginas a tu sitio.
No seleccionadas: Páginas que no están indexadas porque son muy similares a otras páginas, o que se han redireccionado a otra dirección URL.
Bloqueadas por Robots: El número total de direcciones URL que Google no puede rastrear porque no se permiten en tu archivo robots.txt.
Gracias a esta nueva gráfica podemos detectar algún bajón importante en el número de páginas indexadas, lo que nos hace presumir una posible penalización, un problema en el servidor o una errónea maniobra en la programación. También nos ayuda a estimar una posible detección de contendo duplicado por parte de Google, ya que si aumenta la curva de «URLs no seleccionadas» o su valor es alto en comparación con el total de URLs indexadas, podemos estar ante este problema de contenido similar.
Cómo crítica a esta nueva herramienta de medición, está el hecho de que no te dice el nombre de las urls que esta indexando y no se puede hacer un análisis por directorios o subcarpetas del site. Con esta mejoraría el análisis de indexación. Por ahora, tenemos una nueva herramienta de medición de las páginas indexadas que se ajusta más a la realidad. Pues nada, hay que aprovecharla.
Más información sobre la herramienta Estado de la Indexación
Os han bajado desde hace unas semanas el volumen de no seleccionadas de forma drástica?
un saludo
En un par de proyectos sí. En el resto no
¿Cómo puedo solucionar una caida drástica del número de páginas indexadas Javier? Por mas que corrijo errores de rastreo, el número de páginas indexadas no para de caer y no doy con la solucion. Gracias
Hola Victor. Tendría que ver a fondo tu sitio web para identificar las posibles causas. Mi recomendación es que analices con google analytics que secciones de tu página están cayendo en tráfico SEO y veas si esas secciones y páginas, la araña de google está llegando correctamente. Puede ser que no tengas el sitio web bien enlazado para todas las páginas del site
Como todas las herramientas tienen su cosas buenas y malas.
Gracias por la información!
Saludos Javier, pues con esta nueva información me di cuenta que tengo un grave problema de paginas duplicadas, mi sitemap es de 200 paginas y el estado de indexacion me dice 3435, y en avanzadas, no seleccionadas es de 24.585, no se con que herramienta puedo analizar el sitio para detectar el error, utilizo wordpress. Alguna recomendación
Es muy típico de wordpress, el tener contenido duplicado. Tienes que hacer ciertos ajustes en wordpress para reducir algunas secciones que te están originando contenido duplicado.
Te recomiendo ver este artículo http://www.trazos-web.com/2011/02/22/guia-basica-de-seo-para-wordpress/ donde te explican como redactar el archivo robots.txt para bloquear ciertas secciones donde hay contenido duplicado.
Espero te sea útil
Gracias por tu comentario
Gracias pana