Next!Este es el primer post sobre posicionamiento en buscadores, quizás el tema en el que me siento más cómodo. Intentaré igualmente hablar de cuestiones que le interesen a la mayoría de personas, y no entrar demasiado en detalles. De todas formas el SEO, que es la forma de decirlo que queda más linda, no es algo tan difícil y hay que estar abierto a aprender ya que es una de las puertas hacia el éxito de nuestros proyectos.

La famosa Página siguiente, o Next Page, habita en el footer de todo blog. Lo que quizás no se den cuenta es de que están escondiendo sus posts con esta mina anti-buscadores. Los motores de búsqueda necesitan de nuestra ayuda para indexar el contenido que producimos y colocando únicamente el enlace a la siguiente página con posts no es de ninguna manera suficiente.

¿Por qué? Básicamente, porque el buscador indexa en niveles. Primero guarda la index, luego lo que esté a un click, a 2, a 3, etc. El problema es que el “etcétera” no llega muy lejos precisamente. Revisando un poco se comprueba que lo más lejos que alcanza son unos 4 ó 5 niveles. Esto varía según la “importancia” que se le designa al blog (determinada por enlaces entrantes), viendo que en blogs chicos los niveles que abarca son menores y en más grandes indexa con más profundidad.

Esto va a significar que Google, vamos que es el que importa, no verá la página 7, 8, 40, 88, etc. Esto no sería tan grave, excepto que entonces tampoco va a ver los enlaces hacia los posts, quedándonos nosotros con posts huérfanos, es decir, carentes de enlaces entrantes, de una relación con nuestro blog.

También, aunque no puede confirmarse como un hecho, como casi todo en el posicionamiento, es muy probable que un factor en el rankeo de nuestras páginas sea la cantidad de clicks de distancia a la index.

No todo es malo, o así parece. Google hace ya un tiempo ha agarrado odio por la desindexación. Mantiene páginas en su base de datos que hace rato están huérfanas, e incluso hay gente que quiere quitar de allí cosas y no puede. No podemos basarnos en esto para no hacer nada, ya que sí he visto que páginas viejas han sido quitadas y también por lo comentado en el párrafo anterior.

Pero yo tengo un Google sitemaps… Claro que lo tienes, pero las páginas siguen siendo huérfanas, y además, más bien tener todo en orden por si falla el sitemap. En el posicionamiento, con tanta incertidumbre, lo ideal es cubrir todas las bases donde sea posible.

La solución no es nada difícil. E incluso viene en forma de plugin si tienes WordPress. En Mis Algoritmos han creado un plugin para generar la paginación automáticamente, de paso con unos diseños muy atractivos. Allí muestran de ejemplo una paginación con límite sin embargo, como si recomendaran algo como: “1 – 2 – 3 – 4 – 5 – 6 – 7… – 46 – 47 – 48”. Esto NO sirve tampoco. Lograremos indexar unas cuantas páginas más, pero hasta ahí nomás. Poniendo el límite en 0, lograrán listar todas las páginas que tenga el blog. Excepto que sea un blog gigantesco no serán tantos enlaces.

Es muy interesante ver la estrategia de la red de blogs líder WeblogsSL. Ellos tienen el mismo problema en realidad, pero lo curioso es revisar sus robots, y encontrar que tienen la directriz “noindex, follow” para que los buscadores sigan los enlaces pero no archiven el contenido. Probablemente esto sea para no sufrir alguna penalización por contenido duplicado, y es un buen método. Una alternativa sería mostrar únicamente una parte de los posts.

Hace unos meses, haciendo esto mismo de agregar una paginación completa, logré duplicar las visitas de un blog. Fue quizás un caso extremo y cada situación merece un análisis, pero es muy probable que la mayoría de los blogs vean una mejora.

Precisamente BitSignals sufre del síndrome de la Página siguiente, así que lo cambiaré justo después de publicar este post. Si el tráfico sube por este motivo, ya comentaré los resultados. Si no, silenciosamente borraré este post cuando nadie mire 😛