Todo lo que rodea a Internet está en permanente cambio, lo que hoy es tecnología punta en poco tiempo puede quedar obsoleta. Pero no se trata sólo de tecnología, hay fenómenos sociales que también nos estallan en la cara casi sin preaviso y sin necesidad de avances técnicos. La web 2.0 es un ejemplo claro: son aplicaciones web tradicionales dirigidas específicamente al usuario final que evolucionan a las denominadas redes sociales.
Si miramos hacia unos pocos años atrás veremos que también existían servicios de anuncios, comunidades, distribución de contenidos, descargas de películas, enciclopedias y diccionarios, páginas personales, posicionamiento en buscadores, directorios, etc.
Entonces… ¿cuál es el verdadero cambio? ¿sólo la nomenclatura y algunos nuevos servicios?
El cambio es más social que tecnológico; los que lo percibieron primero le dieron el nombre de web 2.0 a algo que en realidad estaba ocurriendo sin que nadie en particular lo estuviera impulsando.
Se suele decir que todo cambia y lo que no cambió ayer cambiará mañana. ¿Es ese un problema para nuestra tarea de optimizador? Sí y no. El problema serio es no tener en cuenta el factor de cambio.
Dicho esto, existen ciertos conceptos dentro del entorno SEO que se mantienen estables desde hace tiempo y en los que podemos confiar, por eso les otorgamos el adjetivo de fundamentales.
Arañas y robots
Para entender el funcionamiento de los buscadores debemos comenzar por conocer uno de sus componentes principales: el robot (o spider, araña), que es el elemento que recoge la información que alimenta las base de datos de los buscadores.
Los robots o arañas son procesos que recorren continua e incansablemente la Web para obtener información relevante en base a distintos algoritmos. La Web es algo tan grande que a los robots les resulta imposible detectar por sí solos cada cambio que se produzca en la web, los distintos procesos robots (cada buscador tiene los suyos) pasan por los sitios web en una frecuencia determinada por eso los cambios se reflejan en los buscadores con cierto retraso. Los robots tienen prioridades de navegación que determinan que ciertos sitios serán analizados con frecuencias mayores que otros.
Es importante que nuestro sitio web esté disponible todo el tiempo posible, dado que si los robots lo encuentran bloqueado no insistirán ni esperarán, y, si no hacemos nada, quizá vuelvan a nuestro sitio una semana o un mes después y para nosotros será un tiempo perdido.
El motor de búsqueda se puede considerar como un software especializado para recuperar información de bases de datos indexadas, distribuidas y replicadas que contienen los fragmentos de texto que han recogido sus robots y de otras fuentes de información (directorios, anuncios patrocinados, etc).
El proceso de búsqueda se inicia a partir del texto introducido en el cuadro de texto del buscador. Los mecanismos de búsqueda son algoritmos secretos en permanente evolución de cada uno de los buscadores y que podemos intuir pero nunca estar seguros de su verdadero funcionamiento. Hace poco Google incorporó un algoritmo desarrollado por un estudiante australiano que funciona con sinónimos, por ejemplo, si buscamos la palabra “automóvil" también nos traerá páginas que no contienen esa palabra pero sí “coche".
Cada motor de búsqueda tiene sus elementos para determinar el ranking de las páginas encontradas, y, por lo tanto, distintos criterios, que además, para complicar más aún el trabajo del SEO, son criterios cambiantes.
Algoritmos secretos
En las acciones que implementemos para mejorar el posicionamiento nos llevaremos más de una sorpresa. Nunca podemos estar plenamente seguros que una acción se verá reflejada en una mejora en el posicionamiento. O quizá mejoremos en un buscador y en otros buscadores no obtendremos cambios. Los buscadores no revelan sus criterios y ni tampoco en qué momento los cambian.
Los algoritmos de los buscadores son diferentes entre los distintos motores de búsqueda y, en todo caso, se mantienen en secreto aunque con cierta investigación es posible detectar una serie de comportamientos en común.
Los algoritmos utilizan diversos criterios: palabras clave, presencia de palabras clave en el título de la página, repetición de palabras clave en el texto del contenido, cantidad de enlaces entrantes de calidad, etc. Cada uno de los elementos de decisión tienen asignado un peso o importancia y todo esto entra en una fórmula que da como resultado el posicionamiento.
¿Y por qué tanto secreto?
¿Qué problema podría haber si Google difundiese sus algoritmos? Inocente pregunta pero hay que responderla.
Veamos. Los usuarios actualmente tenemos confianza en las listas de resultados, nos gusta comprobar que las listas son realmente útiles y que al navegar a una de las páginas obtenemos lo que estamos buscando o algo muy cercano.
Ahora respondo a las preguntas. Si los que implementan las tareas de mejoras en posicionamiento en los buscadores supieran los criterios y algoritmos caerían en la tentación de manipular los sitios para asegurarse los mejores puestos. Algunos pocos no lo harán, pero muchos, la mayoría de los SEO, sí. De su éxito viven, hay que entenderlo; y el pastel es uno sólo..
La consecuencia de esto: las listas de resultados ya no serían lo que ahora son.
Una consejo para quien tenga la responsabilidad de optimizar el posicionamiento en los buscadores: es bueno no desentenderse del todo de los continuos rumores que difunden teorías sobre los modos de funcionamiento de Google, Yahoo!, etc. pero a esa información hay que darle un valor relativo y centrarse principalmente en lo que siempre da resultados: pensar en cómo llegar al cliente que nos quiere encontrar.