Como hacer para que mi página web le guste y se indexe en Google.

Una página web, si está bien programada, puede generar un potencial de tráfico en los buscadores de Internet como Live Search, Google o Yahoo! Este potencial de tráfico viene determinado por el posicionamiento que los distintos contenidos de dicho sitio web puedan conseguir para las búsquedas relacionadas con ellos que puedan plantear los usuarios, por un lado.

Pero al mismo tiempo, por el número total de contenidos o páginas internas que contenga el sitio web. Parece evidente que, a mayor cantidad de contenidos, el potencial de tráfico debería ser mayor, y por tanto la indexación también seria mayor....

¿…O puede que no se indexe correctamente?

Los buscadores y directorios de la Red son la principal fuente de tráfico que llega a un portal, a un sitio web, a una web corporativa, a un blog, a una comunidad web....

Un sitio web bien posicionado para términos de búsqueda populares y con gran cantidad de contenidos tiene una capacidad mucho mayor de recibir tráfico procedente de los buscadores que un sitio web con pocos contenidos, encuadrado en temáticas que generan un escaso interés en los usuarios de la Red o mal posicionado para dichas búsquedas. Este punto es vital para el posicionamiento, a mayor interés en las páginas web, o en sus contenidos, más trafico se genera; para páginas con contenido muy exclusivo, la cantidad de usuarios que están interesados en el tema es menor y por tanto menor el número de visitas.

En otros artículos sobre posicionamiento en buscadores, hemos hablado de que el posicionamiento de una web en los buscadores depende, esencialmente, de dos aspectos: la relevancia on page, o relevancia de los contenidos de la propia página –esencialmente los textos, título y metaetiquetas de la página- por un lado; y de la relevancia off page, o relevancia en forma de enlaces desde otros sitios web, caracterizados por la cantidad y calidad de dichos enlaces.

Sin embargo, antes incluso de que un buscador tenga la posibilidad de calcular la relevancia de una página web, hay una condición previa que dicha web tiene que cumplir: que la página web sea indexable.

Llamamos indexabilidad de una web a su facilidad de ser encontrada por los buscadores, de ser correctamente rastreada en la totalidad de sus contenidos y de ser adecuadamente identificadas las categorías de búsqueda en las que se debería incluir como resultado.

A partir de este punto, la mayor o menor relevancia de la página calculada en función de múltiples parámetros, influirá en la posición final que ocupará en los resultados que el buscador mostrará a los usuarios.

Hay muchas cosas y cambios que podemos hacer en nuestra web para que sea más atractiva a los buscadores:

1. Actuando como lo hace un buscador web:

Uno de los primeros pasos para saber qué le gusta y qué no a un buscador consiste en ver su web como la ve el robot que tiene que indexarla.

Existen diversos simuladores de arañas o robots (spider simulators o robot simulators) que puede emplear. Son herramientas on line que presentan la información que puede ser rastreada y empleada para calcular la relevancia.

De esta forma veremos que las cómo las imágenes, animaciones, contenido multimedia, Flash, etc. desaparecen y queda sólo el texto y los enlaces. Efectivamente, los buscadores tienen en cuenta fundamentalmente el contenido de texto de la página para calcular la relevancia, es por tanto que los más importante de nuestra página es el contenido (texto principalmente).

A estos efectos, resulta también muy útil la vista “caché” que puede consultar en los resultados de algunos buscadores: se trata de la copia de su página que ellos han guardado en sus servidores.

Incluso, es posible aislar el texto disponible llegando a una vista de su página parecida a la obtenida con las herramientas simuladoras de araña del párrafo anterior. Siendo muy importante utilizar este método para ello.

Si en la versión de caché de su página o tras emplear el simulador de araña comprueba que no hay texto visible, debemos presuponer que tenemos un grabe problema, ya que la página no se va a indexar correctamente.

Probablemente su web está hecha con Flash, o todo el texto forma parte de una imagen que integra el diseño junto con el texto. En ambos casos la solución pasa por alterar la programación original de su web o crear una versión HTML alternativa que sí contenga texto relevante para el buscador.

2. Cada página una URL única, una dirección única.

URLs únicas para cada página, o lo que es lo mismo, cada página debe tener su propia y exclusiva dirección o URL para que sea encontrada con facilidad.

En las páginas de resultados de los buscadores, cada resultado se identifica con un valor que ha de ser único: es la dirección URL de la página. Se trata de la misma cadena de texto, números y símbolos que una vez en el campo de dirección del navegador le llevará a esa página (llamada también URL de la página, que debe ser única y exclusiva).

El valor de esa dirección es único: es como el DNI de la página. Identifica a ese contenido y ninguna otra página en Internet puede tener exactamente la misma. No pueden haber dos páginas que se puedan acceder con la misma dirección en el navegador.

Si navega por su web y comprueba que la dirección URL de su navegador no cambia, tiene un problema.

Es posible que su web tenga muchos contenidos, pero los buscadores no van a poder archivar cada página con una dirección única. Puede comprobar si éste es su caso preguntando a los buscadores qué paginas conocen de su web introduciendo el comando “site:www.sudominio.com” en el campo de búsqueda. Al pulsar INTRO, los buscadores le devolverán un listado con las páginas indexadas de su sitio web. Son las páginas susceptibles de aparecer en los resultados de una búsqueda (tema muy importante, ya que incluye la descripción que se utilizará para encontrar el contenido). Si al navegar por su sitio web no cambiaba la dirección URL, es posible que haya pocas páginas en este listado. Puede deberse a que su web está programada con Flash, con AJAX o con marcos. En cualquiera de los tres casos deberá cambiar radicalmente la programación de su pagina web para identificar cada página distinta con una dirección URL distinta y única. Sólo así podrá tener más oportunidades de que las distintas páginas de su web aparezcan en los resultados a distintas búsquedas.

3. Los enlaces rastreables. Enlaces y links que nos ayudan a encontrar el contenido de nuestra web.

Los enlaces son importantísimos para los robots de los buscadores, ya que los utilizan como una araña para encontrar nuevo contenido web, nuevas páginas e incluso nuevas webs. Los robots los utilizan para llegar a nuevas páginas, por lo que su importancia es vital en una web o sitio.

Cualquiera de los medios usados en el punto 1 nos servirá para ver los enlaces rastreables, aquellos que los robots seguirán para continuar rastreando contenidos y más contenidos, páginas y más paginas web. En la versión caché los veremos como texto azul subrayado, mientras que en el simulador de araña ocupará una sección concreta del análisis.

Si al buscar “site:www.midominio.com” en el punto 2 encontraba pocas páginas de su sitio listadas, también puede deberse a que los enlaces de sus páginas no son rastreables, por lo que debería aplicar a su página un simulador de robot para comprobarlo.

Si fuera necesario necesario, sustituya los menús desplegables programados con JavaScript o Flash por enlaces HTML normales, o bien duplique los enlaces más importantes en una línea de enlaces situada en el pie de página. Con esta técnica logrará que todas sus páginas puedan ser rastreadas por los robots, y éstos pueden saltar de una página a otra de su web y podrán indexar todas ellas. Además conservará la navegabilidad por su página web.

4. Cuidado con las ventanas pop-up

Es todavía muy habitual en los comercios electrónicos: navegamos por las secciones, llegamos a la familia de productos, consultamos una ficha de producto y, eh voilá, se abre en una nueva ventana más reducida y sin controles de navegación (también llamadas ventana pop-up).

Las fichas de producto es la información más valiosa de cualquier web. Al abrirla en una nueva ventana de esta forma corremos el riesgo de que la apertura de la nueva ventana sea interceptada por los bloqueadores que existen en múltiples navegadores. Por ejemplo Firefox y Safari, bloquean automáticamente estas ventanas pop-up, por lo que la información no se mostrará al usuario.

Por otro lado, y lo que es más importante, impedimos que los robots lleguen y puedan indexar estas páginas que contienen información de gran valor y que aportan en muchas ocasiones la sintesis del contenido de la web, ya que los enlaces que abren estas páginas no son normalmente rastreables.

Se trata de enlaces programados con JavaScript que pueden plantear problemas a los buscadores. Si este es su caso, la solución es integrar las fichas de producto en el diseño general de su sitio web de forma que sean simplemente una página más, sin necesidad de abrirlas en nueva ventana. O que formen parte de la página principal donde se muestran las características de los productos.

5. Miedo a los subdirectorios: como organizar la información de una web.

Los robots de los buscadores consideran normalmente que la página home de un sitio web es la más importante del sitio, y que el nivel de importancia va disminuyendo conforme aumenta la distancia en clicks de ella, por lo tanto disminuye conforme a la profundidad de la web o de las páginas a las que accede.

El proceso de indexación comienza así por las páginas que ocupan los primeros niveles y cuesta más que llegue a las páginas que tienen pocos enlaces entrantes o están en los niveles más profundos de la navegación, o en la zona más oculta de la web.

Es por ello importante diseñar arquitecturas de la información con pocos niveles de profundidad, que evoluciones más horizontal que verticalmente. Y establecer itinerarios de navegación alternativos para los buscadores que permitan aflorar páginas internas a pocos clicks de la página home. Podemos hacerlo con apartados de enlaces relacionados, lo más buscado, productos destacados, etc.

6. Impacta a los usuarios y deja indiferente a los buscadores: Flash, Silverlight…

A pesar del tiempo que lleva presente en la Red la tecnología Flash todavía presenta múltiples problemas para los buscadores, problemas sobretodo de indexación.

La mayoría de contenidos programados con estas tecnologías llamadas Rich Media son difíciles de indexar para los buscadores y, dependiendo de la forma en que está programada la web, puede suponer que ninguno de nuestros contenidos sea rastreado, impidiendo que el sitio web se indexe correctamente.

De momento, no hay más alternativa que programar una versión alternativa en HTML que contenga suficiente contenido indexable y que, a nivel de usuario, pueda ofrecer los enlaces para dirigirse al contenido Rich Media, pero que cumpla con los requisitos que marcan los buscadores para una buena indexación.

7. Evitar los marcos o frames.

En la época en que el ancho de banda era un bien escaso, el empleo de marcos estaba plenamente justificado. Las páginas se dividían entre elementos fijos como navegación, cabecera, pie de página, etc. y dinámicos, como área de contenido. Las distintas secciones se programaban en marcos de forma que, una vez cargado un sitio web concreto, sólo tuviera que “viajar” la parte que variaba: la página que ocupaba el marco de contenido. Este tipo de páginas son fáciles de identificar porque contienen controles de desplazamiento vertical u horizontal (scroll) que no ocupan toda la ventana del navegador.

Una web programada con marcos (frames o iframes) presenta muchos problemas de indexabilidad: los buscadores muchas veces no pueden rastrear el contenido del marco. La dirección URL en este tipo de sitios web generalmente no cambia. E, incluso cuando las páginas de los marcos son indexadas, se corre el riesgo de que el usuario, que hace click en ellas como resultado, se encuentre en una página “huérfana” que se abre en su navegador separada de su estructura de marcos correspondiente y, por tanto, sin navegación, cabecera, pie de pagina, etc.

El creciente uso de la banda ancha hace injustificable en la mayoría de ocasiones el empleo de marcos. Dados los problemas de indexabilidad que plantean, se recomienda transformar una estructura de marcos en páginas individuales que integren todos los elementos.

8. Uso de buscadores internos

En muchos grandes portales, como los de medios de comunicación o inmobiliarios, existe una cantidad de contenidos mucho mayor que la que es posible enlazar desde los distintos menús de la página home o cabeceras de sección. Estos portales recurren al uso de buscadores internos para que los usuarios puedan filtrar los contenidos y acceder a las páginas que les interesan. Sin embargo, los buscadores no pueden rellenar formularios de búsqueda con criterios distintos para llegar a estos contenidos.

Esto provoca que una parte muy significativa de estos contenidos no se indexe. La solución pasa por crear agrupaciones de contenidos que, a través de enlaces, permita una navegación hacia cada uno de los contenidos bajo distintos criterios. En ocasiones, esta estructura de navegación se parecerá a un directorio, en el caso de un portal inmobiliario, o a un calendario, en el caso de un medio de comunicación. En cualquier caso, la estrategia para garantizar la indexabilidad pasa por la creación de itinerarios alternativos de navegación mediante enlaces indexables para los buscadores.

9. Páginas que pesan mucho al descargarse por los navegadores.

En los primeros años de los buscadores, se recomendaba que las páginas no fueran muy pesadas, es decir, que su tamaño de archivo no fuera excesivo, para garantizar que los buscadores llegarían a indexar todo el contenido de la página. En la actualidad, esta recomendación tiene menos sentido ya que la evolución de los buscadores permite que podamos soslayar este tipo de limitaciones.

No obstante, sigue siendo una buena regla mantener el tamaño de archivo tan reducido como sea posible, sin código basura y tan conforme a los estándares definidos por W3C como sea posible. Esto garantizará que los buscadores lo rastreará correctamente y tendrá, además, varios efectos colaterales muy beneficiosos. En primer lugar, una página muy extensa tiene muchas posibilidades de ser difusa en su contenido: hablará de varias cosas distintas. Este tipo de página se posiciona peor que las páginas claramente enfocadas sobre un tema. Por otro lado, al reducir el tamaño del archivo hacemos más ágil la navegación de los usuarios por el sitio web, lo que redunda en una experiencia más positiva.

10. El orden interno de la web: dominios, subdominios y subdirectorios

Su empresa es global, atiende muchos mercados y en muchos idiomas.¿Cómo debería estructurar su web desde el punto de vista de la indexabilidad? Veamos cuáles podrían ser unas recomendaciones generales:

Los buscadores premian a los sitios web del mismo país, así que si actúa en varios países distintos, podría ser interesante adquirir los dominios con extensión de país de cada mercado en los que actúa: midominio.es, midominio.co.uk, midominio.fr, etc.

Si no se dirige a países distintos, pero sí tiene contenidos en idiomas diferentes, podría ser apropiado agruparlos en subdominios, del tipo: english.sudominio.com, francais.sudominio.com, etc.

Si lo único que le preocupa es estructurar bien las secciones de su web, entonces lo obvio es emplear los subdirectorios: www.sudominio.com/seccion1, www.sudominio.com/seccion2, etc.

11. Los redireccionamientos

En ocasiones, habrá adquirido los dominios en otros países sólo para evitarse problemas con competidores desleales o con vistas a una posible expansión futura.¿Cuál es la forma más adecuada de enviar el posible tráfico que se pueda generar en esos dominios hacia su dominio principal?¿Haciendo que todos ellos apunten a la misma IP que el dominio principal? Desde el punto de vista del usuario puede no haber diferencia, pero desde la perspectiva de los buscadores, es mejor programar un redireccionamiento permanente 301 desde cada uno de estos dominios hacia el principal. Este mensaje de redireccionamiento permanente comunica en un lenguaje que los buscadores pueden entender, que estos dominios de momento no tienen contenido y que, en realidad, el dominio principal es hacia el que se redirige la visita.

En la Red existen múltiples analizadores de cabeceras http con las cuales usted mismo puede comprobar cómo responden sus dominios. Su dominio principal debería responder con un mensaje 200 OK, mientras que sus dominios redirigidos deberían responder con un mensaje 301.

12. Como hacer una página 404 eficaz

En un sitio web dinámico, con actualización frecuente de múltiples contenidos, es frecuente que, antes o después, un enlace termine apuntando a una página inexistente. Incluso si su web cuenta con algún tipo de control para detectar la existencia de enlaces rotos, siempre es posible que algún enlace en otra web o en los buscadores apunte a una página que un buen día pensó que ya no necesitaba. En estos casos, los servidores suelen devolver un mensaje genérico de error con el código 404, que indica que esa página no existe.

Este mensaje genérico se puede personalizar de forma que el servidor devuelva una página correctamente maquetada con el diseño corporativo y que informe igualmente de que el contenido demandado ya no existe. No obstante, existen poderosos motivos para el usuario y para los buscadores por los que además de dicho mensaje de error debería añadir también un pequeño directorio de enlaces con vínculos que apunten hacia los principales grupos de contenido del sitio. Sus usuarios interpretarán esto como: “De acuerdo, la página que buscaba ya no existe, pero esto es lo que tenemos que ofrecerle para que siga con nosotros y pueda continuar con su visita.” Y los robots de los buscadores tendrán nuevas “piedrecitas” para seguir saltando a nuevos contenidos que indexar en su web. En ambos casos, su web saldrá ganando.

13. El mapa del sitio web

A pesar de que solemos leer los libros de un modo secuencial, de principio a fin, es indudable que el índice juega un papel fundamental a la hora de relocalizar ciertos contenidos más tarde. El índice es, por un lado, un gran esquema que recoge de modo resumido y claro todos los contenidos del libro y, por otro, una forma de saltar a cierto contenido concreto a través del número de página. De forma similar, el mapa del sitio permite ver en una única página el esquema completo del sitio web en el que estamos, y nos permite, a través de sus enlaces, “saltar” rápidamente hacia cierto contenido sin tener que emplear el menú de navegación. El mapa del sitio es, pues, muy útil para los usuarios.

Pero también es muy interesante desde el punto de vista de la indexabilidad. Los menús de navegación sólo permiten tener unas pocas –generalmente, menos de diez- opciones en el menú principal. A partir de estas pocas opciones, mediante submenús, menús desplegables, etc. podemos acceder a los contenidos siguientes. Esto aumenta la distancia en clicks de ciertos contenidos respecto a la página principal, lo que, como ya hemos visto, dificulta su indexación. El mapa del sitio permite mostrar, en una sola página, un número mucho mayor de enlaces que se encuentran a un solo click de la página principal. Esto permite una mejor circulación del jugo de popularidad desde la página home a las internas y que la circulación del robot de los buscadores por su sitio web sea mucho más fácil.

14. El archivo robots.txt

Todo lo que llevamos dicho es para garantizar que los buscadores podrán indexar todos los contenidos de nuestra web. Pero¿qué podemos hacer si precisamente queremos lo contrario, que no indexen ciertos contenidos? Existe un tipo de archivo especial llamado robots.txt en donde de forma sencilla podemos especificar qué áreas, subdirectorios o archivos de nuestra web no deberían ser indexados por los buscadores.

Es importante programar adecuadamente este archivo sobre todo en los sistemas gestores de contenido (CMS) que lo generan de forma automatizada, ya que puede darse el caso de que accidentalmente se incluyan como no indexables áreas que sí deberían ser rastreadas.

15. Como hacer un archivo sitemap

Por último, nombraremos otro tipo de archivo especial, se trata del archivo sitemap, que suele ser un fichero con código XML invisible para los usuarios pero que los buscadores consultarán para descubrir todas las páginas de su web que queremos que indexen. Existen múltiples herramientas en Internet para generar fácilmente el código de este archivo. Una vez generado y subido al servidor, podemos darlo de alta en los buscadores mediante la interfaz de herramientas para el webmaster de Yahoo! o de Google, o introduciendo una simple linea “sitemap:http://www.midominio.com/misitemap.xml” en el archivo robots.txt, para Live Search.

En grandes portales, el empleo del archivo sitemap puede ser la estrategia más eficaz para conseguir altos niveles de indexación.

Con todo a la vista

El objetivo de la indexabilidad es garantizar que una web aprovecha todo su potencial de generación de tráfico.

Para ello, se debe asegurar que todos y cada uno de sus contenidos han tenido la oportunidad de ser indexados por los buscadores. Eso significa que se ha rastreado todo el texto, que se han identificado correctamente las categorías de búsqueda donde deben aparecer y que, en la medida de lo posible, su relevancia es mayor que la de los contenidos homólogos de otros sitios web con los que competirán en las páginas de resultados de un buscador.

Piense que cada página de su web es como un anzuelo esperando en el mar de los buscadores: si sólo tiene una página indexada, sólo tiene un anzuelo. Si tiene unas pocas páginas en los índices, es como si tuviera varios anzuelos esperando la presa. Si todas las páginas de su web están indexadas, su web será como una red de arrastre: estará aprovechando todo su potencial de generación de tráfico. Aplique estos quince puntos y seguro que su web se parecerá más a esa red de arrastre de potenciales clientes.

Servicios creativos de diseño gráfico, comunicación gráfica, diseño de etiquetas de vino y aceite, revistas y catálogos

Más sobre posicionamiento SEO

Ofifacil.com Graphic Design
Utilizamos cookies. Continuar navegando implica la aceptación de nuestra: Política de cookies
OK