El turno de Google.

google.jpg 

Como todos sabemos, Yahoo! no es un motor de búsqueda sino un directorio. Esto significa que su base de datos está compuesta por sitios seleccionados “a mano”, por personas reales. Esta particularidad motiva que dicha base de datos sea sustancialmente menor que la de los motores, los cuales las conforman mediante el uso de programas navegadores, los llamados robots. Cuando una búsqueda no encuentra coincidencias entre los sitios almacenados en su archivo, Yahoo! exhibe los resul-tados ofrecidos por algún otro sistema. Durante los últimos tiempos, este sistema era el de Inktomi y a partir del próximo mes será el de Google.

Este cambio eleva varios escalones la importancia de Google como proveedor de visitas para sitios en castellano, dado que Yahoo! continúa siendo uno de los buscadores más utilizado por los usuarios hispanos. Aunque todos podemos enviar nuestros sitios a las versiones en español de Yahoo!, no podemos hacerlo a su sitio principal, en inglés, perdiendo de esta forma una buena posibilidad de obtener más visitas. El recurso alternativo es el de conseguir un buen listado en el motor adicional, de modo que podamos aparecer entre los resultados secundarios. En muchas oportunidades, estos listados se convierten en los principales, dado que muy pocos sitios en nuestro idioma están incluidos en el Yahoo! principal y para una buena cantidad de consultas ellos serán los únicos resultados disponibles.

Y también serán los únicos en las versiones hispanas cuando las búsquedas incluyan términos no archivados en Yahoo! Recordemos que este directorio generalmente sólo almacena una página por sitio y muy pocos datos sobre ésta, los que nosotros ingresamos en el formulario de registro. De esta forma, nos deja sin posibilidades de ser hallados por una gran cantidad de keywords relacionadas con nuestro sitio.

Los motores de búsqueda, por el contrario, indexan varias páginas por sitio y gran parte de su contenido (si no todo), ampliando dichas posibilidades. Consiguiendo buenos listados en estos buscadores alternativos de Yahoo!, tenemos grandes chances de aparecer en los resultados de las consultas realizadas en sus páginas.

Google, en http://www.google.com , es un buscador con robot y su funcionamiento difiere bastante de los otros motores de búsqueda. Su sistema de selección de resultados otorga una relevancia mayúscula a la POPULARIDAD de un sitio, el tema que tratamos en nuestra última edición.

Su base de datos está desarrollada de forma que, ante todo, le sea asignado a cada sitio un índice de popularidad. Sólo después, ante una consulta determinada, utiliza la comparación textual y lista las coincidencias conservando el ordenamiento que cada una de ellas tiene en la escala del buscador.

El proceso de agregar URLs es similar a cualquier otro motor. Hay que dirigirse a su página de AddURL en http://www.google.com/addurl.aspl e ingresar la de nuestro sitio en el casillero correspondiente. Provee también un casillero para incluir algunas palabras clave, aunque según Google éstas no son utilizadas para el esquema de relevancia (lo cual parece ser correcto, de acuerdo con las pruebas que hemos hecho).

Al igual que alguno de los otros motores, Google ignora las “instrucciones” de los tags meta keywords y description. Una página es relevante ante una búsqueda si la palabra clave utilizada se halla dentro del texto principal o si estuviera asociada al ENLACE QUE APUNTA HACIA ELLA.

Para el listado en sí utiliza el título de la página, acompañado de un breve extracto del texto principal. Otra de sus características reside en que este extracto NO ES siempre el mismo, sino que varía de acuerdo con la keyword utilizada en la búsqueda. Esto se debe a que Google exhibe una porción de texto que incluye las keywords en cuestión y, a menos que éstas estén cercanas unas de otras, el párrafo a mostrar irá variando para ajustarse a esta característica. Es una forma de mostrar en cual contexto es utilizada tal palabra clave, lo que permite al usuario seleccionar aquel que más se ajuste a su interés.

Google dice tener una base de datos “escalable”, que eventualmente estará en condiciones de acompañar el crecimiento de la red (una vieja aspiración de todos los motores de búsqueda, hoy algo postergada). De acuerdo con su política, es posible que indexe con mayor prioridad (y que actualice más frecuentemente) aquellos sitios que va encontrando varias veces en su paso por la web, en vez de aquellos que le son sugeridos via formulario. Este es otro dato que subraya la importancia que le da el buscador a los enlaces desde otros sitios.

A tal punto es importante la “link popularity” para Google que incluso puede mostrar entre sus resultados algunos sitios que aún NO ha recorrido su robot, basado exclusivamente en la cantidad de veces que ha encontrado enlaces hacia ellos. En estos casos, el listado de estos sitios exhibirá directamente su URL en lugar del título.

Del mismo modo, un sitio puede NO APARECER NUNCA en los resultados si no cuenta con enlaces externos apuntando hacia él.

Otro elemento clásico que tiene mayor influencia en Google que en el resto de los buscadores es la posición relativa que mantienen entre sí los términos utilizados en la búsqueda, otorgando mayor relevancia a las páginas que contengan las palabras clave cercanas unas de otras (algo similar a lo que es posible obtener con el operador NEAR en otros buscadores).

El listado en Google puede demorar entre una y cuatro semanas desde el momento en que es solicitado y suponiendo que el sitio en cuestión ya cuente con referencias en su base de datos. La frecuencia de actualización es variable basada también en datos previos, aunque la general anunciada es de cada 30 días. El robot suele recorrer gran parte del sitio, lo que por el momento no hace recomendable el envío de múltiples páginas.

Cabe mencionar que como en los casos consignados en nuestra nota anterior, Google también permite consultar la cantidad de enlaces que apuntan hacia nuestro sitio, utilizando para ello la siguiente sintaxis:

link:mi_dominio.com

Por último, señalamos que, siguiendo las normas de la web, su robot obedece las instrucciones contenidas en el archivo robots.txt, al mismo tiempo que acepta cierto número de tags meta robots que nos permiten controlar cuanto de un sitio puede ser indexado.

En una nota al margen, es oportuno recordar una vez más que dada la forma de trabajo de un robot, debemos tener MUCHO cuidado con la instalación online de documentos que no deseamos hacer públicos. Todo material publicado en la web es potencialmente accesible por cualquier navegador o robot. Más aún en el caso de Google, y debido a su fuerte dedicación a seguir enlaces para encontrar otros sitios, es posible que inadvertidamente demos a conocer información confidencial.

Mucha gente cree que basta con que algún directorio de su servidor no esté enlazado desde ninguna otra página para que nadie, con medios legítimos, pueda accederlo. Pero resulta que un enlace hacia él puede aparecer imprevistamente, haciéndolo inmediatamente accesible para un robot. Un caso habitual se da cuando se “clickea” un link desde esa zona del sitio. Esta acción se verá reflejada en los logs de acceso del sitio de destino, que quizá SI sean públicos, bien directamente o por medio de las páginas producidas por su software de estadísticas. Y, obviamente, si ya hay un enlace hacia aquella zona, ésta pasa a ser accesible públicamente. Repetimos que esto no es relativo sólo a Google, sino que puede suceder con cualquier navegador y es aún más sencillo para un robot.

Artículo original de Oscar González Alba
publicado en la lista de correo de Guía para los Buscadores.
© Tiempos Mejores – Buscadores en Castellano
Técnicas de promoción de sitios web en español

Más técnicas para la indexación de tu web en buscadores.

 tecnicas.jpg

Exísten muchas técnicas para que la indexación de vuestro web en los buscadores consiga los primeros puestos, no obstante hay que comenzar por algunos planteamientos básicos. Seguidamente os recomendamos algunas técnicas básicas que debemos utilizar a la hora de realizar esta indispensable operación para hacer visible nuestro sitio a través de los motores de búsqueda
Normalmente esta técnicas nos van a llevar algún tiempo, sobre todo en la planificación de la operación de indexación, pero es preferible invertir este tiempo y realizar una buena indexación.

Técnicas básicas:

– META TAGS
No nos cansaremos de repetir que las meta tags deben de ir en todas las páginas que componene el web. Incluso si se trabaja con programas interactivos desarrollados en ASP ó PHP, que mezclan html para la presentación de las misma, debemos incluírlas en todas las páginas que se generen. De hecho hay algunos buscadores como GOOGLE.COM que indexan este tipo de páginas.

Composición de las meta tags:
Título
Descripción
Palabras Claves;

Estos tres conceptos deben ser diferentes en cada página web, elaboradas en función del contenido de las páginas web. No debemos incluír palabras claves que no estén relacionadas con el tema de tu web. Existe una tendencia de algunos diseñadores de web que incluyen palabras muy buscadas, como gratis, música. Si tus páginas no tratan de estos temas no incluyas estas palabras. Tampoco debes repitir palabras claves.

“robot.txt”: Añade la Meta tag “robot.txt” para indicar al robot del buscador qué páginas deben ser indexadas y cuales no. Si una de las páginas interiores no está relacionada con el tema de tu Sitio Web debes indicar al robot que no sea visitada ni indexada: .

El motivo fundamental es que los buscadores ven tu Sitio Web como un “conjunto global”, un todo y colocan en los primeros puestos aquellas páginas web que ofrezcan un alto contenido sobre un tema en particular.

LINKS, LINKS, LINKS: En muchos casos los buscadores analizan la “popularidad de tus páginas” sobre la base de la cantidad de saltos que existen en otras webs hacia las tuyas.

Invierte el tiempo en conseguir links hacia tu página web de páginas que estén relacionadas con tu tema.

Algunos consejos que te ayudarán:

– Envía tu web a clasificados y páginas de enlaces (FFA, Free for all links) mensualmente o incluso cada quince días. Cuanto más links tengas hacia tu Sitio Web, más posibilidades de que los motores de búsqueda, que continuamente están “rastreando” la Red, localicen tu sitio web con más frecuencia y más rápido. Indexarán tu web más a menudo y creerán que tu web es muy popular en la Red, MEJORANDO tu posición en sus listas.

Existen algunos programas que te permiten hacer esta operación de forma automática:
http://www.myrasoft.com
http://www.submitwolf.com

Estas son dos direcciones web donde podrás por unos pocos dólares conseguir este tipo de programas, pero un consejo, si los adquieres utilízalos con cabeza. No te líes a enviar a los buscadores cada dos días tus páginas. Algunos buscadores no debes enviárselo más de una vez o te meterán en la “lista negra”.

– Participa en foros de discusión: Algunos buscadores indexan también estas páginas. Por su puesto cada vez que participes, firma los mensajes una buena forma puede ser, por ejemplo:

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
Roberto R. Cerrada
rcerrada@infonos.com
http://www.infonos.com
Infonos.com: Arquitectura de la información.
Como gestionar los contenidos de tu web,
consejos, análisis, tendencias,…, consultoría
especializada para sitios web de éxito
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

Este tipo de firma genera un salto hacia tu página. Cuantos más mensajes pongas en los foros más links tendrás. Esto no quiere decir que te líes a enviar mensajes indiscriminadamente a los foros. Participa en los foros que tengan que ver con los servicios que ofreces, los buscadores analizan el texto del mensaje e indexan por las palabras más repetidas del mensaje intentando centrar el tema y contenidos.

La apostilla de incluir un mensaje promocional, después de la firma, además de dar a conocer tus servicios a los demás miembros del foro y a los visitantes de ese mismo foro, ayudan a centrar tu link.

¿Como funciona un robot? – a grandes rasgos –
Cuando un robot encuentra tu web (normalmente a través de otros links) y la visita, carga primero el texto de la primera página. Busca las Meta tags y extrae la información de la descripción y keywords (no todos los buscadores soportan estas Meta tags). Algunos de ellos extraen la información de los primeros 200 caracteres y la utilizan como descripción.
¡Cuidado con las tablas! mira directamente el código para ver que celda de la tabla aparece primero en el buscador y ajusta el diseño para colocar allí el texte que describa tu web. Si en esta celda va colocada una fotografía o un gráfico, no olvides colocar este texto en el “texto alternativo” del gráfico.

A continuación extrae el título. Algunos extraen del texto de la página las palabras más utilizadas y las utilizan como keywords.

Extrae los hipervínculos hacia páginas interiores para visitarlos más tarde y los hipervínculos hacia links exteriores (así es como encuentran nuevas páginas web para seguir rastreando sin parar en la Red).

Guardan toda esta información, el robot sabe cuántas páginas componen tu sitio web, cuantos links exteriores existen y puntúa tu Sitio web analizando toda esta información extraída.

No intentes engañar al robot poniendo texto del mismo color que el fondo de tu web, no utilices palabras claves que son muy buscadas y que no tengan nada que ver con el tema de tu web. El Buscador te penalizará y no aceptará tu web.

Deberás ofrecer al robot toda la información que busca cuando éste visite tu web. Intenta diseñar una página web que ” demuestre ” al motor de búsqueda que es interesante ponerla en una de las primeras posiciones de su directorio.

Enlaces para ganar posiciones.

enlaces.jpg 

Para todo sitio web, una de las técnicas más eficaces para conseguir visitantes cualificados es la de obtener enlaces desde otros sitios con temáticas afines. Esto permite posicionar nuestro sitio justo ante los ojos de usuarios potencialmente interesados en el contenido de nuestras páginas.

Es, también, junto con el posicionamiento en buscadores, otra de las técnicas más frecuentemente ignoradas o subestimadas. Casualmente (o no tanto) ambos métodos están estrechamente relacionados, tanto que una exitosa estrategia de “linking” influye notablemente en la posición que un sitio puede alcanzar en los resultados de búsqueda.

La razón de esta influencia es fácil de entender. Si un sitio posee varios enlaces hacia él, debe ser lo suficientemente interesante. Se supone que nadie pondría en sus propias páginas un enlace irrelevante. De este modo, los buscadores tienen un elemento de juicio más (y de mucho peso) para determinar la importancia relativa de un sitio: basta que verifiquen cuantos enlaces apuntan hacia él. Es como si los robots utilizaran a los otros webmasters como editores, apoyándose en el conocimiento que ellos tienen en sus respectivas áreas de dedicación.

Durante los primeros ensayos de utilización de este criterio de relevancia, en general todo enlace hacia un sitio era considerado de similar importancia. Durante esa etapa, fue frecuente entre los usuarios norteamericanos el utilizar los servicios de envíos a cientos de páginas “free for all links”. Cada enlace sumaba “puntos” para el ranking y en cuantas más páginas hubiera uno hacia nuestro sitio tanto mejor. Esta estrategia era, sin embargo, bastante limitada debido sobre todo a la escasa optimización de estas páginas FFA y a la poca frecuencia con la que se las indexaba en los principales buscadores. Pero durante un tiempo funcionó y aún es medianamente útil en ciertas circunstancias.

En la actualidad, sin embargo, esto no es suficiente. Ante todo, los enlaces otorgan distintos “puntajes” de acuerdo con la propia importancia del sitio que los contiene, de la temática que éstos traten y aún de la estructura del mismo enlace.

En la parte superior de esta escala, el enlace de mayor valor sería aquel que apunta hacia nuestro sitio desde otro sitio que tenga un alto número de enlaces hacia él mismo (por ejemplo Yahoo!). Al mismo tiempo, este enlace debe estar en una página dedicada a un tema afín al que tratamos en nuestro sitio (siguiendo con el ejemplo de Yahoo!, nuestro enlace debería estar en la página de la categoría correcta). Y, por último, el enlace debería ser textual e incluir la palabra clave en cuestión.

Los enlaces que reúnan esas tres condiciones serán los de mayor “puntaje”, y son aquellos por los cuales debemos trabajar para conseguirlos. Pero no debemos limitarnos aquí, ya que también la cantidad cuenta. Un sitio con mayor cantidad de enlaces de “puntaje mínimo” (por ejemplo el obtenido mediante listados en FFAs), puede desplazar de los primeros puestos a otro con sólo un par de ellos con “puntaje máximo”.

Para saber que grado de “popularidad” tiene nuestro sitio, podemos hacer una búsqueda en Altavista con la siguiente sintaxis:

“+link:mi_dominio.com -host:mi_dominio.com” (sin las comillas)

Esto nos arrojará como resultados únicamente los sitios que contienen enlaces hacia el nuestro, descontando los propios enlaces internos de nuestro sitio.

Hacer la misma búsqueda por los dominios competidores, nos permitirá saber que tan bien posicionados estamos respecto de ellos.

Si bien Altavista es el más importante para sitios en castellano, es conveniente saber que búsquedas similares pueden hacerse en Infoseek y HotBot. Una alternativa interesante es la que ofrece LinkPopularity, que hace la consulta simultáneamente en todos ellos.

Hace unas pocas semanas surgió un nuevo sitio llamado WebsMostLinked, que intenta hacer una suerte de ranking basado en la popularidad de los sitios web, es decir en la cantidad de enlaces que apuntan hacia ellos, y es también una fuente de consulta interesante.

Los índices de los buscadores con robot (tanto como la propia web) están poblados de sitios que no aportan nada, y en su afán por ofrecer mejores resultados estos buscadores intentan indexar solamente los sitios que tengan mayor interés potencial. En una reunión de especialistas en buscadores realizada hacia fines del año pasado, la gente de Altavista decía que el 90% de los envíos que recibían eran “spam”. Más recientemente también contaban que un 25% de los envíos ni siquiera eran considerados para indexar.

Una buena forma de destacarse de entre toda esa cantidad de sitios “excedentes” (y por lo tanto de tener más posibilidades de correcta indexación) es precisamente la de contar con varios enlaces externos referenciándonos. En su tarea habitual de recorrer sitios, un spider se verá más “tentado” a visitar también aquellos otros que le son más habitualmente “recomendados”, o sea aquellos cuyos enlaces encuentre más frecuentemente en distintas páginas.

Esta tarea de linking, como decíamos, es habitualmente subestimada, incluso por quienes la recomiendan (??). Para comprobarlo basta verificar la cantidad de enlaces hacia ellos que tienen algunos sitios dedicados a la promoción y marketing de sitios web.

Por este motivo, podemos notar que no muchos sitios acceden a ser considerados por la cantidad de enlaces hacia ellos. Según los estudios que circulan por la red, muy pocos sitios (comparativamente) tienen más de 100 enlaces hacia ellos y esto es lo que por el momento convierte a esta tarea en una herramienta capaz de conseguir resultados sin demasiado esfuerzo.

Si a ello agregamos que también muy pocos sitios están debidamente optimizados, tenemos que aquellos que reúnan ambas condiciones podrán conseguir primeras posiciones y mantenerlas durante bastante tiempo, ya que la competencia seria por el ranking es escasa en la mayoría de los casos.

Enlaces a los sitios mencionados:

·         Altavista

·         Infoseek

·         HotBot

·         LinkPopularity

·         WebsMostLinked

Artículo original de Oscar González Alba
publicado en la lista de correo de Guía para los Buscadores.
© Tiempos Mejores
Técnicas de promoción de sitios web en Buscadores