Mitos y conceptos erróneos acerca de los motores de búsqueda

En los últimos años, una serie de conceptos erróneos han surgido acerca de cómo funcionan los motores de búsqueda. Para el principiante SEO, esto provoca confusión acerca de lo que se requiere para llevar a cabo una eficaz optimización para motores de búsqueda. En esta sección, vamos a explicar la verdadera historia detrás de los mitos.

Darse de alta en motores de búsqueda

En la época clásica de SEO (finales de 1990), los motores de búsqueda tenían un formulario para "darse de alta" que fueron parte del proceso de optimización. Webmasters y dueños de páginas web que etiquetaban sus sitios y páginas con información de palabras clave, y en "enviaban" su sitio a los motores. Poco después del proceso de darse de alta, un bot visitaría las páginas e incluiría los recursos en su índice ¡SEO simple!

Desafortunadamente, este proceso no fue muy sostenible, las solicitudes eran a menudo de spam, y la práctica con el tiempo dieron paso a los motores de rastreo basado puramente. Desde el año 2001, no sólamente darse de alta en motores de búsqueda no ha sido necesario, sino que en realidad ha sido virtualmente inútil. Los motores ponen en conocimiento que rara vez toman en cuenta el botón de "dar de alta" un URL, y que la mejor práctica es el de conseguir enlaces desde otros sitios. Esto expondrá su contenido a los motores de forma natural.

Usted aún puede encontrar páginas para dar de alta un sitio web (aquí está uno de Bing), pero estos son vestigios de un pasado lejano, y es esencialmente una práctica inútil para el SEO moderno. Si usted oye de un SEO que ofrece "darlo de alta en " de servicios, corra, no camine, hacia una verdadera optimización SEO. Incluso si el motor utilizó el servicio de envío para rastrear su sitio, sería poco probable que su sitio gane el suficiente "link juice" para ser incluido en sus índices o que obtenga una posición competitiva en los rankings para las consultas de búsqueda.

Meta Tags

En tiempos pasados , al igual que el botón para darse de alta del motor de búsqueda, las etiquetas meta (en particular, la etiqueta meta de keywords) fueron una parte importante del proceso de optimización SEO. Usted podía incluir las keywords con las que desea que su sitio se posicione en el ranking y cuando los usuarios escribían esos términos, la página podría llegar a figurar en una consulta. Este proceso ha difundido rápidamente a la muerte, y, finalmente, se redujo en todos los motores más importantes como una señal de rango importante.

Lo cierto es que otras etiquetas, como por ejemplo la etiqueta del título (no estrictamente una etiqueta meta, pero a menudo agrupada con ellas) y la etiqueta meta de descripción (cubierta anteriormente en esta guía), tienen una importancia fundamental a las mejores prácticas de SEO. Además, la etiqueta meta robots es una herramienta importante para controlar el acceso de las arañas. Sin embargo, SEO no es "todo sobre los meta tags", al menos, nunca más.

"Fontanero barata de Bob Seattle es el mejor fontanero barato Seattle para todas sus necesidades de plomería. Póngase en contacto con un fontanero barato Seattle antes de que sea demasiado tarde"

Keyword Stuffing

No es sorprendente que un mito persistente en SEO gire en torno al concepto de que la densidad de palabras clave - una fórmula matemática que divide el número de palabras en una página por el número de apariciones de una determinada palabra clave - sea utilizado por los motores de búsqueda para calcular relevancia y ranking.

A pesar de haberse demostrado como falso en repetidas ocasiones, este mito tiene patas. Muchas de las herramientas de SEO todavía se alimentan del concepto de que la densidad de palabras clave es una medida importante. No lo es. No haga caso de él y utilice palabras clave de forma inteligente y con facilidad de uso en mente. El valor de la repetición de una keyword 10 veces en una página es mucho menor que ganar un buen enlace editorial de una fuente que no piensa que eres un spammer.

En Google, en particular, los anunciantes que gastan decenas de millones de dólares cada mes han señalado que ni siquiera ellos pueden tener acceso o consideración especial de los equipos de calidad búsqueda o de webspam. En tanto que existan barreras y los motores de búsqueda las mantengan su cultura de separación de áreas, creemos que esto seguirá siendo un mito. Dicho esto, hemos visto evidencia anecdótica de que pujar en palabras clave con las que ya se esté posicionado de forma orgánica puede ayudar a aumentar su CTR.

Los resultados pagados ayudan a impulsar los resultados orgánicos

Pónganse sus sombreros de papel de aluminio, es el momento para la teoría de la conspiración más común SEO: el gasto en publicidad en buscadores (PPC) mejora su clasificación orgánica SEO.

En todas las experiencias que hemos presenciado o escuchado, esto nunca ha sido probado ni ha sido nunca una explicación probable para los efectos en los resultados orgánicos. Google, Yahoo! y Bing tienen barreras muy efectivas en sus organizaciones para evitar precisamente este tipo de cruce.

Search Engine Spam

Mientras haya búsqueda, siempre habrá spam. La práctica de spamming en los motores de búsqueda - la creación de páginas y programas destinados a aumentar artificialmente el ranking o abusar de los algoritmos de clasificación empleados para ordenar el contenido - ha ido en aumento desde mediados de la década de 1990.

Con los pagos tan altos (en un momento dado, un compañero SEO señaló para nosotros que un solo día en el tope del ranking de los resultados de búsqueda de Google para la consulta "buy viagra" podría traer más de $ 20.000 en ingresos de afiliados), es de extrañar que la manipulación de los motores sea una actividad muy popular en la web. Sin embargo, se ha convertido en algo cada vez más difícil de llevar a cabo y, en nuestra opinión, cada vez vale menos la pena por dos razones:

1. No vale la pena el esfuerzo

Los usuarios odian el spam, y los motores de búsqueda tienen un incentivo financiero para luchar contra ella. Muchos creen que la mayor ventaja de los productos de Google en los últimos 10 años ha sido su capacidad para controlar y eliminar el spam mejor que sus competidores. Es, sin duda, algo en lo que todos los motores de gastan una gran cantidad de tiempo, esfuerzo y recursos . Mientras que el spam sigue trabajando en la ocasión, por lo general, requiere más esfuerzo para alcanzar el éxito que la producción de contenido de calidad y la rentabilidad a largo plazo es prácticamente inexistente.

En lugar de dedicar todo ese tiempo y esfuerzo en algo que los motores echarán a la basura, ¿por qué no invertir en un valor añadido, estrategia a largo plazo en su lugar?

2. Motores más inteligente

Los motores de búsqueda han hecho un trabajo notable identificando metodologías escalables e inteligentes para la lucha contra la manipulación del spam, por lo que es considerablemente más difícil de impactar negativamente en sus algoritmos propuestos. Conceptos complejos como TrustRank (qué SEOmoz aprovecha en su índice de Linkscape), los clics, el análisis estadístico, los datos históricos y mucho más han disminuido el valor del spam de búsqueda y ha hecho las llamadas tácticas de "sombrero blanco" (las tácticas de las que no se violen las directrices de los motores de búsqueda) mucho más atractivas.

Más recientemente, la actualización de Google Panda presentó sofisticados cambios automáticos en el algoritmo de búsqueda para combatir el spam y las páginas de valor bajo en una escala nunca antes vista en línea. Siendo que el trabajo de los motores de búsqueda es entregar resultados de calidad, estos han elevado la vaya año tras año.

Esta guía no pretende mostrar tácticas específicas de spam, pero, debido a la gran cantidad de sitios que han sido penalizadas, prohibidas o marcados y que buscan ayuda, vamos a cubrir los diversos factores que los motores utilizan para identificar el spam con el fin de ayudar a los practicantes de SEO evitar problemas. Para detalles adicionales sobre el spam en los motores de búsqueda, véanse las Directrices para webmasters de Google y las Preguntas Frecuentes de Webmasters de Bing (pdf).

Lo importante a recordar es esto: No sólamente las técnicas de manipulación no ayudan en la mayoría de los casos, sino que muchas veces provocan que los motores de búsqueda impongan sanciones en su sitio.

Análisis del spam en los niveles de página

Los motores de búsqueda realizan análisis de spam a través de las páginas individuales y sitios web enteros (dominios). Vamos a ver primero cómo se evalúan las prácticas de manipulación en el nivel de URL

Keyword Stuffing

Una de las técnicas de spamming más evidentes y desafortunadas, el keyword stuffing, consiste en hacer repeticiones de keywords en una página con el fin de hacer que parezca más relevante para los motores de búsqueda. La idea detrás de esto - que el aumento del número de veces que se menciona un término puede aumentar considerablemente el ranking de una página - es generalmente falsa. Los estudios que observan miles de los primeros resultados de búsqueda a través de diferentes consultas han encontrado que las repeticiones de palabras clave juegan un papel muy limitado en el impulso de clasificación, y tienen una baja correlación con el total de la primera posición.

Los motores tienen formas muy evidentes y eficaces de lucha contra esta mala práctica. Escanear las palabras clave de una página no es un reto masivo, y los algoritmos de los motores son todos capaces de hacerlo. Puedes leer más sobre esta práctica, y los puntos de vista de Google sobre el tema, nos podemos remitir a esta entrada del blog de la cabeza del equipo de webspam - SEO Sugerencia: Evite palabras clave relleno.

Enlazado Manipulativo

Una de las formas más populares de spam en la Web, la adquisición de enlaces por manipulación se basa en el uso de los motores de búsqueda de la popularidad de enlaces en sus algoritmos de clasificación para tratar de inflar artificialmente estos indicadores y mejorar la visibilidad. Esta es una de las formas más difíciles de spamming por los motores de búsqueda de superar, ya que puede venir en muchas formas. Algunas de las muchas maneras en los enlaces de manipulación pueden aparecer son:

Programas de intercambio recíproco de enlaces, dentro de sitios en donde se crean páginas de enlaces que apuntan el uno al otro en un intento de inflar la popularidad de enlaces. Los motores son muy buenos en la detección y la devaluación de estos, ya que encajan en un patrón muy particular.

Sistemas de enlazado, incluyendo "granjas de enlaces" y "redes de enlaces" en sitios web falsos o de bajo valor que se construyen o mantienen únicamente como fuentes de enlace para inflar artificialmente la popularidad. Los motores de búsqueda los combaten a través de numerosos métodos de detección de conexiones entre los registros en el sitio, el solapamiento de enlace u otros factores comunes.

Enlaces de pago, donde aquellos que buscan ganar mayor posicionamiento compran enlaces de los sitios y las páginas que están dispuestos a colocar un enlace de ellos a cambio de fondos. Esto a veces evoluciona hacia redes más grandes de compradores y vendedores de enlaces, y aunque los motores de búsqueda trabajan duro para detectar a los sitios que incurren en estas prácticas (Google en particular, ha tomado medidas drásticas), una gran cantidad persisten en el suministro de valor a muchos compradores y vendedores (ver este post sobre enlaces pagados para más en que perspectiva).

Enlaces de directorios de baja calidad son una fuente frecuente de manipulación para muchos en el campo del SEO. Un gran número de directorios web de pago existen para servir a este mercado y hacerse pasar como legítimos, con diversos grados de éxito. Google toma a menudo la acción en contra de estos sitios mediante la eliminación de la puntuación PageRank de la barra de herramientas (o reducirlo drásticamente), pero no lo hará en todos los casos.

Hay muchas tácticas manipuladoras de linkbuilding que los motores de búsqueda han identificado y, en la mayoría de los casos, se han desarrollado métodos algorítmicos para reducir su impacto. Como los nuevos sistemas de spam surgen, los ingenieros seguirán para luchar contra ellos con algoritmos específicos, revisiones humanas y la recopilación de informes de spam de los webmasters y SEOs.

Cloaking

Un principio básico de todas las directrices de los motores de búsqueda es mostrar el mismo contenido para los rastreadores del motor que te gustaría mostrar a un visitante normal. Esto significa, entre otras cosas, no para ocultar el texto en el código HTML de su sitio web que un visitante normal no puede ver.

Cuando esta directriz se rompe, los motores de llamarlo "encubrimiento" y tomar medidas para evitar que estas páginas de la clasificación en sus resultados. Encubrimiento puede realizarse en cualquier número de formas y para una variedad de razones, tanto positivas como negativas. En algunos casos, los motores pueden dejar que las prácticas que son técnicamente "encubrimiento" de paso, a medida que se hace por razones de experiencia de usuario positiva. Para más información sobre el tema de la invisibilidad y los niveles de riesgo asociado con diversas tácticas y las intenciones, vea este post, encubrimiento sombrero blanco, de Rand Fishkin.

"Low value" pages

A pesar de que técnicamente no puede ser considerado "spam web", los motores tienen métodos para determinar si una página ofrece un contenido único y "valor" a sus buscadores antes de incluirlo en sus índices y resultados de búsqueda web. Los tipos más comunes de las páginas filtradas son "finas" el contenido de afiliados, contenido duplicado, y generadas dinámicamente las páginas de contenido que proporcionan texto único o de muy poco valor. Los motores están en contra de la inclusión de estas páginas y utilizar una variedad de algoritmos de análisis de contenido y un enlace para filtrar el "escaso valor" de las páginas que aparecen en los resultados.

2011 de Google Panda actualización se llevó a los pasos más agresivos jamás visto en la reducción del contenido de baja calidad en toda la web, y Google sigue actualizando este proceso.