Sobrevivir a los cambios de algoritmos de Google es un desafío que sólo unos pocos pueden superar, como demuestra el fracaso de Calzedonia, RyanAir o El Corte Inglés. Los suyos no fueron errores comunes. Etiquetar páginas relevantes con ‘no follow’ o ‘no index, hacer una migración incorrecta del dominio o abusar de las animaciones Flash y AJAX les hizo pagar un alto precio en el ranking de las SERPs. A través del hashtag #SEOhorrorStories lanzado por Aleyda Solis, estos y otros errores de posicionamiento web circulan por internet como un aviso a los futuros programadores y webmasters en general. ¿Te animas a descubrirlos?

Atributo ‘no index’ en la página principal

Las etiquedas ‘no index’ y ‘no follow’ son una poderosa herramienta de comunicación, con la que explicamos al buscador que un enlace o página determinada no debe ser rastreado, con independencia de la razón (relevancia, privacidad, etc.). Sin embargo, ubicarlos erróneamente en el home u otra página destacada tendría trágicas consecuencias. Incluir la línea <meta name=”robots” content=”noindex”> en un landing page es como ponerse una soga al cuello y saltar al vacío. Con toda seguridad, uno de los mayores errores de posicionamiento web, capaz de dilapidar una gran inversión de tiempo y dinero.

Keyword stuffing en tus metaetiquetas

A principios de siglo, sobreoptimizar las etiquetas meta era una práctica habitual, que alteraba eficazmente el posicionamiento en los buscadores como AltaVista. Sin embargo, Google desestimó desde el principio utilizar esta información para rankear sus resultados, y otros motores de búsqueda tomaron el mismo partido (como Yahoo en 2009). En consecuencia, practicar keyword stuffing en metaetiquetas, además de ser inútil, reduciría nuestro CTR al olvidarnos del destinatario real: el usuario.

URLs predeterminadas en WordPress

Otro error SEO imperdonable es utilizar URLs poco amigable, sobre todo aquellas que están marcadas por defecto en WordPress, Joomla u otras plataformas. El posicionamiento de direcciones como «www.nivel03.com/?p=1495» sería nulo frente a «www.nivel03.com/titulo-de-entrada». Así pues, preferiremos las llamadas URLs semánticas o amigables.

No adaptar las URLs al idioma del destinatario

Lo mismo que debemos diseñar diferentes páginas de inicio y landing pages para cada idioma, un mismo producto o servicio debe tener diferentes URLs en función del destinatario. Aunque pueda parecer una obviedad, numerosos eCommerce pasan por alto un detalle tan relevante, obteniendo un posicionamiento deficiente en otros países.

Uso incorrecto de la etiqueta hreflang

Tendencias como el Local SEO se han impuesto rápidamente en el comercio electrónico, donde a veces no basta con ofrecer contenidos genéricos para otro país sino que deben adaptarse a un territorio determinado. Comunicar esto al buscador no es tarea fácil, y por ello Google ha ideado el código «rel=”alternate” hreflang=”x”», que permite indicar el idioma del contenido y la región del destinatario, algo que en castellano se hace imprescindible: es-MX (en español para navegantes mexicanos), es-CL (en español para navegantes chilenos), etc. Un uso incorrecto de estos atributos tendría fatales consecuencias sobre los contenidos multilenguaje.

No validar nuestros ‘hreflang’

Paralelamente al punto anterior, uno de los mayores errores que cometemos con los valores ‘hreflang’ es olvidar su validación. Si no confirmamos que las páginas con estos atributos se enlazan unas a otras, corremos el riesgo de tener enlaces rotos o mal redirigidos. Asimismo, recomendamos utilizar las abreviaturas idiomáticas del formato ISO 639-1.

Uso improcedente de la etiqueta ‘rel=canonical’

Disponer de secciones web prácticamente idénticas nos expone a penalizaciones por contenido duplicado, un riesgo que podemos evitar con el código ‘rel=canonical’. No obstante, este valor es un arma de doble filo, pues ubicarlo equívocamente en el cuerpo del texto, el body o en etiquetas meta nos expone a las sanciones de los buscadores.

Emplear una ‘rel=canonical’ junto a ‘no index’

Otra errata bastante común entre los programadores amateurs es combinar las etiquetas de ‘rel=canonical’ y ‘no index’ en una misma página, dado que la información que transmiten al buscador es confusa. Los algoritmos ven con malos ojos esta práctica, que también está en el punto de mira de sus sanciones.

Incluir la etiqueta ‘disallow’ en tu robots.txt

Como probablemente sepas, la etiqueta ‘disallow’ permite inhibir el acceso a determinadas páginas y secciones. Cuando en noviembre del pasado año los programadores de RyanAir incluyeron este valor en los archivos robots.txt, la aerolínea irlandesa se desplomó en las SERPs, dado que los motores de búsqueda no podían indexar ninguna de sus páginas.

Uso de redirecciones 301 para eludir una penalización

Las malas prácticas (Blackhat) y otras razones han llevado a Google a penalizar a miles de sitios web. Aunque la mayoría han sabido «reformarse», una minoría ha optado por eludir la sanción a golpe de redirecciones 301. Lamentablemente, el valor atribuido al site no permanece en la página de origen sino que se reenvía con ella, por lo que sólo lograron trasladar sus sanciones al nuevo destino.

¿Que todavía no eres responsive?

La negativa a hacerse responsive ha causado muchos quebraderos de cabeza al buscador más famoso, al que no se le escapa que un porcentaje significativo de sus búsquedas se realiza a través de móviles y ‘tablets’. A las penalizaciones iniciales ha seguido el Certificado Mobile Friendly, con el que Google premia a las páginas responsivas. Con todo, 4 de cada 10 marcas no disponen aún de un diseño adaptado a los dispositivos inteligentes, de acuerdo a un reciente informe de Top Position.

Abuso de las animaciones flash

Los archivos SWF pueden utilizarse con moderación, dado que ayudan a incluir efectos que enamoran al visitante. Sin embargo, su abuso lastra los tiempos de carga, entorpece la navegación y -lo más importante- nos enemista con los algoritmos de Google, en cuya lista negra también figuran las animaciones flash.

Publicación de contenido raquítico

Uno de los parámetros que utilizan los buscadores para determinar la relevancia y calidad de una página web es la extensión de su contenido. Unos años atrás, se hablaba de umbrales superiores a 300-400 palabras. Toda página que no sobrepasara este número perdería puestos en las SERPs. Hoy las voces especializadas sugieren que la extensión está entre las 800 y las 1.000 palabras, aunque nadie lo sabe con certeza. Como quiera que sea, publicar contenido en abundancia pero de corta extensión es muy contraproducente.

Migración incorrecta del dominio

La migración y transferencia de una página web es una práctica aparentemente libre de riesgos, y puede realizarse sin alternar su ranking en los resultados orgánicos. Como no podía ser de otra manera, los errores de posicionamiento web están a la orden del día, incluso para gigantes como Calcedonia y El Corte Inglés. En el caso de los grandes almacenes españoles, unas redirecciones desacertadas y otros factores relacionados redujeron su visibilidad más de un 40%. Una tragedia en toda regla.

Exceso de AJAX en contenidos y elementos

Al igual que sucedía con las animaciones flash, la tecnología AJAX disgusta bastante al buscador de Mountain View, aunque por razones de legibilidad. Sus algoritmos no pueden interpretar correctamente el contenido dinámico y tienden a desconfiar del mismo. La plataforma de creación de sitios web, Wix, está lidiando actualmente con esta problemática, dado que su editor utiliza en exceso Javascript y AJAX.

Cometer cualquiera de estos errores de posicionamiento web nos empujaría a un escenario pesadillesco, ya que Panda, Penguin y otros algoritmos penalizadores de Google no dudarán en enviarnos a la segunda o tercera página de búsqueda. No obstante, recuperarse de sus sanciones es posible, especialmente si contamos con la ayuda de agencias especializadas. Si quieres ampliar esta información, te invitamos a descubrir cómo funcionan los motores de búsqueda.