Cometer en errores en el SEO es algo más común de lo que parece, y es que a veces este trabajo no se deja en manos de profesionales, teniendo consecuencias en el posicionamiento de la web.

Según un último estudio realizado por SEMrush sobre 100.000 sitios web y 450 millones de páginas, algunos de los errores SEO más comunes son los siguientes.

  • El Sitemap. De todas las páginas estudiadas en más del 19% no se puedo encontrar el sitemap.xml. El siguiente error más común es que no se encontró en robots.txt (15,91% de los casos).
  • Enlaces. De todos los enlaces internos rotos, la mayoría son enlaces externos e internos con atributos nofollow.
  • Errores en dominios. Casi el 17% de dominios estudiados están configurados incorrectamente.
  • Errores en la optimización on-page. La optimización on-page es uno de los principales problemas de SEO, y es que no dejarlo en manos de profesionales puede tener consecuencias nefastas para el posicionamiento. En más de un 93% de los casos de errores en la optimización on-page el ratio texto-html era bajo. Otros errores muy comunes es un bajo número de palabras en la página y existencia de contenido duplicado.
  • Errores en páginas. De cada 10 errores de una página web, 7 son errores 4xx. Y entre ellos algunos de los más comunes son errores 400-Bad Resquest (la solicitud tiene una sintaxis errónea), 401-Unauthorized, 402-Payment Required, 403-Forbidden, 404-Not Found (recurso no encontrado), etc.
  • Errores en URLs. Las URLs deben tener una estructura clara y una longitud aceptable para que ayude al SEO. El principal problema que se han encontrado en éstas es que usan underscores (casi el 20% de los casos), otros problemas menos frecuentes son el uso de URLs demasiado dinámicas (5,53%) y demasiado largas (3,84%).
  • Etiquetas de títulos. Los errores en las etiquetas de títulos no tiene demasiado impacto en los resultados de búsqueda, por eso son tan comunes, pero no hay que olvidar que sí son importantes para el CTR. Los errores más comunes en las etiquetas de títulos son la longitud (demasiado larga o insuficiente), la duplicidad o la inexistencia.
  • Los archivos robots.txt. El principal problema con los archivos robots.txt es que las URLs son excesivamente dinámicas (9,68%) o que existen errores en los archivos robots.txt (3,69%). Estos errores pueden causar problemas en la indexación de una página, ya que se pueden indexar páginas que no quieres y no indexarse las que quieres.
  • Optimización de imágenes. A menudo la optimización de las imágenes incluidas en una página se pasa por alto, y no se debería. En más del 65% de los casos de mala optimización de imágenes, éstas no tenían atributo ALT. En otros casos las imágenes internas o externas estaban rotas.
  • Velocidad de carga. La velocidad de carga de una página es uno de los principales retos a los que se enfrentan los administradores de páginas web. Si el usuario tiene que esperar, despídete de él. Por eso hay que evita errores tan frecuentes como una velocidad de carga lenta.

Lo mejor es confiar en profesionales que consigan un buen posicionamiento SEO sin errores. 

07-11-2017