SEO

Errores de SEO técnico que no debes olvidar en tu estrategia SEO

Errores técnicos más comunes en una estrategia SEO

En cualquier proyecto online es muy habitual que aparezcan errores técnicos, de ahí la importancia de llevar a cabo una auditoría SEO completa para detectar todos estos fallos de optimización.

Existen muchas formas de analizar este tipo de errores, aunque principalmente se suelen usar las diferentes herramientas SEO que existen en el mercado y están especializadas para ello, hasta revisiones manuales para detectar este tipo de problemas.

Optimizar un proyecto online es una tarea constante y que requiere tiempo y paciencia para que finalmente pueda dar los resultados esperados.

En este artículo analizamos los errores más frecuentes que solemos encontrarnos con nuestros clientes y que, por experiencia propia, hemos tenido que vivir. Desde páginas donde un día para otro pasan a desindexarse por cambiar la etiqueta del meta robots, hasta proyectos con miles de errores 404 o con tiempos de carga muy superiores.

Además, como contenido adicional te incluimos un vídeo explicativo de nuestro canal de Youtube, en la mayoría de errores de este listado para que puedas tener más información al respecto.

¡Comenzamos!

Estructura de URLs

Tanto si tu sitio web cuenta con 100 URLs como 10.000, es importante organizar bien la estructura de URLs para luego poder trabajar correctamente en enlazado interno y poder repartir la fuerza de posicionamiento entre las diferentes secciones de tu web.

Una arquitectura SEO bien trabajada es sinónimo de que Google pueda rastrear con más facilidad tu web, por lo tanto, el presupuesto de rastreo, también llamado Crawl Budget, mejorará y como consecuencia, conseguiremos mejores resultados en nuestra estrategia SEO.

URLs amigables

En relación al punto anterior, es importante tener en cuenta este apartado. 

Muchos proyectos no cuentan con URLs amigables y es importante optimizarlas tanto para hacer uso de palabras clave y que éstas coincidan con el contenido de las páginas, como para que los usuarios puedan recordar fácilmente estas direcciones y tengamos una buena experiencia de usuario.

Robots.txt

En relación al archivo robots.txt hemos visto errores de todo tipo. Desde páginas bloqueadas y que deberían indexarse en los motores de búsqueda, hasta configuraciones copiadas de otros archivos robots.txt de Internet.

Generalmente este archivo se crea por defecto si tu proyecto esta creado con cualquier CMS, no obstante, es importante revisarlo siempre para comprobar que no estemos bloqueando alguna ruta que queremos que el bot tenga acceso.

Meta robots

Cuando hablamos del meta robots nos referimos a la metaetiqueta HTML como tal, la cual sirve para dar indicaciones y directrices a los bots para indicar qué páginas queremos indexar y cuáles no.

Una de las formas más efectivas de desindexar una página es cambiando esta etiqueta a ‘noindex’. Aunque también podemos hacerlo desde la herramienta de Google Search Console y en el archivo robots.txt, aunque no recomendamos hacerlo con esta última opción.

Aunque parezca fácil implementar esta metaetiqueta, hemos visto muchos proyectos que por alguna modificación cambian este elemento sin darse cuenta y de un día para otro vemos que nuestro proyecto se ha desindexado de los resultados de búsqueda.

Meta etiquetas

No es tanto un error técnico, pero aquí entran en juego factores importantes como el CTR, el cual necesitamos optimizar para que nuestro resultado se lleve la mayor cantidad de clics frente a la competencia.

Uno de los errores más frecuentes que nos hemos encontrado con las meta etiquetas, es que muchas suelen estar duplicadas, o incluso no tienen relación con el contenido actual de la página.

Todas las meta etiquetas deben ser únicas, deben contener la palabra clave relacionada con el contenido actual, y si puedes, en la meta descripción, incluye un Call To Action para incitar al usuario a hacer clic.

Canonicals

Es importante que todas nuestras páginas incluyan la etiqueta canonical, ya que con ello evitaremos tener posible contenido duplicado entre nuestras páginas. 

La etiqueta canonical nos permitirá definir una URL como original, de tal manera que si existen dos páginas muy similares, desde una de ellas podemos definir como canonical la otra página que queremos que Google tenga en cuenta y se indexe.

Sitemaps

A pesar de que en casi todos los CMS del mercado el sitemap es generado automáticamente, a veces es necesario realizar ciertos ajustes para su optimización.

Estos ajustes pasan por controlar que la estructura del sitemap sea correcta, no incluya páginas redireccionadas o con errores 404, y que no haya errores de sintaxis.

Rich Snippets

En relación con las meta etiquetas, usar datos estructurados para tus páginas pueden ser muy positivo si queremos incrementar el CTR y ganar visibilidad en los resultados de Google.

Aunque Google esté en constante cambio, es importante conocer los principales marcados de datos que te permitirán conseguir más tráfico orgánico y visibilidad. Entre ellos: las preguntas frecuentes (FAQ Page), la posición cero de Google, fragmentos de reseñas, recetas, eventos, etc.

Hreflang

Si tu sitio web cuenta con diferentes idiomas, es necesario implementar correctamente la etiqueta hreflang para indicar a Google que nuestras páginas están disponibles en otra versión de idioma

Existen múltiples herramientas para detectar que el marcado de hreflang este bien implementado, no obstante, en el siguiente vídeo podrás aclarar todas tus dudas.

HTTP y HTTPS

A día de hoy cualquier sitio web debería contar con el certificado SSL para que sus páginas se marquen como seguras y el usuario tenga buena experiencia de usuario.

Si hemos migrado la web a HTTPs, es posible que hayamos dejado atrás alguna URL con la versión HTTP y, por lo tanto, se ha de corregir.

La mayoría de estas URLs con HTTP suelen ser imágenes o enlaces que se haya introducido manualmente y por lo tanto sigan en la versión antigua. Asegúrate también de que el sitemap esté actualizado y todos los canonicals apunten a una versión en HTTPs.

Enlaces y Disavow

Estoy seguro de que alguna vez te has topado con algún proyecto cuyo perfil está lleno de enlaces spam o de baja calidad

Esto implica hacer una revisión de estos enlaces para que no afecten negativamente el SEO de nuestro sitio web, y para corregirlo, debemos desautorizar estos enlaces desde la herramienta de Disavow Tool de Google.

¡En el vídeo te lo explicamos en detalle!

WPO – Velocidad de carga

Los tiempos de carga cada vez cogen mas peso para Google y sin duda son un factor super importante en cualquier estrategia SEO.

Hemos visto webs que tardan más de 10 segundos en cargar, cuando lo recomendable es que no pase de 2 segundos. Los principales motivos de ello suelen ser la mala elección del hosting, imágenes pesadas, compresión de archivos CSS y JS, etc.

¡Nuestro desarrollador te da todas las claves!

Dominio preferido 

Aunque suene muy básico, muchas veces nos olvidamos de definir un dominio preferido y dejamos a un lado las redirecciones pertinentes.

http://
http//www.
https://
https://www.

De entre las 4 opciones, debemos definir solamente 1 de ellas, siendo la tercera la más recomendable y usada a nivel SEO.

Por si no sabes qué son las redirecciones, también tenemos este vídeo para ti.

Errores 404

Si alguna de tus páginas no existe o no se ha hecho la redirección 301 que te explicamos en el anterior vídeo, el resultado será un error 404 para Google y para el usuario.

Para evitar esa mala experiencia de usuario y que Google no pueda penalizarnos, hay que indicar siempre una redirección a estas páginas, aunque los expertos indican que redirigir los 404 a la homepage o categoría no es una buena práctica.

En según qué situaciones, también podremos aplicar un código 410 siempre y cuando esa URL no tenga tráfico y no vaya a existir más. Y, si fuese necesario, puedes dejar el enlace 404 como error. Locura, ¡lo sabemos!

Responsive UX

Los dispositivos móviles han pasado a ser el principal factor de posicionamiento para Google. Eso quiere decir que ahora tendremos que prestar especial atención a las versiones de mobile

Si la web no cuenta con un diseño responsive, no solo será negativo para Google, sin para el usuario, lo que llevará a una mala experiencia de usuario y una clara desventaja frente a la competencia.

Parámetros y paginaciones

Terminamos el listado con los parámetros que muchas veces nos podemos encontrar en las URLs, o las paginaciones en los listados muy grandes y que pueden ser un problema sino se controlan, sobretodo para los ecommerce.

Por el lado de los parámetros, estos suelen estar controlados si utilizamos los CMS de hoy en día y establecemos URLs amigables, no obstante, a veces es necesario activar algún parámetro para poder establecer ciertos filtros de búsqueda

Para evitarnos problemas con los parámetros, lo primero que hay que hacer es definir la etiqueta canonical en todas nuestras páginas. Luego, le podemos indicar desde la herramienta de Google o incluso en el archivo robots.txt, qué parámetros queremos bloquear.

En cuanto a las paginaciones, hay múltiples estrategias para saber cuando usar cada tipo de paginación. Si bien es cierto que las paginaciones no ayudan al SEO, siguen siendo necesarias para que Google y el usuario tenga acceso a todas las páginas de un proyecto

Te dejamos este artículo donde explica a la perfección todo lo que necesitas saber acerca de las paginaciones y cómo gestionarlas de forma eficaz.

Conclusiones

No hay ningún proyecto que a día de hoy no tenga margen de mejora.

Por ello, tener un control de forma periódica de todos estos factores es muy importante si queremos estar un paso por encima de nuestra principal competencia.

Desde SEOCOM conocemos muy bien todos estos errores y gracias a nuestra experiencia hemos podido prevenir muchas penalizaciones y caídas de tráfico orgánico.

Si necesitas asesoramiento, contacta con nosotros y te ayudaremos con la visibilidad de tu negocio, analizando todas las posibles mejoras para tu proyecto.