El mundo del SEO y del Marketing Digital se ha visto revolucionado por la supuesta filtración de más de 2.500 documentos internos de la API de búsqueda de Google, en la cual se detalla el funcionamiento y los parámetros que se tienen en cuanta para «posicionar» o rankear un sitio web en los resultados de búsqueda.
Hasta la fecha, los parámetros que Google utiliza en sus algoritmos para generar los rankings y determinar qué contenidos van a posicionar por encima de otros en los resultados, nunca habían sido directamente declarados o detallados por Google.
Todo lo que se sabía procedía de directrices públicas que provee el buscador a nivel de pautas, recomendaciones o buenas prácticas, junto a los datos de los profesionales del SEO, que a través de sus resultados en proyectos o de experimentos llevados a cabo, comparten información con conclusiones sobre los puntos que pueden ser considerados relavantes y su peso.
Pero estos documentos filtrados y expuestos por Rand Fishkin en el blog de Spark Toro el día 27 de Mayo, nos dan a conocer información que se contradice con lo que Google nos decía en muchos casos a través de sus directrices.
Here’s my post breaking down the leak’s source, my efforts to authenticate it, and early findings from the document trove: https://t.co/nmOD0fd5mN pic.twitter.com/yMxMrSeeLa
— Rand Fishkin (follow @randderuiter on Threads) (@randfish) May 28, 2024
La filtración nos proporciona una imagen nunca antes vista de los sistemas internos de Google, desafiando varias afirmaciones públicas hechas por la compañía durante años a nivel de qué parámetros o datos se utilizan o no para generar los rankings de resultados de búsqueda.
Esta información puede redefinir las estrategias SEO al mostrar en su totalidad qué factores realmente influyen en los rankings de búsqueda y nivelando el juego de alguna manera poniendo sobre la mesa las reglas del juego por escrito y totalmente detalladas. Aunque para los que llevamos muchos años en el mundo del SEO, estos documentos vendrán de cierta forma a validar las estrategias que ya llevábamos a cabo, investigando y entendiendo al usuario, identificando que necesitan y creando el mejor contenido posible para satisfacer esas necesidades, junto con los análisis y optimizaciones técnicas para potenciarlos. No parece que haya mucha información nueva, pero si confirmaciones.
Y si bien, todavía hay que analizar y comprender en detalle toda la información de los documentos filtrados, podemos decir que en los próximos días y semanas, saldrán muchos reportes que nos dejarán mucho más claro y resumido todo lo que se ha expuesto. Seguramente incluso en breve surjan tablas clasificando todos los parámetros o atributos (más de 14.000) y su peso dentro del algoritmo en base a la documentación de Google filtrada.
Por ahora, te dejamos aquí las primeras conclusiones de la información que se está extrayendo de los documentos:
Uso de Datos de Clics de los usuarios (Clickstream Data)
Según los documentos aquí surge la primera inconsistencia con la información pública de Google, y es que a pesar de que fuentes de Google siempre han declarado que no se usa en el ranking la información de los clics de los usuarios para las clasificaciones, Google parece que sí utiliza datos de clics para mejorar la precisión de sus resultados de búsqueda.
Estos datos provienen de los comportamientos de los usuarios, como los clics en los resultados de búsqueda y la navegación subsiguiente.
La documentación filtrada de Google tiene referencias a módulos que utilizan los datos de clics de los usuarios y clasificaciones como “goodClicks,” “badClicks,” “lastLongestClicks,” entre otros, que son utilizados para mostrar resultados en la SERP.
Estos datos están vinculados a sistemas como NavBoost y Glue, que mejoran la precisión de los resultados.
Google aparentemente también filtra clics no deseados, mide la duración de los clics, y utiliza datos de vistas de Chrome para calcular métricas y determinar las URLs más importantes.
En el mundo SEO, esto tenía mucha lógica y era considerado como una manera bastante clara de determinar el interés de los contenidos por parte de los usuarios y poder asignar métricas de calidad a los mismos. Incluso esto es algo que en SEOCOM Agency hacemos en nuestros proyectos para poder medir con datos concretos, qué contenidos están funcionando bien y están siendo de interés para los usuarios.
Existencia de un score de Autoridad de dominio o del sitio (siteAuthority)
Otro de los puntos que en varias ocasiones fue motivo de discusión y aclaración por parte de responsables de Google, indicando que no utilizaban un ranking o score para puntuar la autoridad de los dominios.
Sin embargo en la documentación filtrada se hace referencia a siteAuthority, y aunque todavía no está claro qué clasificación se lleva a cabo y cómo afecta a los rankings, estamos seguros de que sí hay una ponderación numérica para determinar la autoridad del dominio.
Uso de Datos del navegador Chrome
Aparentemente, sí se utiliza información recopilada por Google Chrome, aunque siempre ha sido desmentido.
Parece ser que las puntuaciones de calidad de página cuentan con una medición de nivel de sitio de las vistas desde Chrome y también la generación de sitelinks podría estar relacionada con un atributo extraído de Chrome.
Existencia de algoritmos secundarios para promover o rebajar los rankings
Se hace referencia a varios algoritmos o funciones secundarias que por sus nombres estarían vinculados a potenciar o rebajar rankings de resultados, como pueden ser algunos de los siguientes: Quality Boost, Nav Boost, Nav Demotion, Real Time Boost, SERP Demotion, Web Image Boost.
Autores de contenidos y EEAT
Google almacena como parámetro la información relacionada con los autores asociados a los contenidos.
Además, intenta determinar si una entidad en la página es también el autor de la misma.
Esto nos muestra que sí se está dando de alguna manera importancia a la autoridad y experiencia de los autores de contenidos.
Los enlaces siguen siendo un parámetro importante
Hay mucha información que muestra el trabajo realizado para entender el grafo de enlaces y cómo se vinculan los contenidos. Puede ser que la ponderación haya ido cambiando con el tiempo y se de menos importancia o relevancia a los enlaces, esto lo tendremos que terminar de ver, pero sabemos que siguen siendo un aporte de valor en los rankings.
Frescura del contenido
Google da mucha importancia a la frescura del contenido y utiliza diversas técnicas para asociar fechas con las páginas, manteniendo la relevancia temporal. Además se hace referencia a funciones como reshnessTwiddler que es un sistema que modifica los rankings en función de la frescura del contenido.
Otras menciones a parámetros
Se hace referencia también a muchos parámetros que afectan a cosas que ya conocíamos, como títulos de página, anchor de los enlaces, calidad de los enlaces, tamaño de los textos, etc… Que habrá que confirmar el peso que tienen en la actualidad.
Y por ahora esto es lo que te podemos contar, estaremos muy pendientes a los análisis (incluso ya tenemos a miembros del equipo mirando la documentación con detalle) para poder escribir más al respecto. Lo que si sabemos es que esto traerá cola, porque valida la información que muchos SEOs dentro de la comunidad estuvieron comentando durante años a pesar de las negativas de Google.