fbpx

Qué nos ocurre cuando cambia el algoritmo | Google May 2020 Core Update

Quiero narrar aquí la experiencia para un SEO Specialist de un cambio de algoritmo de Google. Como un fenómeno discreto que merece su atención por su particularidad. Y centrándome en uno de los cambios más importantes de los últimos años. Tuvo lugar el día 4 de mayo de 2020 y Google lo ha bautizado como Google May 2020 Core Update.

Primero, por su elemento de "ciencia ficción" ineludible para quien llegue a este artículo sin saber nada de posicionamiento.

Segundo, por la curiosa arquitectura general que se genera. Como veremos, el resultado de todo lo que relataré a continuación tiene mucho parecido con ciertas situaciones propias del ámbito religioso institucionalizado (y popular).

Y también trataré de explicar qué cambios en apariencia invisibles se dan para el usuario, tú, yo, cualquiera que navegue por Google.

Qué es un cambio de algoritmo de Google

Cuando se da un cambio de algoritmo de Google, se modifican los resultados de búsqueda en mayor o menos medida, todos, porque cambian los criterios con los que Google posiciona cada sitio web en sus resultados.

Para el usuario eso es lo que ocurre. ¿Cuántas veces, por una búsqueda concreta en la que dábamos siempre con las mismas webs, de pronto nos hemos encontrado conque conque un día aparecían otras webs distintas? 

Los cambios de algoritmo son constantes, y no solo en Google (también en los algoritmos de Facebook, Twitter, Instagram, Amazon, Tinder, etc) pero el usuario que no tenga webs o perfiles que dependan de ellos sólo ve el efecto en el nivel de los resultados: cuando busca algo, los resultados han cambiado.

Para el técnico especialista en posicionamiento, la experiencia es muy distinta. Cualquiera que tenga una web debería leer con atención este artículo y adquirir las rutinas expuestas aquí, porque un cambio de algoritmo puede significar el hundimiento entero de una web (o su contrario). El SEO Specialist revisa fuentes como Search Engine Land o Search Engine Journal para ver qué introducciones realiza Google en su entorno. Entre ellas los cambios de algoritmo. Uno está pendiente de estos cambios porque son determinantes de oscilaciones y bruscas modificaciones: cambian los criterios de algoritmo, el algoritmo se está perfeccionando, refinando. Nuestras webs deben refinarse con él, o si no, caen de la indexación.

Es el juego capitalista, además sometido a la presión doble de "la sorpresa" que implica todo cambio de algoritmo. En el día a día no se habla de ello, pero cuando se dan cambios de algoritmo como el del 4 de mayo de 2020, puede haber miles de personas que estén perdiendo el trabajo por ello, sin duda. Y lo más curioso: tal vez ni siquiera quienes les están despidiendo saben que detrás de la caída de su tráfico y de su negocio hay un algoritmo que se estudia y sobre el que se trabaja.

Como se trabaja con un Dios. Veamos cómo.

Herramientas
para difundir tu obra

Biblioteca, actualizada constantemente, con las últimas herramientas gratuitas y de pago pensadas para optimizarte en diferentes campos: Redes, Web, Diseño, Storytelling....

Cómo sabemos cuándo hay un cambio importante del algoritmo

Como mencionaba, cada día se introducen variaciones en el cuerpo del algoritmo central y sus diferentes instancias. Sin embargo, suelen concentrarse en forma de hitos o rollouts masivos algunas actualizaciones de mayor calado cada ciertos meses. 

Los pobres mensajes oficiales de Google

Hasta principios de 2019, los cambios de algoritmo se confirmaban a posteriori. Desde entonces, Google anuncia en su cuenta Google Search Liaison de forma puntual todo cambio. Aquí vemos el tipo de anuncio que hicieron a principio de mayo de 2020, con uno de los cambios más importantes en años:

google core update

Al contrario de lo que se pueda pensar, el link no lleva a información concreta sobre el cambio de algoritmo (qué criterios han cambiado), sino a un texto tipo que llevan usando desde hace tiempo donde se dan indicaciones básicas para hacer un sitio web de "contenido de calidad" (según ellos).

Aquí rescato uno de los varios tweets en los que explican por qué han empezado a anunciar dichos cambios y por qué no lo hacían antes.

google core update

Por lo que, ahora mismo, el SEO Specialist despierta por la mañana con este anuncio y, realmente, poca cosa puede hacer. Lo que empieza aquí es un procedimiento clásico, una rutina de revisión para comprobar qué daños (o beneficios) a causado el algoritmo sobre los propios sitios web y, luego, qué inferencias están haciendo los robots de rastreo alternativos a Google.

El primer punto suena sencillo: entramos en nuestro Google Analytics y comprobamos cómo evoluciona el tráfico durante los días del rollout del cambio de algoritmo. Cambios de más del 5% en el tráfico y fuera de una tendencia serán indicadores de que hemos sido afectados y tendremos que entrar a revisar qué URLs y tratar de determinar (adivinar por inferencia) por qué han caído en sus posiciones.

El segundo punto es sencillo de consultar, pero implica gran cantidad de elementos complejos para su consecución. Hay empresas privadas que tienen sus propios Crawlers o robots de rastreo. Estos crawlers puede rastrear páginas web, o bien pueden rastrear, por ejemplo, los resultados de búsqueda de Google. Vamos a ver algún ejemplo de este segundo tipo de crawler con un poco de profundidad para entender cómo se parecen mucho a los sismógrafos.

Las empresas de análisis y rastreo del posicionamiento

Semrush se llama a sí misma Online Visibility Management Platform. Se trata de una empresa que posee sus propios robots de rastreo. Estos robots rastrean los resultados de búsqueda de Google y ofrecen inferencias detalladas de posicionamiento. Aquí vemos el resumen de los datos de esta misma web unos días después del cambio de algoritmo. Se observa un retroceso en negativo del -21% en el posicionamiento general debido a este cambio.

authority score

A partir de aquí podemos bajar al detalle y conocer, con exactitud, cuál es nuestro posicionamiento, palabra clave por palabra clave, cuáles son nuestros competidores y una gran cantidad de métricas útiles para tomar decisiones estratégicas en cuanto al contenido de una web. Aquí vemos un ejemplo del posicionamiento de esta misma web en Semrush:

semrush posicionamiento google

Lo que vemos en la imagen es sólo una muestra de las diferentes métricas que se pueden conocer. En la columna izquierda figuran palabras clave. En las siguientes posiciones se indica cómo se muestran en Google (si en resultados o en snippets o tarjetas de resultado en posición 0), cuál es su posición actual, cuál ha sido su variación, qué tráfico reciben en el conjunto de la web, cuántas búsquedas tienen, qué dificultad de posicionamiento tienen y así sucesivamente métricas y más métricas que sirven para tomar decisiones estratégicas a nivel  de contenido. Vemos lo que sube y lo que baja en el posicionamiento y podemos trabajar con ello.

Los sismógrafos de internet: Semrush sensor

En la medida en que podemos conocer el posicionamiento de cualquier dominio de Internet indexado en Google, Semrush posee una cantidad de big data suficiente como para tener un sensor particular, conocido como el Sensor Tracking Tool, cuya lógica es la misma que la del sismógrafo: registra las fluctuaciones del posicionamiento mundial en Google de forma agregada para determinar cuándo hay picos de intensidad. Los picos de intensidad serían terremotos, es decir, cambios de algoritmo. Aquí vemos lo que ocurrió entre los días 5 y 6 de mayo, donde el sensor de Semrush registró movimientos históricamente significativos. Es uno de los cambios de algoritmo más importantes en años, dice el sismógrafo, por lo que ha sido destructivo para muchos: esa correlación es también real.

semrush sensor

Si accedemos a fecha de hoy al sensor de Semrush, día 10 de mayo, vemos como estamos en niveles normales de movimiento. Las placas tectónicas del algoritmo están calmadas hoy:

semrush sensor

Lógicamente, Semrush, posee muchos más datos y es posible bajar al más ínfimo detalle de lo que está ocurriendo. Cuando el sensor detecta una oscilación importante en el posicionamiento mundial, Semrush publica de forma desinteresada algunas conclusiones del análisis de su Big Data (Le interesa participar como agente en estos momentos para conseguir clientes que paguen por su servicio de rastreo). A continuación vemos el desglose que hace Semrush de las variaciones en el posicionamiento de las webs mundiales según su tipo de nicho:

may core update variacion nichos

Lo que vemos son datos estadísticos que nos permiten ir delimitando dónde se han producido las principales modificaciones en el posicionamiento. Para, de esta manera, inferir qué criterios han cambiado para los robots de Google. Vemos que el cambio de algoritmo conocido como Google May 2020 Core Update ha impactado al conjunto de nichos de salud y estilo de vida, tal y como ocurrió en anteriores actualizaciones. ¿Por qué? Google se está concentrando en combatir las fake news y esos nichos se encuentran actualmente muy adulterados, por lo que sus criterios se están afinando más que en otros nichos.

La pregunta, pues, es: ¿por qué "sports" y "news" no tienen apenas incidencia si Google se centra en las fake news? La respuesta: porque el posicionamiento de dichos nichos está copado por periódicos que ya tienen mecanismos más trabajados para determinar su autoridad de cara a Google. En los nichos afectados dominan muchos dominios que pueden acercarse a las pseudociencias u otras fuentes de autoridad dudosas y enmascarar su autoridad (el caso concreto de Monstruopedia, web propia, será ilustrativo).

De hecho, otra gráfica extraída del Big Data de Semrush muestra cómo las webs que más han subido han sido las webs de noticias (y, ojo, las de obituarios por búsquedas de personajes).

may core update winners

Nota: Los criterios concretos de posicionamiento, que son centenares o miles, nunca se publican (como la receta de la Coca-cola), lo cual resulta comprensible: el arte del SEO ya es el arte de intentar inferir los criterios de los robots. De conocerse, el posicionamiento mundial sería mucho más corrupto de lo que es ahora mismo (que ya lo es, lo ha sido, o lo sigue siendo, como hemos visto en muchos artículos de la sección).

Otros sismógrafos de posicionamiento: Mozcast tool y Search Metrics

Hay múltiples sismógrafos pues Internet es grande y vasto, pero suelen mencionarse siempre los mismos. Destaco dos y aporto sus correspondientes datos publicados referidos al Google May 2020 Core Update.

El primero es Mozcast tool. En este caso, si nos fijamos en la letra pequeña, vemos que se trata más de una estación metereológica de detección de "tormentas" que de un sismógrafo. Pero en esencia el cometido es el mismo: registrar el nivel de perturbación en el posicionamiento.

mozcast tool

Por otro lado, Search Metrics suele mostrar métricas de sitios webs por nicho. En este caso, las variaciones de webs relacionadas con el tema médico (siempre objeto de revisión por parte de Google debido a la gran cantidad de material pseudocientífico o embustero directamente):

search metrics

De esta manera, el SEO Specialist puede observar cómo son los dominios que han subido y cómo son los que han bajado. Técnicamente, y a nivel de contenido. Y de esta manera, las diferentes empresas privadas dedicadas al posicionamiento, publican una serie de indicaciones generales acerca de "qué se cree, por estadística, que ha cambiado en el criterio de Google".

Estas inferencias suelen ser cada vez de naturaleza más general y difusa, a medida que el Algoritmo Central se refina, y en todo caso nunca es Google quien las da, por lo que no podemos estar 100% seguros de su fiabilidad. Nuestras propias fuentes de datos (Analytics) y nuestro criterio serán la prioridad

Lo que ocurre en la comunidad SEO de Twitter cuando hay un cambio de algoritmo

Antes de seguir, un pequeño apunte acerca del curioso remolino de intervenciones que se produce cuando Google Search Liason anuncia en Twitter un cambio en el Algoritmo Central. Predominan los memes, las imágenes, vídeos, gifs y las intervenciones que anuncian una catástrofe de forma más o menos humorística. Pongo un par de ejemplos pero aquí podéis seguir el hilo completo.

cambio algoritmo gif
cambio algoritmo

Si nos fijamos, no todo es tan gracioso. Como digo, con cada cambio de algoritmo cambia la economía y se dan situaciones de bancarrota. Un ejemplo del mismo hilo del que he sacado las dos imágenes precedentes, pero de un tono mucho más oscuro:

cambio algoritmo

¿Qué hace el SEO Specialist cuando hay un cambio de algoritmo?

A continuación, voy a explicar el procedimiento que sigo cuando sé que ha habido un cambio del algoritmo central. Sigo este procedimiento tanto en mis webs personales, como en los clientes de mayor envergadura de la agencia en la que trabajo.

Paso uno: Lo habitual en el trabajo rutinario de un especialista en posicionamiento es revisar cada día los datos de tráfico en Analytics. Esta revisión puede ser rápida, pues se sobreentiende que ya existen acciones detalladas en curso. Lo que verificamos a primera hora de la mañana es simple: que nada se haya ido "al carajo" mientras dormíamos.

Paso dos: Lo primero es revisar las noticias y verificar que existe algún tipo de anuncio oficial por parte de Google. Porque un cambio brusco detectado en alguna cuenta de Analytics no tiene por qué corresponder siempre con un cambio de criterio de Google. Puede tratarse de un error técnico nuestro, que ha provocado pérdida de tracción en la indexación, o incluso de un ataque de un tercero (con backlinks chinos, por ejemplo, aunque poco a poco Google controla mejor esto).

Paso tres: Una vez verificado que ha habido un cambio de algortimo debemos volver a Analytics y bajar al detalle de aquellos sitios webs que hayan perdido o ganado, del día a la noche, un +/- 5% del tráfico orgánico (ojo, nos centramos en el canal orgánico que corresponde al tráfico de Google). Este análisis nos permite ver qué URLs suben y qué URLs bajan, en qué temática, y sacar inferencias de qué puede haber variado. Cuantos más sitios webs tengamos y más datos, más inferencias podremos extraer.

Paso cuatro: Deberemos tomar el problema desde otro ángulo para seguir extrayendo conclusiones. En una web en la que, de pronto, hayamos perdido mucho tráfico, lo que haremos será identificar las URLs (artículos, páginas, lo que sean) más afectadas y tratar de ver cuál es el estado del posicionamiento por su principal palabra clave. Por ejemplo, si tenemos un artículo titulado "Tipos de preposiciones" que de la noche a la mañana ha perdido el 30% del tráfico, lo que haremos será buscar en Google, en incógnito, "tipos de preposiciones", es decir, la palabra clave principal, el asunto central del artículo (si tenemos Semrush o Ahrefs lo podemos saber de inmediato, y si no, es posible saberlo en Google Search Console de forma gratuita). Lo que haremos será comprobar quién está ahora en las posiciones que hemos perdido. Por qué han subido algunas webs y por qué "la nuestra" ha bajado.

Esto serían pasos muy generales para empezar a tomar el pulso a un cambio de algoritmo. Lógicamente, también recomiendo estar al día en webs como Search Engine Land, las cuentas de SEOs destacados de Twitter y otras fuentes de información fiable que ofrezcan más datos que los que podamos extraer. Pero por nuestra cuenta podemos realizar un buen análisis sin herramientas de pago, sólo con Google Search Console.

El caso concreto de Monstruopedia.com en Google May 2020 Core Update

Para revisar este cambio de algoritmo, me quiero centrar enciclopedia de monstruos que hace un par de años que posiciono en Google, y que aporta una parte secundaria del tráfico al diario paranormal que tengo en esta web (podéis ver la estructura entera de mis webs personales aquí).

Se trata del dominio Monstruopedia.com. En el que estaba realizando un cambio de layout y diseño, con cerca de 400 visitas diarias, y que el cambio de algoritmo ha impactado con violencia:

monstruopedia cambio de algoritmo

El descenso es contundente y significa una pérdida del 50% del tráfico de un día para otro. Para mí no significa nada, pues esta web es un pasatiempo, pero hay que pensar en la gran cantidad de personas que trabajan y viven de Internet, no saben de posicionamiento, y pueden estar sujetos a oscilaciones así sin saberlo.

Porque la clave es la siguiente: como una web es maleable y modificable, siempre podremos recuperarnos de cualquier penalización. Por lo que, lo primero: no perder la calma ni el ánimo.En el caso de Monstrupedia, rescato un gráfico interesante para que veáis cómo ya ha tenido más batacazos y subidas. Simplemente, experimento. En el gráfico se ve cuántas palabras clave y en qué rangos de posiciones, ha tenido la web indexadas en Google:

monstruopedia analisis

He marcado con cuatro flechas cuatro cambios de tendencia que puedo identificar. De izquierda a derecha, el primer cambio ocurrió después de un período de publicación de muchos artículos. El segundo, coincide con cambio de algortimo, y el tercero también. El cuarto es el principio de "las obras" de cambio de layuout. Al final, veis como el gráfico se desploma hasta el día de hoy. Es el impacto de Google May 2020 Core Update.

¿Qué debo hacer en este caso concreto?

De todas las webs que tengo, Monstruopedia es la que tiene una accesibilidad más lúdica, casi para niños. Allí se encuentra gran cantidad de contenido referido a monstruos, pero también a animales, virus, seres humanos monstruosos, amuletos, piedras preciosas, desde una perspectiva esotérica. En varios momentos ya he verificado en Analytics cómo Google tiende a restarle autoridad a los textos de esta web por determinadas búsquedas donde un nivel de verosimilitud superior se exige (por ejemplo, cualquier búsqueda que pueda incluir información sobre salud).

Los propios analistas de Semrush especificaron hace unos días que webs del estilo de Monstruopedia son las grandes perdedoras de posicionamiento:

losers serps

En este caso concreto, el planteamiento es doble.

Por un lado, buscar una mejora de la calidad de los contenidos de la web y de la web en general. Sabemos que si mejoramos métricas como la estancia promedio en el sitio (Cuánto tiempo está cada usuario), la tasa de rebote (cuántos usuarios entran y no interactúan), el número de páginas vistas por usuario (cuánto navega alguien por la web), etc, mejoraremos nuestro posicionamiento. Puesto que son métricas que le indican directamente a Google vía su servicio Analytics, que una web está "gustando más". ¿Cómo mejoramos estas métricas? Mejorando el contenido, la navegabilidad, el diseño, y también elementos como el tiempo de carga

Por otro lado, en el caso concreto de esta web, he observado que hay otros canales de tráfico que pueden ser más interesantes y ofrecer un rendimiento mayor. Por ejemplo, Social. Tanto el Facebook de la web como su Instagram tienen unas métricas muy superiores a cualquier otra web. Lo que me indica que a la gente le gusta el contenido de la web vía redes sociales. Y la penalización algorítmica me indica precisamente que a Google cada vez le gusta menos mi contenido para cierto número de búsquedas.

Así que la acción es multiforme. Lo que está claro es que cada acción debe ser planteada a priori y testeada sobre secciones de la web que permitan obtener un conjunto de datos estadístico suficiente para ver qué funciona y qué no. A partir de hipótesis, actuar con acciones concretas.

Pero siempre es importante, ante un cambio de algortimo, no perder la calma. Incluso si la web se ve penalizada en su totalidad es posible recuperarla con un análisis concienzudo de por qué se perdieron las posiciones y por qué hay "otros" en ellas. En Smartbrand hemos ofrecido en más de una ocasión auditorías de rescate para webs cuya caída ponía en riesgo decenas de empleos. El análisis de los datos siempre ha permitido tomar decisiones concretas para la recuperación.

A pesar de que Google actúe como un Dios y nunca revele sus parámetros, la religión del SEO es una especie de ciencia difusa que permite obtener conocimientos concretos y, al mismo tiempo, de alguna manera esotéricos, no universales, sobre "qué está pasando y qué hay que hacer".

La templanza y la estructura mental del SEO Specialist

Es importante recalcar que uno de los rasgos importantes en el oficio del SEO Specialist, sobre todo si trabaja en agencias con varios clientes de gran tamaño (como es mi caso) y cierto grado de presión por el crecimiento importante (como es también el caso), es la templanza. 

Al principio no tenía tantas responsabilidades, pero cuando accedí al puesto de Manager de la sección de SEO debido a una vacante, de pronto fui el responsable del posicionamiento de webs con tráficos desmesurados (cientos de miles o millones de usuarios mensuales), que en ocasiones podían estar en situaciones comprometidas "de un día para otro" (aunque a largo plazo, el especialista SEO procura que sus clientes se amolden bien a lo que teóricamente es lo esperable para que los cambios de algoritmo tengan impactos menores). Recuerdo algunos días de un estrés extremo debido a una caída masiva de tráfico X, a recibir toda clase de presiones desde el minuto 1, e incapaz de iniciar el procedimiento de análisis para determinar causas e hipótesis debido a ese mismo estrés. 

Con el tiempo, he aprendido a reaccionar con cierta indiferencia "responsabilizada" ante desplomes del 50% como el que os he mostrado en Monstruopedia, y también en webs de las que puede depender el trabajo de otras personas. Básicamente porque hay que tener fe en que un análisis exhaustivo siempre permitirá encontrar las causas del problema y sus soluciones.

Pero para realizarlo es necesario extrema concentración y no caer en la dinámica fatalista de los memes, la presión impuesta por los CEO, etc. Hay un procedimiento, pero para su cumplimiento es imprescindible estar calmado y tener la mente fría. La fe, en este caso, como en otros muchos, en que la respuesta está ante nosotros, es lo que lleva a la certidumbre en las soluciones y los test.


Tags


Si te ha gustado este artículo, sigue leyendo:

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Descubre mis eBooks y textos inéditos gratis y lowcost

>