El nuevo algoritmo Fred de Google: crítica

google fred actualizacion

Mi trabajo en la sombra de la sombra, Internet, ha ido cambiando a lo largo de los años. Empecé como escritor de artículos optimizados SEO hace diez años y desde entonces, con saltos espacio-temporales de importancia, he ido aprendiendo el funcionamiento interior de páginas web (hasta llegar a hacer las mías propias) y también he estudiado la evolución implacable de los algoritmos que aplica Google para racionalizar sus búsquedas, de los cuales depende cualquiera que tenga una página y quiera ser leído. Hoy hablaremos del nuevo algoritmo Fred, una evolución o culminación del algoritmo Phantom que permite al buscador penalizar mejor páginas con contenido de baja calidad o estructuras de backlinks artificiales.

¿Has sido penalizado por el algoritmo Fred? Cómo identificarlo

Si has experimentado descensos de tráfico a partir de los días 7 y 8 de marzo de 2017, así como el día 20, estabilizándote a posteriori a la baja en Analytics, es posible que el algoritmo haya penalizado a tu página web. Voy a proceder con la explicación usando un caso de estudio concreto cuya URL no revelaré por consideración a los afectados.

Veamos en primer lugar cómo ha sido afectado este sitio al que llamaremos “Anti-Fred”. Se trata de una web que, hasta la fecha de introducción del algoritmo, cumplía al parecer con los requisitos de Google y se encontraba en situación de ascenso. Tal y como informan los webmasters, el descenso previo al desplome definitivo (entre diciembre y enero) no se debe a una actuación de algoritmo, sino una migración de protocolo que les causó problemas. Los datos, tomados de la consultora independiente Ahrefs, muestran visualmente la contundencia de la caída a los pocos días de la aplicación de Fred:

penalizacion fred grafico

El tráfico diario de la web pasó rápidamente de un pico de 43 mil usuarios potenciales al mes a 23 mil.

¿En qué falló “Anti-Fred” para recibir la penalización?

La nueva política de Google a la hora de informar acerca de las actualizaciones de sus algoritmos es sin duda oscurantista, propia de una religión cuyos misterios deben ser protegido. Eso lo comentaremos luego en la opinión crítica: ahora centrémonos en el apartado técnico. De acuerdo: Google cambia sus criterios de un día para otro y varios millones de páginas pierden la mitad de sus posiciones. ¿Qué ha pasado?

Aquí algunos motivos por los que Fred podría haberte afectado:

  • Tienes una página web sobreoptimizada con publicidad y/o links salientes de afiliados.
  • Tu estructura de enlaces (Backlinks) revela patrones artificiales: ¿has intentado adulterar los resultados de búsqueda creando links artificiales en páginas ajenas o en tu propia PBN?
  • El contenido es de baja calidad.

¿Cómo contrarrestar una penalización del algoritmo Fred?

Los analistas de Statcounter, después de dos meses de análisis de las fluctuaciones de tráfico de millones de web, han conseguido determinar con cierta exactitud cuál es la naturaleza de Fred y cómo contrarrestarlo. Aquí algunas cosas básicas que deberías repasar:

  • Consulta tu tráfico de Analytics. Si experimentaste un descenso de tráfico entre el 5 y el 20 de marzo de 2017 (aproximadamente), convendría que aplicaras los siguientes cambios:
  • Intenta categorizar todo el contenido de tu web en dos apartados bien distinguidos: 1) textos de alta calidad y actualizados 2) textos viejos y de baja calidad.
  • Comprueba en el descenso de tráfico, qué palabras clave perdiste y a qué artículos o landings corresponden.
  • Una vez hayas identificado las URL que han sido afectadas, plantéate reescribirlas por completo de acuerdo con los criterios de calidad de Google. De entrada, si tienen muchos links publicitarios o de afiliados: limítalos al máximo. Un buen consejo al respecto: en el caso de publicidad, elimina banners y enlaces situados en la parte superior o de manera intrusiva para el usuario. En el caso de links de afiliados, ahora lo ideal serían textos de mil palabras y no más de uno o dos enlaces. A su vez, parece conveniente desenmascarar dichos enlaces si utilizas plugins o acortadores de URL, pues ahora Google considera que eso es un engaño para el lector.
  • Utiliza un servicio de análisis de backlinks que te permita rastrear y eliminar links creados artificialmente o dudosos a la hora de aportar calidad a tu web (lo triste: estos servicios suelen ser de pago).

El algoritmo Fred de Google: crítica

En mi opinión, lo más penoso de los entusiastas por el SEO y por Google, es que carecen por completo de entendimiento humanístico. Su reflexión no va más allá de lo que sería aceptable para un feligrés atado por toda clase de reglas a una religión caprichosa. Una crítica completa a Google habría que desarrollarla en diversos artículos (y eso intento), pero quisiera reunir algunas reflexiones, a continuación, en contra de esta situación a todas luces monoteísta y monopolística.

Primero: Con el tiempo, Google ha creído conveniente dejar de anunciar al detalle las actualizaciones de sus algoritmos. Todas las webs que infieren posiciones y que estudian los cambios de Google (suele haber tres cambios menores de partes del algoritmo al día) lo hacen por inferencia. En esencia: Google posee las reglas, pero no las revela. Esto lo hace, se entiende, para evitar que un excesivo conocimiento lleve también a la posibilidad de “hacer trampas”. Pero no nos engañemos, bajo la máscara de la calidad, las directrices, etc, y todo un armazón de palabras vacías de descripción, criterio y fondo, se esconde la realidad del oficio de SEO: comprender el algoritmo y comprender cómo aprovecharlo en propio beneficio. Desde mi punto de vista, bajo el amparo de la calidad y las directrices uno no deja de hacer trampas en la medida  en que Google entiende el término “trampa”. Ningún especialista en SEO (hay honrosas excepciones) piensa en primera instancia en el contenido, sino más bien en “cómo hacer contenido de calidad que me permita tener más tráfico”. El pensamiento en primera instancia es: “tráfico” y “dinero”. Decir que lo principal en SEO es la calidad, etc, me parece lo mismo que decir que la Publicidad además de vendernos cosas, puede ser una forma de arte. BASURA. La calidad y el contenido sólo son medios, no fines, pues así está montado el tinglado en Internet.

Segundo: Gran parte de las penalizaciones de Google han dejado de anunciarse. Es posible que tu sitio esté penalizado y tú ni te hayas enterado. Por supuesto, si estás en el mundillo SEO, si estás informado día a día y si tienes las herramientas de pago necesarias, puedes identificar el problema y solucionarlo. ¿Pero qué pasa si eres una persona que, de buena fe, hizo una página rudimentaria hablando de sus aficiones e introdujo algunos enlaces de afiliados cuando el algoritmo no lo penalizaba? Me refiero a la gente normal que no sabe nada de SEO, que abren una página, y que por falta de medios e información, se han comido los mocos hasta la fecha frente a los presuntos SEO que, con su saber hacer, copan las mejores posiciones, y que además, han caído en penalizaciones y nadie les ha informado siquiera de que existe tal concepto. En esencia, quien sabe de SEO pertenece a una casta sacerdotal por dos motivos: rinden pleitesía al poder de la mónada, y acostumbran a transmitirte lo que dicta el dios Google sin el menor espíritu de crítica. Si alguien ha hecho mal las cosas SIN DUDA has sido tú. Vaya, que no entra en consideración un elemento clave: quizá los fundamentos de todo este sistema, el propio Google y su excesivo poder, así como sus criterios de clasificación falsamente cualitativos, sean el verdadero problema.

Tercero: Hay una falta de crítica asombrosa ante el proceder de Google en cada actualización. Para mí, los analistas SEO más concurridos no son otra cosa que lacayos informativos del emperador. Nunca jamás una palabra de crítica contra ningún cambio. Nunca jamás ninguna abstracción o reflexión conceptual. Por otro lado, en las pocas informaciones que ofrece Google, siempre se encarga de parecer “el bueno y amable” amigo que nos llevará al camino de la Inteligencia Artificial y la justicia. PURA BASURA.

Pongamos un ejemplo extraído de un libro imprescindible: El efecto burbuja, de Eli Pariser. En este libro, terriblemente duro contra Google y Facebook, se analizan desde una perspectiva crítica el proceder de ambas compañías en lo referido a sus algoritmos.

El 4 de diciembre de 2009, en una entrada del blog corporativo de Google, se mencionó de refilón (siempre son así, los amables padres) un cambio en el algoritmo que, según Danny Sullivan, editor de Search Engine Land, supuso el mayor cambio que se había producido en la historia de los buscadores: búsquedas personalizadas para todos. En la actualidad, efectivamente, cada usuario que realice una búsqueda concreta obtiene resultados personalizados y únicos (puedes hacer la prueba realizando la misma búsqueda en modo incógnito). Es decir, a partir del análisis de tu comportamiento, se te ofrecen algunos resultados por encima de otro. El problema, puesto que los criterios de base de Google son fraudulentos (es una empresa y quiere dinero, no el bienestar mundial cojones) la aplicación de búsquedas personalizadas lleva a problemas MUY graves que poca gente ha pensado. Como es habitual, nuestros amigos SEO, ni siquiera han pensado en ello: el efecto burbuja. Según este efecto, tanto en Google como en Facebook, todo lo que nos aparece en pantalla fruto del trabajo del algoritmo, responde a un análisis exhaustivo de nuestros gustos y movimientos en la red.

Esto es muy efectivo a la hora de vendernos productos. Si buscamos varios días “pantallas de ordenador”, Google y Facebook lo detectarán y nos ofrecerán publicidad localizada. Por otro lado, el efecto burbuja tiene un segundo efecto político y social de naturaleza trascendental (leed el libro de Eli Parisier y empalideced de miedo). Tanto en los resultados de Google como en el timeline de Facebook empezarán a filtrarse lo que nos aparece “de acuerdo con lo que nos gusta”. Como el objetivo REAL de ambas páginas es mantenernos en ellas como sea, procura ofrecernos cosas que estimulen esa permanencia. Tal y como ha sido estudiado de forma exhaustiva, los usuarios de Facebook y Google tienden a introducirse en el así llamado efecto burbuja: opiniones contrarias o divergentes a nuestro proceder o pensar, directamente no aparecen, de modo que si alguna vez damos con ellas, nos parecen por completo ajenas e irreales. En materia de política y actualidad, el algoritmo nos ofrece sólo contenido acorde con nuestros gustos. ¿Pero qué pasa con aquellas noticias desagradables que quizá deberíamos conocer? Si no son virales, no aparecerán.

Así, Eric Schmidt, director ejecutivo de Google, en su absoluta inconsciencia mental, se permitió decir, henchido de orgullo:

“La tecnología será tan buena que a la gente le resultará muy difícil ver o consumir algo que no haya sido de algún modo ajustado a ella”

Pensad bien en esta frase, donde claramente se nos dice que una tercera instancia desconocida nos va a proveer con lo que, de antemano, ya sabe que nos gusta. ¿una especie de Dios? ¿De qué estamos hablando? En mi opinión no hay nada más importante que saber qué piensa quien no piensa como tú, sobre todo porque de los opuestos también se pueden extraer preciados conocimientos sincréticos. Literalmente, el gran avance de Google y Facebook con sus maravillosos algoritmos, ha acabado con esta posibilidad, o por lo menos la ha dificultado mucho. Si entramos en un análisis de cómo se informan los usuarios en la red, encontraremos gravísimas deficiencias en el funcionamiento de estos algoritmos.

Eso sin considerar el hecho todavía más grave de que todas las webs poderosas de Internet trafican con nuestros datos sin darnos nada a cambio, vendiéndolos indiscriminadamente a empresas turbias como Bluekai, Rubicon Project o Acxion, que luego revenden dichos datos a su vez para afinar todavía más los algoritmos diversos (Amazon tiene el propio, Facebook, etc).

Es necesario e imprescindible señalar esta falta de profundidad conceptual en el pensamiento de los gurús, genios de la startup y otra gente humanísticamente indocumentada. Hay excepciones, claro, pero claramente minoritarias.

Fred: lo bueno y lo malo

El aparte crítico que he hecho en el punto previo, pretendo desarrollarlo en diversas entradas en este blog. De momento, que quede como fragmento para la reflexión. Si regresamos a continuación al asunto que nos ocupaba podemos extraer algunas conclusiones generales con un poco de espíritu crítico:

  • Fred acabará con páginas con excesiva publicidad o spam. De esta manera, es muy probable que ocupen posiciones altas páginas cuyo objetivo final no es necesariamente vender, sino aportar otra clase de contenidos.
  • Hay que hacer una doble lectura de la penalización si nos fijamos en las webs de venta o webshops: los grandes beneficiados de Fred son, sin duda, las empresas que venden directamente desde sus propios almacenes (Amazon, etc). Particulares que tuvieran blogs de reseñas de productos con enlaces de afiliados, quedan desclasados por intermediarios. Mi pregunta es: ¿tiene verdadera lógica este movimiento que se aleja del usuario hecho a sí mismo en Internet frende a las grandes empresas? Casi todos los blogs que he leído lo toman como un gran avance, pero detenerse pensar en la posible doblez nadie lo ha hecho. Por otro lado, hay que pensar que muchas personas viven actualmente de Internet, y que determinados cambios pueden situarlos en el paro de un día para otro. Y las consecuencias fácticas de eso probablemente le den igual a Google.
  • Digo doblez porque, tal y como ocurre en el mundo del Coach, con Google pasa lo mismo: no se sabe qué quieren decir las palabras con las que se llenan la boca. Cuando dicen “contenido de calidad”, ¿a qué se refieren exactamente? Porque según algunos criterios una página cualquiera de Proust tiene más calidad que toda la basura de Internet, pero lo más probable es que una página de Proust JAMÁS se indexará en primera página de Google (ojo, está libre de derechos y no habría obstáculo para probar tal experimento). De modo que: ¿qué quiere decir calidad? Quizá lo que quieren decir, básicamente, es: “calidad es hacer lo que yo os digo que es calidad”. Y como Google es obviamente un monopolio, habrá que aceptar sus criterios. Si nos dirigimos a la última actualización de Google sobre sus criterios de calidad y la leemos de arriba abajo, encontramos grandes carencias a la hora de definir claramente los términos expresivos. Tal y como el coaching se nutre de la manera más plana y banal de palabras como “creatividad”, “constancia”, “imaginación”, para encauzar sus objetivos finales económicos, Google utiliza recurrentemente palabras que NO SIGNIFICAN NADA. Tras cinco años de estudios literarios, cuando veo que Google o algún SEO habla de calidad, yo sólo veo que habla de BASURA. Hay que aceptarlo, señores, siempre que el fin sea el que es y no el que pretenden hacernos creer que es (la utopía de la información personalizada, el saber eterno, la ayuda indispensable de la IA).
  • Por último, tras varios experimentos en diferentes sitios web hay un elemento positivo que deduzco de todos estos cambios: un escritor literario con unos mínimos conocimientos de SEO puede doblegar y engañar a su gusto a estos maravillosos algoritmos, como históricamente vienen haciendo los especialistas SEO con su contenido ocultamente basura. Basta con saber escribir, saber expresarse bien, utilizar sinónimos, sintaxis variadas, etc, para construir engaños que la IA no identifica porque no tiene en sus algoritmos la capacidad de entender la expresión literaria, sino sólo la literal. No digo que en el futuro no sea capaz de una inteligencia equivalente a la humana. Lo que digo es que, si eso llega a ocurrir, estaremos acabados. Primero, porque tal y como dijo Jonathan McPhie, hombre clave en Google, resulta casi imposible adivinar a estas alturas ciertos comportamientos de los algoritmos (hay demasiadas variables en juego). Segundo, porque los fundamentos de esa IA  y esos algoritmos son el CÁNCER verdadero que subyace en Internet. No faltan estudios que corroboran en qué medida una exposición excesiva a parámetros de esta naturaleza puede (y efectivamente lo está haciendo) cambiar para mal nuestra mente.

Termino con dos frases de dos grandes gurús fundadores de las bases y el funcionamiento de Facebook y Google:

Saber que una ardilla se muere delante de tu casa en este momento puede ser más relevante para tus intereses que el hecho de que la gente se muera en África. Mark Zuckerberg, fundador de Facebook.

Sólo un subnormal ignorante puede decir semejante cosa, un tecnófilo sin idea alguna de la historia del pensamiento humano.

Ahora rescatemos lo que dijeron los fundadores de Google hace años, cuando el buscador era gratuito y libre de publicidad, y comparémoslo con la situación actual:

Prevemos que los buscadores financiados con publicidad se inclinarán naturalmente a favor de los anunciantes, lejos de las necesidades de los consumidores. Cuanto mejor sea el buscador, menos anuncios se necesitarán para que el consumidor encuentre lo que quiere […] Creemos que la cuestión de la publicidad provoca unos incentivos tan contradictorios que es fundamental disponer de un buscador competitivo que sea transparente y pertenezca al ámbito académico.

Entrad ahora en Google y comprobad si sus ideas y creencias originales siguen esa línea.

Dixit.

 

 

 

0 comentarios

Dejar un comentario

¿Quieres unirte a la conversación?
Siéntete libre de contribuir

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *