El País y su utilización del márketing de afiliados

Este artículo se presenta, en primera instancia, como un frugal mendigo. Hay dudas y poca vestimenta, y la investigación se producirá sobre la marcha (el método que sigo cuando escribo acerca de Internet en Internet). Pero parte de una intuición inicial que encadena diversos elementos y que no tiene sentido anunciar a priori. Sólo cuando todos ellos estén presentados, cobrará sentido y se formulará, entiendo, por sí misma.

El otro día entré en esta subpágina del periódico El País: Cinco alternativas chinas a los iPhone. Se trata de una entrada  situada en la sección general Tecnología, en la que se habla -ya lo dice el título, soy de naturaleza redundante- de cinco móviles chinos con las mismas prestaciones que los iPhone (o mejores). Cada uno de ellos se destaca con un subtítulo con el atributo <strong> (es decir, rara elección desde un punto de vista SEO), incluye un comentario y, debajo, un enlace a Amazon.

Fijémonos en el primer enlace del primer móvil, el One Plus 5:

https://www.amazon.es/Oneplus-128GB-FDD-LTE-Smartphone-Snapdragon/dp/B0739QCJNY/ref=sr_1_3?ie=UTF8&tag=epbotecnomovilidad-21

El destacado en negrita marca la utilización de una ID de Afiliados en Amazon. Esto quiere decir: si alguien hace clic en dicho enlace (y la entrada está enfocada claramente a ello), Amazon registra una cookie de 24h bajo el ID señalado en negrita. Si, quien haya hecho clic, compra finalmente algo (lo que sea) en Amazon en el plazo de 24h, El País recibirá una comisión por esa venta.

En 2017, la tasa de conversión de la afiliación en Amazon ronda el 1% (hace seis años, estaba situada en el 3% debido a la poca competencia). De cada cien clics, uno se transforma en compra efectiva. La comisión máxima que ofrece Amazon es de 10 euros. Como se trata de móviles, cada móvil vendido suele registrar la comisión máxima o muy alta.

Según la herramienta Ahrefs, que sólo infiere el posible tráfico orgánico de Google (es decir, que no tiene en cuenta los lectores que llegan a una noticia desde la App, redes sociales, o bien desde la navegación interna de la web), durante tres días esta entrada tuvo un tráfico orgánico de alrededor de cincuenta mil usuarios concentrados entre los días 13 y 27 de septiembre:

datos afiliacion el país

 

Si consideramos la alta autoridad que tiene El País frente a otras páginas webs, es probable que se cumpliera como mínimo la tasa de conversión estándar en Amazon: 1%: 500 ventas. Como estamos hablando de móviles de gama alta supongamos que la mitad consiguió la comisión más alta, 10 euros, y el resto, 5 euros. Hablaríamos de unos ingresos, sólo con el tráfico orgánico (que en El País es residual frente al directo, app, social, etc), de unos 3.750 euros. En la práctica, es el equivalente a haber vendido 2.500 periódicos.

Ahora, ¿cuál es la cuestión? Todavía hay varios elementos que presentar, pero si nos fijamos en la política de cookies de El País (grupo Prisa), encontramos en el epígrafe “b: Tipología y finalidad de las cookies”, cuatro finalidades (rendimiento, geolocalización, registro, analíticas, publicitarias y publicitarias de terceros). No hay ninguna mención a la utilización de márketing de afiliación, y aunque podría englobarse dentro del apartado “Cookies de publicidad”, requiere de un destacado específico aparte. No es lo mismo que alguien anuncie sus servicios o productos y te pague unos céntimos por cada clic, que ser intermediario activo en una transacción y obtener un porcentaje de ella. Convendría señalarlo porque existe, en mi opinión, una contradicción si se inserta una entrada de esta naturaleza en la sección de noticias “Tecnología”. A esto se le llama camuflaje. Y no se puede presuponer imparcialidad o vocación crítica en ninguna entrada que se sirva del márketing de afiliados, en particular en el caso concreto de los períodicos, cuya autoridad simbólica es muy grande.

Pero no hemos acabado.

Mi experiencia en el mundo de Internet se inició precisamente con el márketing de afiliados. De modo que he podido seguir en los últimos dos años el desarrollo de los algoritmos de Google y el impacto que han tenido en este pequeño ámbito: contundente impacto. El márketing de afiliación lo utilizan muchos webmasters particulares para obtener beneficios añadidos en sus blogs. Cuando se introdujo el algoritmo Fred en Google, un algoritmo que penaliza, precisamente el uso de márketing de afiliación, miles de páginas webs de particulares empezaron a perder posiciones en Google y, con ello, ingresos. No hay que engañarse: hay personas que entraron en la pobreza debido a ese cambio de algoritmo.

google fred

Fred, en homenaje al personaje Fred Flintstone. Típicas gracias imbéciles de Google.

Google Fred, como muchas actualizaciones de Google, debe ser observado desde, por lo menos, dos puntos de vista: Tiene sentido para limpiar de los primeros resultados de búsqueda algunas webs con demasiados enlaces de afiliación (spam), pero al mismo tiempo beneficia radicalmente a su sistema Adwords y, de forma indirecta pero muy clara, a otras webs de gran autoridad como, oh, los periódicos.

Durante el tiempo que trabajé en el ámbito del márketing de afiliados, pude observar cómo periódicos (sin distinción: El País, Eldiario.es, ABC, ElConfidencial) empezaban a posicionar voluntaria o involuntariamente (impulsados por el nuevo algoritmo) artículos en palabras clave estables, y en muchas ocasiones artículos con enlaces de afiliados como el que hemos comentado al principio del post.

Resulta que la naturaleza de las webs de los periódicos es la piedra filosofal que todo individuo interesado en el márketing de afiliados desearía. Y diríase que eso ha ocurrido de rebote. A los períodicos, todas las empresas independientes de Analisis SEO les atribuyen una muy alta y en mi opinión discutible autoridad (El País como dominio tiene una autoridad, según Ahrefs, de 74 sobre 100 -cifra inigualable, siendo 30-40 lo habitual para un blog particular de calidad), con lo cual siempre posicionan bien. Sus páginas, no enfocadas particularmente a vender productos o reseñarlos, crean un mix interno muy agradable a los ojos de Google que, a su vez, potencia esas páginas con enlaces de afiliación (al considerar que son residuales en el conjunto).

Conclusión: sin que nadie haya hecho nada explícitamente en esa dirección, tenemos que las páginas web que no pertenecen a corporaciones de gran autoridad (autoridad asignada por Google), caen de los resultados de búsqueda. Por otro lado, suben las corporaciones y, entre ellas, empiezan a abrirse hueco los períodicos: como hemos observado en el caso de ElPaís, hay un conocimiento exacto de esta situación y un aprovechamiento muy reciente de ella.

Aquí y aquí dos ejemplos de informaciones de 2016 del mismo perfil que no tienen ningún enlace de afiliación.

Para acabar, sin pretender ir más allá en el análisis de todos estos elementos, creo que será suficiente con recordar las palabras de los propios fundadores de Google antes de que implementaran monetización por publicidad en el buscador; su Suprema Contradicción:

Prevemos que los buscadores financiados con publicidad se inclinarán naturalmente a favor de los anunciantes, lejos de las necesidades de los consumidores. Cuanto mejor sea el buscador, menos anuncios se necesitarán para que el consumidor encuentre lo que quiere. […] Creemos que la cuestión de la publicidad provoca unos incentivos tan contradictorios que es fundamental disponer de un buscador competitivo que sea transparente y pertenezca al ámbito académico.

Serguéi Brin y Lawrence Page, The anatomy of a large scale hypertextual Web Search Engine, sección 8, Anexo A.

 

 

ghost spam

Ghost Spam, lo fantasmal en Internet

Ante la pregunta: ¿cree usted en los fantasmas? sólo puedo contestar: sí. No es necesaria ninguna prueba científica para tener la certidumbre de que los fantasmas existen. El primer y principal fantasma: yo mismo. Luego, todas las imágenes que los demás tienen de mí, las grotescas deformaciones para bien o para mal que pequeños conjuntos de signos han creado en la narrativa mental del otro. El otro día, tras una noche de insomnio, bajé a la panadería y fui irrespetuoso con el turno de cola. Ni siquiera me di cuenta de que había otras personas: me arrojé a la sección de croissants y le dije al panadero «dame dos». Lo único que sabe ahora el panadero de mí es que soy un ser desaliñado e irrespetuoso con las colas. Para él yo soy un Hermes picarón y poco más (o eso presupongo). Para mí es un panadero, amasador de alimentos sagrados (al leer esto, mi mujer ha dicho “¡Los panaderos ya no amasan nada!”). Cuanto más cerca está el otro y mayores referencias tiene de ti, más elaborada es la figura fantasmal. Ahora, me pregunto cuál es la figura que tienen de mí determinados amigos, o mi madre, o bien padre. Y en última instancia uno se pregunta sobre sí mismo en las sórdidas noches de canícula para acabar entumecido y estupefacto.

Durante un tiempo, tuve alucinaciones con Google Analytics. El estudio diario de las estadísticas de tráfico de conjuntos de páginas web supone una mecánica de naturaleza delirante. Los números y cifras con los que se trabaja corresponden a personas. A lo largo de más de un año, estudié diariamente un tráfico conjunto de cuatro mil usuarios. Me sumergía en los números, tasas de rebote, fuentes del tráfico, localización, tiempo en el sitio. Abandoné la vida social. En ocasiones, un pensamiento aparecía en mi mente con la apariencia del cortocircuito: «todos estos números y “usuarios” son personas».

En una carta a Don Delillo del año 2000, David Foster Wallace le escribe: «Digital=abstracto=estéril, en cierto sentido».

Google Analytics tiene un apartado llamado En tiempo real. En él, aparece en un recuadro el número de usuarios en línea y su geolocalización. Cuando entra un nuevo usuario y se modifica el número, aparece un pequeño pulso luminoso, verde translúcido. Cuando se pierde un usuario, el pulso translúcido es rojo. Hay que acercar mucho la vista a la pantalla para verlo. Es una señal casi imperceptible. Un estímulo: verde cuando entra un usuario, rojo cuando se marcha. Muchas veces pienso en ello con inquietud. Me llamó la atención desde el primer momento, cuando todavía era un ignorante de Google Analytics. Todo me parecía montado a la manera de un videojuego.

ghost spam referral

Como en todo videojuego, había también monstruos y enemigos a los que combatir. Entre ellos, fantasmas. Ocurrió así: en páginas con mucho tráfico que verificaba diariamente, empezaron a aparecer referral links extraños. Si alguien entra en tu página web desde un enlace situado en otra página web, se le considera un usuario adquirido mediante referral link. Los fantasmas pueblan esta sección particular de Analytics. En efecto, algunos de los referral links que aparecían conducían a ofertas y promociones, y no a páginas de origen como debía ser. Cuando pregunté, me dijeron que se trataba de los spammers rusos de Ghost Spam.

Ghost Spam: qué es

Se le llama Ghost Spam porque las visitas registradas desde referral links de esta naturaleza no han sido realizadas por nadie, aunque hayan quedado registradas, gracias a un procedimiento de envío de datos falsos. Por decirlo así, una nada se ha manifestado (Ghost Spam) y ha dejado un rastro en el mundo (Analytics). Este rastro es como un anzuelo: los spammers quieren que caigas en él, algún beneficio obtendrán de ello.

Lo que hay que hacer con el Ghost Spam, tal y como corresponde en una sociedad por completo materialista, es eliminarlo. Las visitas realizadas a una página web por fantasmas no pueden ser registradas. En efecto, se aplican filtros de spam (y otras estrategias de naturaleza defensiva) cada vez que se detectan ataques de esta naturaleza. A veces, el tráfico de Ghost Spam de una página puede alcanzar el 10% del total si no se aplican medidas de contención.

El papel de los robots en Analytics

Lo que resulta curioso, en el contexto de nuestra sociedad actual, es que el Spam fantasma sea negativo y se busque su eliminación y, en cambio, los robots tengan en Analytics el estatus parecido al de sacerdotes. Los robots, también conocidos como crawlers o arañas, son entidades no humanas que visitan nuestra página web para determinar su estatus completo (desde el contenido, pasando por su estructura o velocidad). Google tiene sus propios robots, así como otras empresas privadas de análisis como Semrush, Ahrefs, Sixtrix o Majestic. La visita de uno de estos robots cuenta en el cómputo total. Puedes filtrarla pero es esencial no bloquearla. Los robots de Google (y otros buscadores) son quienes, en última instancia, aportarán los datos para determinar tu posicionamiento. Si has pecado, muchacho, ellos te van a castigar. Y si bloqueas a los robots, el castigo será la desaparición y la muerte de tu página web en los buscadores.

Un vídeo final: entrevista a Jacques Derrida. Le preguntan: ¿Cree usted en los fantasmas?

profanadores tumbas

Profanadores de tumbas desindexadas

Motivaciones económicas, científicas y espirituales han movido desde siempre a los profanadores de tumbas. A principios del siglo XIX se necesitaban en el Reino Unido cerca de quinientos cadáveres al año para abastecer a las facultades de medicina y anatomía. Sin embargo, de forma oficial sólo se suministraban unos cincuenta cadáveres anuales: los condenados a muerte que proporcionaba el aparato judicial británico. Hasta la promulgación de la Ley de Anatomía en 1831, el déficit de cadáveres se suplía mediante el robo organizado, una suerte de tráfico entre doctores e intrépidos sepultureros que suponía una forma alternativa y minoritaria de economía sumergida (la clase de economías que sobreviven porque ni se habla de ellas, ni se combaten con decisión).

El arte de la profanación de tumbas es tan antiguo como el hombre. Vemos a Vesalio en los cementerios de París cavando a destajo. En el Asno de oro de Apuleyo, novela romana del siglo II d.c, ya aparecen las brujas nigromantes, cuya magia necesita del poder de los difuntos (el propio Apuleyo fue acusado de usar la magia para encantar a una tal Pudentila, viuda y rica). Podemos seguir ascendiendo hasta la prehistoria para encontrar la profanación de tumbas ritual o material: la práctica es constante y no quiero detenerme es elaborar su historia. Sí quisiera, en cambio, aportar un pequeño addendum, el fruto de una investigación ligera que una mañana de verano me llevó por caminos extraviados. Hoy quisiera hablar del arte de la profanación de tumbas digitales en Internet.

Archive.org y WP Content Bot, los instrumentos del profanador

Cuando un dominio de Internet caduca, la página alojada en él deja de ser accesible. Cada día, millones de páginas caducan y sus contenidos dejan de estar disponibles para los robots de Google. El contenido, supuestamente, desaparece o resulta inaccesible. Excepto si eres un profanador de tumbas, especialista SEO de alto nivel, poseedor de los arcanos mágicos de la resurrección, y sabes crear un ejército de zombis-web con los que enriquecerte.

Existe una estrategia compleja que utilizan los especialistas en posicionamiento para recuperar el contenido difunto / desindexado de las páginas web caducadas. Por ejemplo, si usted, lector, tuvo una web en algún momento y decidió cerrarla, debe saber que todo el contenido de la misma puede ser expoliado (profanado) y devuelto a la vida (resucitado) sin rastro de su origen autoral.

¿Cuál es el procedimiento?

Primero, el profanador moderno acude a la página web Archive.org. La página es una biblioteca digital sin ánimo de lucro que recopila toda clase de materiales. Entre ellos, páginas web (300 billones de webs en la actualidad). Con su sistema Wayback Machine podemos visualizar la evolución del diseño y contenidos de cualquier página a lo largo de los años, pero no su contenido. La tarea en este paso consiste en descubrir dominios caducados -de la temática que nos interese- que tuvieron contenido en algún momento.

Una vez hemos localizado dominios con contenido sepultado y desindexado, utilizaremos el plugin WP Content Bot para realizar la tarea de resurrección. Así, a la manera de la ciencia ficción, se anuncia WP Content Bot:

The only robot that extract articles from Expired domains to rebuild a website content in minutes with with the click of a button. Software will let you publish unique content to unlimited wordpress blogs and create your unique PBN.

¿Qué quiere decir todo esto? En esencia, el plugin WP Content Bot resucita contenidos caducados y automáticamente los republica en un sitio web que le asignemos. Por lo general, los contenidos resucitados se publican en una PBN con una finalidad concreta.

Arquitectura de PBN: la finalidad del profanador

PBN es una Private Blog Network, Red Privada de Blogs. Estas redes las han utilizado intensivamente, hasta hace muy poco, especialistas en posicionamiento para adulterar sus resultados en Google. Se trata de construir una estructura de páginas web enlazadas entre sí de forma piramidal. Como requisito, cada una de las páginas de una PBN está aislada para que Google no detecte la pertenencia a un mismo propietario (desde 2017 las últimas actualizaciones del algoritmo han avanzado mucho en el desmantelamiento y penalización de PBNs). La estructura que se genera es la siguiente:

pbn wp content bot

La lectura del gráfico es sencilla: cada cuadrado es una web, y el color determina su nivel. Las webs del Tier 3 potencian a las webs del Tier 2. Así sucesivamente en una cadena de transferencia de fuerza que potencia, en última instancia, nuestra página principal (la que queremos posicionar). Por lo general, se utilizan los textos resucitados de páginas caducadas en el Tier 3 y el Tier 2.

Como se observa, es necesario generar gran cantidad de texto para elaborar una estructura de esta categoría. Como eso resulta inviable, para cubrir el Tier 3 y el Tier 2 se utilizan métodos automatizados. Hasta ahora, por ejemplo, se había utilizado la generación de textos spineados (textos automáticos con variantes semánticas y textuales preprogramadas) y autopublicados mediante programas específicos que, por decirlo así, “hacen el trabajo ellos solitos”. Sin embargo, el algoritmo de Google se ha refinado lo suficiente en el último año para captar textos producidos por máquinas y ha empezado a penalizarlos. La alternativa, pues, la profanación y resurrección de textos caducados.

¿Por qué? En primer lugar, porque a Google le resultará imposible determinar que esos textos resucitados son artificiales. De hecho, no lo son: son el producto de lo que alguien escribió y, en algún momento, indexó (quizá no sabía lo que hacía, como no sabe lo que hace quien habla sin medida en la red). Con la profanación de tumbas en Internet el especialista en posicionamiento crea sitios webs con contenido totalmente humano (pero deberíamos llamarlo zombi) que más tarde le ayudarán a posicionar su web principal, web con la que ganará dinero.

La estrategia de Archive.org y WP Content Bot permite, también, prescindir de las PBNs. El webmaster avezado podría, simplemente, ir resucitando contenidos sepultados y posicionarlos de manera natural con una voluntad meramente cuantitativa. Dispondrá así de un ejército enorme de textos que, si sabe aprovechar, también lo enriquecerán. La impresión es, pues, la misma. Siglos atrás se vigilaban las tumbas de los ricos por la posible presencia de ajuares que saquear. Hoy en día se rastrean gloriosas páginas web del pasado, cuyos suculentos contenidos 100% humanos son ambrosía para el buscador. Expolio, se mire como se mire.

facebook sincronicidad

Sincronicidad y Facebook: lo artificial mágico

Pensar en alguien mientras caminamos por la calle y, a continuación, encontrar a esa persona al doblar la esquina. Experiencia reconocible, muchas veces comentada con los amigos en clave mistérica y sin la plena seguridad de lo azaroso del evento. La sincronicidad. Una aproximación esencial a este fenómeno la encontramos en la fructífera relación doctor-paciente (y luego amigo-amigo) que desarrollaron Carl Gustav Jung, psiquiatra, y Wolfgang Ernst Pauli, premio Nobel de física (en 1945 por el descubrimiento del Principio de Exclusión). Un texto clave fruto de esa relación: el artículo Synchronizität als ein Prinzip akausaler Zusammenhäge (Sincronicidad como principio de conexiones acausales). Jung ya había mostrado interés acerca de este fenómeno desde el punto de vista psicológico en una conferencia de 1930 dedicada a los insights generados a partir de la consulta del I Ching. Sin embargo, sus acercamientos más rigurosos se produjeron de la mano de especialistas en Física: primero en dos conversaciones con Albert Einstein (1909 y 1912), y luego en el trabajo, más profundo, realizado en colaboración con Pauli.

jung pauli sincronicidad

Tanto Jung como Pauli estaban convencidos de que los eventos sincrónicos revelaban la conexión acasual entre eventos físicos y mentales a través del significado. El elemento de significado que le daría sentido a un evento sincrónico sería el proceso de individuación del hombre, idea propiamente Junguiana según la cual cada ser humano cumple en su vida un proceso de búsqueda y hallazgo de su sí mismo. Dichas sincronicidades serían esenciales como guía para cumplir con el proceso.

Sin entrar en más detalles, salta a la vista ya que el Principio de Sincronicidad, para ser válido, requiere que aceptemos a la naturaleza como elemento activo, posibilidad sistemáticamente rechazada por la ciencia occidental hasta la fecha (y próximamente). Sin embargo, el cometido de este artículo no será demostrar la validez del Principio de Sincronicidad en “el mundo real”, sino comprobar cómo, un fenómeno de naturaleza esotérica y no incluido en el corpus científico, ha sido utilizado y adoptado masivamente como técnica en una herramienta que usamos a diario: Facebook.

Tanto en el Timeline, como en el apartado “buscar amigos” de la red social, el algoritmo de Facebook nos ofrece sugerencias de amistad. Asimismo, si tenemos activadas las notificaciones en el móvil, recibimos avisos de cumpleaños de amigos, señales de cercanía, de publicaciones relevantes, etc. Los criterios de Facebook a la hora de decidir qué nos muestra y qué no, son múltiples (en el apéndice, abajo, los desgloso), pero sobre todo dependen de nuestro comportamiento. Cada acción que llevamos a cabo en Facebook (o Spotify o Instagram, parte del conglomerado) es un signo que el algoritmo toma en cuenta para decidir qué nos mostrará y con qué preferencia. Los eventos artificiales de sincronicidad ocurren en la red social de la siguiente manera:

1) un día navegamos por diversos perfiles de “personas del pasado”. Entramos en cuentas de amigos de la infancia que están en Facebook, por ejemplo, ejerciendo lo que se conoce como la extendida práctica del stalker. Navegamos en cadena por amigos de amigos. Con ello, le dejamos a Facebook el rastro de un interés, en este caso nuestro interés por nuestras amistades del pasado.

2) Pasados unos días, el algoritmo incorpora a sus sugerencias de amistad a personas del clúster (”personas del pasado”) que exploramos y tanteamos días atrás con curiosidad, no necesariamente las personas que espiamos: también otras personas que mantienen vínculos de segundo y tercer orden con nosotros que Facebook sí conoce y nosotros no (este dato es clave para generar el efecto de sincronicidad). Si nuestras horas de navegación al día son muchas (y damos por descontado que hoy en día el tiempo promedio en Facebook de la población media es alto), se generan efectos sincrónicos con mucha facilidad: empezamos a recibir sugerencias de amistad de los clústeres que hemos explorado. La clave es que, muchas veces, Facebook y su refinado algoritmo nos sugieren personas de un clúster determinado que, sin embargo, no habíamos mostrado conocer en la red (no hemos visitado nunca su perfil, o bien no sabemos que tienen Facebook, o seguían ocultos en nuestra memoria). De modo que aparecen personas inesperadas pero reconocibles en las sugerencias y nos decimos (a mí me ha pasado) “¿Cómo sabe que conozco a esta persona?”, o bien “cómo lo ha adivinado”, otorgándole al ente, Facebook, una cualidad pensante que obviamente deriva de su refinado algoritmo.

jung pauli

Esta sensación ocurre muchas veces, pero de manera menos intensa por tratarse de objetos y no personas, con los banners de publicidad cuando nos revelan un resultado secundario de algo que deseamos y no recordamos que deseamos. Por ejemplo, un día busqué en Internet “ratones inalámbricos”. Busqué ese día y no repetí la búsqueda porque, en verdad, no tenía dinero para comprar nada. Un mes después, una mañana, aparecieron sistemáticamente banners de publicidad de “ratones inalámbricos”. Yo llevaba un mes sin pensar en ellos, y por supuesto había olvidado totalmente que un día estuve buscándolos. Sin embargo, como un mes atrás no me había renovado el ratón del ordenador y este se había deteriorado todavía más, cuando apareció el banner tuve una primera sensación sincrónica: mi deseo no manifiesto parecía haber sido reconocido y proyectado en el objeto exterior del banner sin que yo hiciera nada. Magia. Naturalmente, yo no recordaba en ese primer momento que un día, un mes atrás, estuve buscando “ratones inalámbricos”.

Se observa, pues, que el factor del tiempo es esencial para darle vida al efecto de sincronicidad en Internet: es necesario que hayamos olvidado parcial o totalmente los inputs que llevan a un ofrecimiento del algoritmo para sentir, llamémoslo así, “la magia sincrónica del algoritmo”. Lo digo de esta manera, pomposamente, porque es necesario un toque de ironía para desvelar la verdadera tragedia. Piénsenlo así: la autenticidad de un evento sincrónico pasa por creer en la posibilidad de una inteligencia exterior, o bien una psique extendida más allá del dominio de nuestra mente. Cuando alguien presencia un efecto sincrónico en “el mundo real” cree, aunque sea por un momento, que lo exterior no es frío, muerto y puramente material, sino algo vivo, poderoso, unificador, y lleno de sentido: la naturaleza como alma mater. Y siente, diría, placer y dicha, y por un momento es un feligrés. Cuando alguien presencia un sucedáneo de efecto sincrónico fruto de un algoritmo, piensa exactamente lo mismo y siente lo mismo: placer; hay una inteligencia llena de sentido detrás. A algunos, como a mí, esto les parece espantoso y el placer queda desfigurado, pero no resulta difícil entregarse al sucedáneo de lo mágico, y por lo tanto mostrar confianza hacia la falsa solvencia preternatural del algoritmo, una predisposición.

Por último, parece importante señalar que, de ser cierto el Principio de Sincronicidad en “el mundo real tal” y como postulan Pauli y Jung -a saber, que todo esto tiene un sentido-, nos encontraríamos en un escenario de interferencia que dificultaría severamente la experiencia y la investigación. Pues parece obvio que el efecto de sincronicidad naturalizado en el sistema artificial de Internet desvirtuaría (y desvirtúa) el conjunto de percepciones que hasta el momento se consignaban tan sólo en “el mundo real”, desdoblándolas por un lado en el medio Internet y naturalizándolas hasta despojarlas de su propia naturaleza de excepcionalidad.

Para profundizar en la lectura sobre el tema de la sincronicidad desde un punto de vista mínimamente riguroso, además de los textos de Jung y Pauli, recomiendo la obra de David Bohm -discípulo de Einstein- La totalidad o el orden implicado, y la obra del prestigioso matemático Henry Stapp: Mind, Matter and Quantum Mechanics.

Apéndice 1: Cómo determina Facebook lo que vemos

Primero, un repaso general. Observemos qué elementos determinan, en Facebook, que nos aparezca en el Timeline una cosa u otra. Primero, nos remitimos a su FAQ:
Las historias que se muestran en la sección de noticias vienen determinadas por tus conexiones y tu actividad en Facebook. De este modo, puedes ver historias que te interesan de los amigos con los que más interactúas. La cantidad de comentarios y Me gusta que recibe una publicación y el tipo de historia de la publicación (por ejemplo: foto, vídeo, actualización de estado) también pueden aumentar sus probabilidades de aparecer en tu sección de noticias.

Esta información puede satisfacer a muchos, pero su vaguedad no corresponde con su realidad. Aquello que aparece en nuestro timeline viene determinado por elementos concretos que, en conjunción, funcionan según relaciones mecánicas. Cuando entramos en Facebook, lo que nos aparece en el timeline viene determinado por un patrón de relevancia calculado previamente. Este patrón de relevancia es distinto para cada persona, y sus elementos principales son:

  • Quién publica qué (nuestras interacciones con otros usuarios ayudan a Facebook a comprender qué y quien nos interesa. Cuando añadimos a un nuevo amigo en Facebook, empieza un proceso de aprendizaje que acabará por mostrarnos sólo aquello de ese amigo que el algoritmo considere afín o de nuestro interés).
  • Qué se ha posteado, tanto en lo referido a contenido como al formato (por ejemplo, quienes muestren preferencia por los contenidos visuales obtendrán un mayor nivel de relevancia para contenidos de esta clase, de tal manera que lo visual predominará en su timeline. Este dato es muy importante).
  • Qué volumen y tipo de interacciones ha obtenido cada publicación (tienden a mostrarse contenidos que han recibido más interacciones y que, a su vez, son afines a nosotros. Entre dos contenidos afines consecutivos, es posible que Facebook escoja mostrarnos el más popular).
  • Cuándo se ha posteado qué (Facebook tiende a mostrarnos publicaciones recientes. Difícilmente, si hace un mes que no entramos en la red, nos mostrará contenidos de hace un mes)

Se sabe que estos son cuatro elementos son fundamentales para determinar la relevancia de un contenido para nosotros. Sin embargo, existen centenares o miles de patrones añadidos que complican e incluso imposibilitan un análisis exhaustivo. Lo que podemos decir con total seguridad es lo siguiente: Facebook está pensado para que el usuario esté el máximo de tiempo posible en su página. El objetivo final de esta mayor duración en el sitio responde a un único fin de naturaleza económica. De acuerdo con este criterio y con los ya señalados, resulta lógico que el algoritmo siempre tienda a mostrarnos lo que nos gusta y/o interesa. Lo vemos fácilmente en la publicidad intersticial. Si hemos estado buscando, por ejemplo, videojuegos baratos por Internet, nuestros espacios de publicidad se llenarán de dicho contenido: videojuegos baratos por Internet.

En este ámbito (el consumismo) el algoritmo de Facebook es en extremo eficaz. Pero, ¿qué pasa con contenidos personales, políticos o de otra naturaleza? Ocurre que los criterios son exactamente los mismos que determinan nuestro contenido publicitario. Un ejemplo muy simple: la muerte de cien niños en África un día cualquiera no es una noticia agradable para nadie, por lo tanto recibe -según se sabe- menos interacciones, lo que, a su vez, determina que aparezca poco en los Timelines generales, con el resultado final de que, en términos absolutos, la muerte de niños en África es un contenido siempre relegado a segundo plano o eliminado, a menos que hayamos demostrado un claro interés por ello. Noticas de naturaleza sensacionalista, pensadas para lograr el clicbait, consiguen más relevancia en el posicionamiento puesto que atraen la atención en su enfoque hacia el “me gusta”. ¿Acaso quiere Facebook que veamos noticias y estados que nos provoquen rechazo? De ninguna manera, pues cuando eso ocurre, marchamos de la página.

mr thriller neofronteras

Héroes de Internet: Dr.Thriller en Neofronteras

La fama y el secretismo son dos aspectos opuestos de una misma fascinación, las interferencias que impregnan algo libidinoso que hay en el mundo.
Don Delillo

Mi naturaleza es la del stalker. En las redes sociales me fijo en los movimientos de muchas personas, observo sus estilos de escritura, los patrones de comportamiento, las interacciones, y de ellos desprendo una psicología posible a partir de la que inferir la verdad de su ser. No veo nada ilícito en perder el tiempo en los suburbios de la cultura que representan las redes sociales y la televisión. Digamos simplemente que el desierto es un impulso válido si se quiere llegar a alguna parte.

Hace ya varios años que leo la página de divulgación científica Neofronteras. El rigor y la actualidad de sus contenidos me sirven para hacerme una idea cabal del estado de las cosas en el ámbito de la ciencia. Cada domingo, después de mi dosis habitual de asuntos paranormales con Cuarto Milenio, paso por Neofronteras y equilibrio la dualidad. Para zanjar el asunto de mis creencias, lo único que puedo decir es que sólo creo en lo daimónico. Aunque hace años que leo esa revista y muchas veces sus comentarios, no fue hasta ayer cuando reparé en un autor recurrente de los mismos que firma como Dr.Thriller.

Me gustaría hacer hoy el ejercicio de justificar que Dr.Thriller es un escritor de talento (quizá no depurado), y que todos deberíamos leer sus comentarios como quien lee una buena novela una tarde de verano.

Empecemos por un artículo que publicó el director de Neofronteras el 25 de marzo de 2017: Actividad cerebral y vidrios de spin. Se ha descubierto una relación entre los vidrios de spin y los estados de las redes neuronales. Las sinapsis de las neuronas interactuarían entre sí de forma equivalente a la de los espines entre sí. A partir de aquí, pueden hacerse nuevos avances en la comprensión de cómo se forman los recuerdos (recomiendo mucho la lectura pausada y razonada del artículo). Si hacemos scroll y pasamos a los comentarios, llama la atención el primero, marcado en verde. Por lo menos a mí me llamó la atención. Lluis, comentarista habitual, dice:

NO sé si esta similitud entre los estados de vidrios de spin y los estados de redes neuronales pueden reforzar la teoría cuántica de la consciencia de Penrose y Hameroff, pero de momento da que pensar sobre ello.

Suele ser así: en la sección de comentarios rápidamente se introducen elementos especulativos o pantanosos, y el asunto de Penrose y Hameroff lo es y mucho. Se trata de una teoría  (Reducción Objetiva Orquestada / Orch OR) que afirma que la computación cuántica en el cerebro explica la conciencia. Se trata de una teoría polémica, muchas veces utilizada desde sectores más esotéricos. La posibilidad de una computación cuántica del cerebro y no algorítmica (de la cual se inferiría una consciencia no local) podría dar una explicación de naturaleza mística a las ECM, experiencias cercanas a la muerte, por ejemplo. Sin embargo, los resultados experimentales de Jeffrey R. Reimers et al. y L. K. McKemmish et al. no han podido demostrar que los microtúbulos de las células neuronales mantengan estados cuánticos de larga duración.

Así lo señala el propio Lluis en un comentario posterior (num 7). Él mismo dice sintéticamente que, a fin de cuentas, aunque le de que pensar, le parece improbable la teoría de Penrose y Hameroff (la conversación sigue con una interesante aportación en el comentario 11 que nos vuelve a dar fe en Penrose). Y aquí viene el comentario 8, donde por primera vez vemos a Dr.Thriller hacer acto de presencia. Merece la pena leer su comentario:

La química, entendiéndola como el dominio de la materia (es decir, escala industrial, para hacer recetas de cocina no hace falta entender nada, claro que eso no te da capacidad de predicción), no pudo despegar hasta que se desarrolló la termodinámica. Por eso me parece muy obvio que la conciencia es imposible que sea algorítmica (aparte de que ya debería de haber aparecido hace décadas, tal y como el Gran Mufti Minsky y sus fatwas fuera de bacinilla proclamaban de vez en cuando, ¿por qué lo llaman ciencia cuando quieren decir Dami Argo?). Que sea cuántica, eso está por verse. Que es una propiedad emergente que no sabemos todavía cómo meterle mano me parece obvio.

Conozco la reticencia de mucha gente a limitar los efectos cuánticos en biología molecular, lo cierto es que no tengo ni idea (ni ellos tampoco). Como todo, habrá que meter pasta, investigar, y reflexionar sobre los resultados. Hay que darse también cuenta de una cosa, dado que ni podemos definir la conciencia, no podemos establecer absolutamente ninguna de sus propiedades (no, la cuenta de la vieja no vale).

Este fue el primer comentario que leí de Mr.Thriller en Neofronteras. Me quedé, como dice la canción de Calamaro, duro. El estilo es defectuoso por inconsciente, pero es un diamante en bruto. Hay pensamiento y hay mordacidad en la apreciación, puede leerse casi como un cuentecillo autónomo en medio de la fragmentación estipulada por los comentarios.

A partir de aquí, busqué entradas que me parecieran polémicas para ver cómo reaccionaba mi nuevo héroe literario. La ventaja de esta nueva forma de lectura elevada a la categoría de literatura es que, a través del índice de la web puedes saber de qué ha hablado tu nuevo escritor favorito. Empecé a mirar en el índice hasta que di con un artículo sugerente: Lanzan el proyecto METI.  Se trata de un proyecto para enviar mensajes cifrados a estrellas cercanas con la finalidad de buscar vida inteligente. Es también un proyecto muy polémico, como vi enseguida en los comentarios de los habituales. Lo que no sabía era la dosis de placer lector que me produciría la sisifolítica conversación que mantienen los comentaristas a continuación.

Aparece primero tímidamente Lluis para señalar, en la línea de Hawking, que podría ser peligroso e ingenuo delatar nuestra posición a supuestas razas alienígenas cuya naturaleza e intenciones no conocemos. Los comentarios sucesivos son un tanto caóticos, pues aparece un alma extraviada quejándose de que sus comentarios han sido borrados. Lluis es el único que vuelve a intervenir de acuerdo con la línea que él mismo había propuesto (num 4). Y aquí llega la primera intervención de Mr.Thriller y su voz resuena ya cavernosa y segura desde las primeras líneas (no lo pongo completo):

Pues (una vez más), lamento discrepar prácticamente al 100%. No veo absolutamente ninguna razón por la que una civilización ET pudiera querer comunicarse y sobre todo, delatar su posición. Tengo múltiples razones para todo lo contrario.

[…]

A los humanos, sobre todo a los Occidentales (y a muchos otros), nos encanta contaminar. Forma parte de nuestra cultura y, quizá, de nuestra constitución biológica como mamíferos y primates. Colocar unas pirámides para que se vean bien. Edificios bien horteras, pintados en colores chillones y caros para que se avisten lo más lejos posible. Son muestras de poderío, y de garrulismo. Pero los contactos entre civilizaciones humanas, sobre todo las avanzadas, siempre han sido problemáticos. Lo primero que una civilización ET avanzada debería de hacer, precisamente si es responsable y avanzada, es pasar completeamente desapercibida para otras que son inferiores a ella, esto incluye camuflarse, emitir todo en forma cifrada, encriptada y oculta, que de hecho es *exactamente* como se han comunicado TODOS los poderes humanos desde que existe la historia escrita -posiblemente desde antes.

[…]

Una vez más, esto del SETI y el METI es otro subproducto cultural. Yo le daría la vuelta a la “paradoja de Fermi” (una garrulancia de un tipo que en realidad, políticamente era lo que era, alguien que vivió en extrema placidez con Mussolini hasta que la influencia del enano venenoso hizo promulgar leyes antisemitas que pusieron en peligro a su mujer, empacó las maletas y se largó, y después en EEUU se codeaba con lo mejor de la derechona de siempre), para mí no es sino otra delación subliminal de su concepción del poder y la jerarquía de las civilizaciones humanas, para mí el hecho de que NO se detecten civilizaciones ETs es la mejor prueba de que existen.

El tercer fragmento es sencillamente espectacular. Esa frase entre paréntesis comentando brevemente la vida de Fermi, su sintaxis, esa “influencia del enano venenoso”, y por supuesto la concepción general del párrafo, con el cierre limpio, definitivo, imposible de rebatir aunque aquí no haya habido más argumento que el estilo (por eso mismo). Estos elementos en mi opinión denotan una inteligencia compositiva que debe sumarse al conocimiento enciclopédico que parece exhibir Mr.Thirller en sus intervenciones con un tono muy de “andar por casa”. La paradoja de Fermi señala las contradicciones que existen entre las estimaciones científicas acerca de la existencia de civilizaciones inteligentes (altas) y la falta de evidencias reales al respecto (ninguna).

La siguiente intervención de Mr.Thriller es en el comentario 10, una respuesta libre a un comentario previo de un tal JavierL:

A fin de cuentas, si una cultura absorbe a otra, en un sentido muy literal la extermina. Los humanos somos humanos, menuda obviedad, y no hemos sido capaces de convivir con armonía. Me parece muchísimo suponer que especies, o lo que fuesen, totalmente ajenas, tengan que llevarse amorosamente. Por supuesto que no va a haber conflictos por planetas, ni por “espacios vitales”, igual que los humanos ya no tenemos conflictos por la seda o las pieles de castor, pero intereses, por muy inimaginables que nos sean aquí y ahora, los habrá. Y si dos intereses entran en conflicto no está probado en ningún teorema que tenga que haber solución a satisfacción de las partes. De hecho, si no estoy equivocado, está probado precisamente lo contrario.

Los rasgos que delatan en este pasaje a un escritor secreto (que a veces simula ser impreciso) son los siguientes: la autoironía (“menuda obviedad”); el adverbio “amorosamente”, colocado allí para marcar un punto alto semántico, para luego descender por una vaguedad salteada por refrescantes y rumbosas observaciones (“conflictos por la seda o las pieles de castor”), para llegar finalmente a la sentencia final, otro pasaje que destila sabiduría, misterio, encriptación gozosa.

Hay varios comentarios más de Dr.Thriller y otros donde se sigue especulando sobre las intenciones y la naturaleza de una posible raza extraterrestre. Hasta qué punto somos capaces de concebir formas de vida no basadas en el carbono y cuál sería la naturaleza de su inteligencia. Cómo sabemos que no estamos sometidos ya a una conquista intangible, ciegos de nuestra prehistórica cosmovisión positivista. De qué hablaríamos con ellos. Por allí se dirigen los comentarios: ¿Habría algo que hablar con los extraterrestres? ¿Qué tipo de contacto puede tener una especie inteligente con otra especie inteligente? Es el propio Dr.Thriller quien de pronto, de su brutal conocimiento enciclopédico (que me recuerda mucho al del Juez de Meridiano de Sangre de Cormac McCarthy) extrae un giro imprevisto que eleva el fondo de la conversación. Saca a relucir un dato interesante: el Homo sapiens y el Neandertales, a pesar de haber convivido en un mismo espacio geográfico, no tuvieron apenas contactos culturales:

Otra reflexión. A pesar de la hipótesis de hibridación residual con los neandertales (y denisovanos, yo esto si no le importa a nadie me lo tomo cum grano salis hasta que tengamos pruebas más sólidas), todas las pruebas arqueológicas y antropológicas claramente indican que no existía ninguna clase de relación y/o colaboración estable o sostenida entre neandertales y humanos, como corresponde lógicamente a especies biológicas separadas (si es que se les sigue considerando así a la luz del nuevo asunto), las herramientas y productos culturales son funcionalmente similares pero culturalmente bien diferentes, lo que indica claramente que no hay transferencias. Fue una época en la que en este planeta al menos dos especies inteligentes (con permiso quizá de cetáceos y otros en la lista de hipotéticos) vivían simultáneamente, y la teoría de juegos falla estrepitosamente porque no se dio ninguna colaboración, nada, ni transferencia de información, cero, al menos que haya quedado registro (algo debería haber quedado). Es tema interesante porque, p.ej., realmente no sabemos si las pinturas rupestres (y tanto que lo eran, el 99% estaban fuera de las cavernas) eran de ellos, nuestras o de ambos.

Nuestro autor puede moverse pues por registros y temas dispares, hace y deshace, unifica lo separado. No es otra cosa, según observaba ayer con deleite ya encamado, que un Humanista auténtico, rara avis en la pantalla que habitan casi siempre ocultos en entre la espesura y el ruido.

(Número 14) Por cierto, no me resisto a ponerlo, pero en uno de los viajes de Ijon Tichy (Stanisław Lem), se intentaba “cristianizar” a un planeta ET con el envío de misioneros (jesuítas, si no recuerdo mal, Lem era polaco, no le gustaba mucho el régimen y tampoco mucho la Iglesia Católica, por decirlo de una forma suave, es gente que realmente da ejemplo de fuerza pa viví), los misioneros iban… Y volvían ateos y con títulos de ingeniería o alguna otra rama de la ciencia aplicada.

Al planeta lo borraron del mapa, claro.

 

google fred actualizacion

El nuevo algoritmo Fred de Google: crítica

Mi trabajo en la sombra de la sombra, Internet, ha ido cambiando a lo largo de los años. Empecé como escritor de artículos optimizados SEO hace diez años y desde entonces, con saltos espacio-temporales de importancia, he ido aprendiendo el funcionamiento interior de páginas web (hasta llegar a hacer las mías propias) y también he estudiado la evolución implacable de los algoritmos que aplica Google para racionalizar sus búsquedas, de los cuales depende cualquiera que tenga una página y quiera ser leído. Hoy hablaremos del nuevo algoritmo Fred, una evolución o culminación del algoritmo Phantom que permite al buscador penalizar mejor páginas con contenido de baja calidad o estructuras de backlinks artificiales.

¿Has sido penalizado por el algoritmo Fred? Cómo identificarlo

Si has experimentado descensos de tráfico a partir de los días 7 y 8 de marzo de 2017, así como el día 20, estabilizándote a posteriori a la baja en Analytics, es posible que el algoritmo haya penalizado a tu página web. Voy a proceder con la explicación usando un caso de estudio concreto cuya URL no revelaré por consideración a los afectados.

Veamos en primer lugar cómo ha sido afectado este sitio al que llamaremos “Anti-Fred”. Se trata de una web que, hasta la fecha de introducción del algoritmo, cumplía al parecer con los requisitos de Google y se encontraba en situación de ascenso. Tal y como informan los webmasters, el descenso previo al desplome definitivo (entre diciembre y enero) no se debe a una actuación de algoritmo, sino una migración de protocolo que les causó problemas. Los datos, tomados de la consultora independiente Ahrefs, muestran visualmente la contundencia de la caída a los pocos días de la aplicación de Fred:

penalizacion fred grafico

El tráfico diario de la web pasó rápidamente de un pico de 43 mil usuarios potenciales al mes a 23 mil.

¿En qué falló “Anti-Fred” para recibir la penalización?

La nueva política de Google a la hora de informar acerca de las actualizaciones de sus algoritmos es sin duda oscurantista, propia de una religión cuyos misterios deben ser protegido. Eso lo comentaremos luego en la opinión crítica: ahora centrémonos en el apartado técnico. De acuerdo: Google cambia sus criterios de un día para otro y varios millones de páginas pierden la mitad de sus posiciones. ¿Qué ha pasado?

Aquí algunos motivos por los que Fred podría haberte afectado:

  • Tienes una página web sobreoptimizada con publicidad y/o links salientes de afiliados.
  • Tu estructura de enlaces (Backlinks) revela patrones artificiales: ¿has intentado adulterar los resultados de búsqueda creando links artificiales en páginas ajenas o en tu propia PBN?
  • El contenido es de baja calidad.

¿Cómo contrarrestar una penalización del algoritmo Fred?

Los analistas de Statcounter, después de dos meses de análisis de las fluctuaciones de tráfico de millones de web, han conseguido determinar con cierta exactitud cuál es la naturaleza de Fred y cómo contrarrestarlo. Aquí algunas cosas básicas que deberías repasar:

  • Consulta tu tráfico de Analytics. Si experimentaste un descenso de tráfico entre el 5 y el 20 de marzo de 2017 (aproximadamente), convendría que aplicaras los siguientes cambios:
  • Intenta categorizar todo el contenido de tu web en dos apartados bien distinguidos: 1) textos de alta calidad y actualizados 2) textos viejos y de baja calidad.
  • Comprueba en el descenso de tráfico, qué palabras clave perdiste y a qué artículos o landings corresponden.
  • Una vez hayas identificado las URL que han sido afectadas, plantéate reescribirlas por completo de acuerdo con los criterios de calidad de Google. De entrada, si tienen muchos links publicitarios o de afiliados: limítalos al máximo. Un buen consejo al respecto: en el caso de publicidad, elimina banners y enlaces situados en la parte superior o de manera intrusiva para el usuario. En el caso de links de afiliados, ahora lo ideal serían textos de mil palabras y no más de uno o dos enlaces. A su vez, parece conveniente desenmascarar dichos enlaces si utilizas plugins o acortadores de URL, pues ahora Google considera que eso es un engaño para el lector.
  • Utiliza un servicio de análisis de backlinks que te permita rastrear y eliminar links creados artificialmente o dudosos a la hora de aportar calidad a tu web (lo triste: estos servicios suelen ser de pago).

El algoritmo Fred de Google: crítica

En mi opinión, lo más penoso de los entusiastas por el SEO y por Google, es que carecen por completo de entendimiento humanístico. Su reflexión no va más allá de lo que sería aceptable para un feligrés atado por toda clase de reglas a una religión caprichosa. Una crítica completa a Google habría que desarrollarla en diversos artículos (y eso intento), pero quisiera reunir algunas reflexiones, a continuación, en contra de esta situación a todas luces monoteísta y monopolística.

Primero: Con el tiempo, Google ha creído conveniente dejar de anunciar al detalle las actualizaciones de sus algoritmos. Todas las webs que infieren posiciones y que estudian los cambios de Google (suele haber tres cambios menores de partes del algoritmo al día) lo hacen por inferencia. En esencia: Google posee las reglas, pero no las revela. Esto lo hace, se entiende, para evitar que un excesivo conocimiento lleve también a la posibilidad de “hacer trampas”. Pero no nos engañemos, bajo la máscara de la calidad, las directrices, etc, y todo un armazón de palabras vacías de descripción, criterio y fondo, se esconde la realidad del oficio de SEO: comprender el algoritmo y comprender cómo aprovecharlo en propio beneficio. Desde mi punto de vista, bajo el amparo de la calidad y las directrices uno no deja de hacer trampas en la medida  en que Google entiende el término “trampa”. Ningún especialista en SEO (hay honrosas excepciones) piensa en primera instancia en el contenido, sino más bien en “cómo hacer contenido de calidad que me permita tener más tráfico”. El pensamiento en primera instancia es: “tráfico” y “dinero”. Decir que lo principal en SEO es la calidad, etc, me parece lo mismo que decir que la Publicidad además de vendernos cosas, puede ser una forma de arte. BASURA. La calidad y el contenido sólo son medios, no fines, pues así está montado el tinglado en Internet.

Segundo: Gran parte de las penalizaciones de Google han dejado de anunciarse. Es posible que tu sitio esté penalizado y tú ni te hayas enterado. Por supuesto, si estás en el mundillo SEO, si estás informado día a día y si tienes las herramientas de pago necesarias, puedes identificar el problema y solucionarlo. ¿Pero qué pasa si eres una persona que, de buena fe, hizo una página rudimentaria hablando de sus aficiones e introdujo algunos enlaces de afiliados cuando el algoritmo no lo penalizaba? Me refiero a la gente normal que no sabe nada de SEO, que abren una página, y que por falta de medios e información, se han comido los mocos hasta la fecha frente a los presuntos SEO que, con su saber hacer, copan las mejores posiciones, y que además, han caído en penalizaciones y nadie les ha informado siquiera de que existe tal concepto. En esencia, quien sabe de SEO pertenece a una casta sacerdotal por dos motivos: rinden pleitesía al poder de la mónada, y acostumbran a transmitirte lo que dicta el dios Google sin el menor espíritu de crítica. Si alguien ha hecho mal las cosas SIN DUDA has sido tú. Vaya, que no entra en consideración un elemento clave: quizá los fundamentos de todo este sistema, el propio Google y su excesivo poder, así como sus criterios de clasificación falsamente cualitativos, sean el verdadero problema.

Tercero: Hay una falta de crítica asombrosa ante el proceder de Google en cada actualización. Para mí, los analistas SEO más concurridos no son otra cosa que lacayos informativos del emperador. Nunca jamás una palabra de crítica contra ningún cambio. Nunca jamás ninguna abstracción o reflexión conceptual. Por otro lado, en las pocas informaciones que ofrece Google, siempre se encarga de parecer “el bueno y amable” amigo que nos llevará al camino de la Inteligencia Artificial y la justicia. PURA BASURA.

Pongamos un ejemplo extraído de un libro imprescindible: El efecto burbuja, de Eli Pariser. En este libro, terriblemente duro contra Google y Facebook, se analizan desde una perspectiva crítica el proceder de ambas compañías en lo referido a sus algoritmos.

El 4 de diciembre de 2009, en una entrada del blog corporativo de Google, se mencionó de refilón (siempre son así, los amables padres) un cambio en el algoritmo que, según Danny Sullivan, editor de Search Engine Land, supuso el mayor cambio que se había producido en la historia de los buscadores: búsquedas personalizadas para todos. En la actualidad, efectivamente, cada usuario que realice una búsqueda concreta obtiene resultados personalizados y únicos (puedes hacer la prueba realizando la misma búsqueda en modo incógnito). Es decir, a partir del análisis de tu comportamiento, se te ofrecen algunos resultados por encima de otro. El problema, puesto que los criterios de base de Google son fraudulentos (es una empresa y quiere dinero, no el bienestar mundial cojones) la aplicación de búsquedas personalizadas lleva a problemas MUY graves que poca gente ha pensado. Como es habitual, nuestros amigos SEO, ni siquiera han pensado en ello: el efecto burbuja. Según este efecto, tanto en Google como en Facebook, todo lo que nos aparece en pantalla fruto del trabajo del algoritmo, responde a un análisis exhaustivo de nuestros gustos y movimientos en la red.

Esto es muy efectivo a la hora de vendernos productos. Si buscamos varios días “pantallas de ordenador”, Google y Facebook lo detectarán y nos ofrecerán publicidad localizada. Por otro lado, el efecto burbuja tiene un segundo efecto político y social de naturaleza trascendental (leed el libro de Eli Parisier y empalideced de miedo). Tanto en los resultados de Google como en el timeline de Facebook empezarán a filtrarse lo que nos aparece “de acuerdo con lo que nos gusta”. Como el objetivo REAL de ambas páginas es mantenernos en ellas como sea, procura ofrecernos cosas que estimulen esa permanencia. Tal y como ha sido estudiado de forma exhaustiva, los usuarios de Facebook y Google tienden a introducirse en el así llamado efecto burbuja: opiniones contrarias o divergentes a nuestro proceder o pensar, directamente no aparecen, de modo que si alguna vez damos con ellas, nos parecen por completo ajenas e irreales. En materia de política y actualidad, el algoritmo nos ofrece sólo contenido acorde con nuestros gustos. ¿Pero qué pasa con aquellas noticias desagradables que quizá deberíamos conocer? Si no son virales, no aparecerán.

Así, Eric Schmidt, director ejecutivo de Google, en su absoluta inconsciencia mental, se permitió decir, henchido de orgullo:

“La tecnología será tan buena que a la gente le resultará muy difícil ver o consumir algo que no haya sido de algún modo ajustado a ella”

Pensad bien en esta frase, donde claramente se nos dice que una tercera instancia desconocida nos va a proveer con lo que, de antemano, ya sabe que nos gusta. ¿una especie de Dios? ¿De qué estamos hablando? En mi opinión no hay nada más importante que saber qué piensa quien no piensa como tú, sobre todo porque de los opuestos también se pueden extraer preciados conocimientos sincréticos. Literalmente, el gran avance de Google y Facebook con sus maravillosos algoritmos, ha acabado con esta posibilidad, o por lo menos la ha dificultado mucho. Si entramos en un análisis de cómo se informan los usuarios en la red, encontraremos gravísimas deficiencias en el funcionamiento de estos algoritmos.

Eso sin considerar el hecho todavía más grave de que todas las webs poderosas de Internet trafican con nuestros datos sin darnos nada a cambio, vendiéndolos indiscriminadamente a empresas turbias como Bluekai, Rubicon Project o Acxion, que luego revenden dichos datos a su vez para afinar todavía más los algoritmos diversos (Amazon tiene el propio, Facebook, etc).

Es necesario e imprescindible señalar esta falta de profundidad conceptual en el pensamiento de los gurús, genios de la startup y otra gente humanísticamente indocumentada. Hay excepciones, claro, pero claramente minoritarias.

Fred: lo bueno y lo malo

El aparte crítico que he hecho en el punto previo, pretendo desarrollarlo en diversas entradas en este blog. De momento, que quede como fragmento para la reflexión. Si regresamos a continuación al asunto que nos ocupaba podemos extraer algunas conclusiones generales con un poco de espíritu crítico:

  • Fred acabará con páginas con excesiva publicidad o spam. De esta manera, es muy probable que ocupen posiciones altas páginas cuyo objetivo final no es necesariamente vender, sino aportar otra clase de contenidos.
  • Hay que hacer una doble lectura de la penalización si nos fijamos en las webs de venta o webshops: los grandes beneficiados de Fred son, sin duda, las empresas que venden directamente desde sus propios almacenes (Amazon, etc). Particulares que tuvieran blogs de reseñas de productos con enlaces de afiliados, quedan desclasados por intermediarios. Mi pregunta es: ¿tiene verdadera lógica este movimiento que se aleja del usuario hecho a sí mismo en Internet frende a las grandes empresas? Casi todos los blogs que he leído lo toman como un gran avance, pero detenerse pensar en la posible doblez nadie lo ha hecho. Por otro lado, hay que pensar que muchas personas viven actualmente de Internet, y que determinados cambios pueden situarlos en el paro de un día para otro. Y las consecuencias fácticas de eso probablemente le den igual a Google.
  • Digo doblez porque, tal y como ocurre en el mundo del Coach, con Google pasa lo mismo: no se sabe qué quieren decir las palabras con las que se llenan la boca. Cuando dicen “contenido de calidad”, ¿a qué se refieren exactamente? Porque según algunos criterios una página cualquiera de Proust tiene más calidad que toda la basura de Internet, pero lo más probable es que una página de Proust JAMÁS se indexará en primera página de Google (ojo, está libre de derechos y no habría obstáculo para probar tal experimento). De modo que: ¿qué quiere decir calidad? Quizá lo que quieren decir, básicamente, es: “calidad es hacer lo que yo os digo que es calidad”. Y como Google es obviamente un monopolio, habrá que aceptar sus criterios. Si nos dirigimos a la última actualización de Google sobre sus criterios de calidad y la leemos de arriba abajo, encontramos grandes carencias a la hora de definir claramente los términos expresivos. Tal y como el coaching se nutre de la manera más plana y banal de palabras como “creatividad”, “constancia”, “imaginación”, para encauzar sus objetivos finales económicos, Google utiliza recurrentemente palabras que NO SIGNIFICAN NADA. Tras cinco años de estudios literarios, cuando veo que Google o algún SEO habla de calidad, yo sólo veo que habla de BASURA. Hay que aceptarlo, señores, siempre que el fin sea el que es y no el que pretenden hacernos creer que es (la utopía de la información personalizada, el saber eterno, la ayuda indispensable de la IA).
  • Por último, tras varios experimentos en diferentes sitios web hay un elemento positivo que deduzco de todos estos cambios: un escritor literario con unos mínimos conocimientos de SEO puede doblegar y engañar a su gusto a estos maravillosos algoritmos, como históricamente vienen haciendo los especialistas SEO con su contenido ocultamente basura. Basta con saber escribir, saber expresarse bien, utilizar sinónimos, sintaxis variadas, etc, para construir engaños que la IA no identifica porque no tiene en sus algoritmos la capacidad de entender la expresión literaria, sino sólo la literal. No digo que en el futuro no sea capaz de una inteligencia equivalente a la humana. Lo que digo es que, si eso llega a ocurrir, estaremos acabados. Primero, porque tal y como dijo Jonathan McPhie, hombre clave en Google, resulta casi imposible adivinar a estas alturas ciertos comportamientos de los algoritmos (hay demasiadas variables en juego). Segundo, porque los fundamentos de esa IA  y esos algoritmos son el CÁNCER verdadero que subyace en Internet. No faltan estudios que corroboran en qué medida una exposición excesiva a parámetros de esta naturaleza puede (y efectivamente lo está haciendo) cambiar para mal nuestra mente.

Termino con dos frases de dos grandes gurús fundadores de las bases y el funcionamiento de Facebook y Google:

Saber que una ardilla se muere delante de tu casa en este momento puede ser más relevante para tus intereses que el hecho de que la gente se muera en África. Mark Zuckerberg, fundador de Facebook.

Sólo un subnormal ignorante puede decir semejante cosa, un tecnófilo sin idea alguna de la historia del pensamiento humano.

Ahora rescatemos lo que dijeron los fundadores de Google hace años, cuando el buscador era gratuito y libre de publicidad, y comparémoslo con la situación actual:

Prevemos que los buscadores financiados con publicidad se inclinarán naturalmente a favor de los anunciantes, lejos de las necesidades de los consumidores. Cuanto mejor sea el buscador, menos anuncios se necesitarán para que el consumidor encuentre lo que quiere […] Creemos que la cuestión de la publicidad provoca unos incentivos tan contradictorios que es fundamental disponer de un buscador competitivo que sea transparente y pertenezca al ámbito académico.

Entrad ahora en Google y comprobad si sus ideas y creencias originales siguen esa línea.

Dixit.

 

 

 

agencia tributaria el proceso

Laberintos en la página web de la Agencia Tributaria

Llevo semanas evitando el tema porque el asunto que nos ocupa es grave. Hace posibles y efectivas las conspiraciones más extravagantes de la paraciencia, y de él sólo puede concluirse que estamos definitivamente solos y desamparados en este mundo. Una mañana mi padre me llamó para informarme de que había “llegado” una “carta negra de Hacienda”. Su tono lúgubre y sus posteriores recomendaciones financiero-telefónicas me hicieron pensar en lo peor. Fui hasta su casa esa misma mañana para leer el contenido de la carta negra. Impago del IVA en el trimestre tal del año cual. Mi padre posó su sólida mano de químico experimentado sobre mi hombro y dijo “si necesitas ayuda, aquí está la familia”. Yo, resistiéndome a aceptar ayuda alguna de nadie, guardé silencio ante el documento administrativo. Voy a comprobarlo próximamente, me limité a decir con rostro circunspecto.

De nuevo en casa, y ya totalmente atormentado por el requerimiento cuasi penal del estado, empecé a buscar información para saber cómo conocer la cantidad a deber y de qué manera proceder a pagarla de inmediato. Acerca de mi negligencia tributaria sólo puedo decir que, hasta la fecha, había cumplido con mis obligaciones. Esto era un descuido. Por Dios, esto tan sólo es un descuido, pensaba mientras me movía ardorosamente por la página web de la Agencia Tributaria, pasando de formularios a tutoriales inextricables. Una amiga mía me había dicho que se podían hacer los trámites cómodamente desde casa si uno solicitaba el certificado digital. Esa era la información que buscaba. Finalmente llegué a un formulario en el que se me daba un código. El código debía presentarlo en una delegación provincial para certificar que yo era yo y entonces podría descargarme el certificado digital y acabar de un plumazo, hoteleramente y desde casa, con la deuda con el estado.

Para obtener la certificación de que yo, efectivamente, era yo, debía pedir hora en la delegación. Eso hice tras dar tumbos en los diversos niveles de la compleja y sisifolítica página web de la Agencia Tributaria. Me dieron hora para diez días más tarde, diez días en los que recibí puntualmente llamadas de padre en las que, con voz ronca y apagada, anunciaba su apoyo incondicional ante mi bancarrota. El décimo día llegué media hora antes a la cita y pude certificar que en mi cuerpo estaba contenida adecuadamente mi persona. Una señora dio el visto bueno y felizmente volví a casa. En casa, entré en la dirección que se me indicaba en un correo y descargué el certificado digital. Lo instalé y accedí a la página donde efectuar el pago de deudas. Pulsé en “operar con certificado digital”, hice clic en “aceptar”, y saltó entonces un banner de aviso avisándome de que mi certificado no era suficiente. Volví a intentarlo y volvió a dar error.

Con tres cafés a cuestas entré en el mundo de los foros de dudas tributarias para que alguien me explicara por qué mi certificado digital no era suficiente. Al final encontré en la propia página web de la Agencia Tributaria una amable explicación: “Si su certificado digital aparece con un diploma y no con una llave en el icono, es porque no ha pulsado la casilla tal a la hora de descargarlo”. En esencia, no había pulsado una casilla y debía empezar de nuevo el proceso. Hice acopio de valor histórico y temporal y volví a pedir hora. Me la dieron hora al cabo de medio mes. Medio mes en el que recibí llamadas de mi padre, mi abuela y mis tíos en diferentes tonos de voz por lo general engolados, llamadas de contenido errante pero vigorosamente elíptico en torno al tema de mis impagos. Volví por fin a la delegación y la misma mujer volvió a comprobar que yo era yo para que mi código tuviera valor. Al regresar a casa inicié el proceso de descarga del certificado digital con sumo cuidado. Cuando llegué al punto crucial busqué la casilla que supuestamente debía pulsar y vi, casi sin sorpresa por la desconfianza natural que siento hacia el estado, que allí no había casilla alguna.

Entré en foros tributarios y comprendí que, de alguna forma, el problema era más bien de otra naturaleza. Al parecer, si pides el certificado con el navegador Chrome, tal y como yo había hecho, el certificado se descarga con diploma en el icono y no con llave, y por lo tanto no funciona. Para que uno pueda tener el icono cuasi sacro de la llave en el certificado debe utilizar Internet Explorer, o como mucho el navegador Firexox.

¡Pues muy bien!, me dije apuntando el cursor sobre Edge, la versión moderna de Microsoft Explorer para Windows 10. Realicé allí el procedimiento con lo que podría definirse un subidón de adrenalina por la pequeña gloria alcanzada, y descargué el certificado. Pulsé “abrir en carpeta contendora” y entonces…  el certificado volvió a aparecer con diploma en el icono. Tampoco había llave. El icono del diploma no garantizaba mi autenticidad de cara al estado para ejecutar trámites tributarios. Sólo la llave, nunca vista por mí, podrá darme el acceso a mis documentos postreros. Como ya había descargado el certificado y no podía volver a hacerlo, tuve que volver a empezar el proceso. Eso hice y al cabo de diez días que transcurridos en la especulativa miseria de quien es sustentado por los otros pero sólo de palabra, volví a certificar mi identidad para conseguir el certificado, volví a mi casa y realicé los pasos asignados y volvió a descargarse para mi espanto el certificado sin llave. Una vez más, el diploma, el icono de un papel con un diploma impreso pero no una llave, como ya uno esperaba lograr tras los sucesivos intentos. Así me puse a buscar otra vez una explicación, la razón práctica por la cual yo no conseguía de ninguna manera descargar el certificado. Ya lo había hecho todo en el mismo navegador, el procedimiento unificado en Firefox, compatible y bien adaptado. Así que, ¿cuál era el problema?

agencia tributaria

experiencias giro visual rodriguez de la flor

Experiencias biográficas del Giro Visual

Tal y como ha comprobado mi experiencia (por lo tanto quizá es una percepción subjetiva y falsa), existe una diferencia notable entre la vida con pantallas y la vida sin pantallas. Si uno se somete a una disciplina férrea y dedica una semana a la vida “sin pantallas”, para luego pasar otra semana a la vida “con pantallas”, puede comprobar cómo la percepción, el cuerpo y efecto de las propias percepciones cambia. En mi caso, el encadenar días sin pantalla implica aumentar los días de lectura. Por un lado, se circunscribe un espacio determinado sólo por el texto, y se deja de lado en gran medida la confluencia de imágenes o de texto rodeado de imágenes que determina la pantalla. Por otro, se pasa del soporte espectral que supone la idea de página formulada como scroll infinito, al soporte físico del libro, a la página “singular y oscura” -dijo Pascal Quignard-,  el espacio en blanco donde se le concede toda la autoridad al logos. En ambas posiciones se experimenta de forma directa la lucha agonista entre la palabra y la imagen. El experimento, por su parte, arroja luz sobre los efectos que esto puede tener en una conciencia.

Pasé unos días en la montaña y procuré leer mucho y percibir el mundo sin la mediación de una pantalla: paseos por el bosque, a través de prados bajo el mugido de las vacas, horas de lectura junto a una chimenea a la que alimentábamos con lo que habíamos recogido en el bosque. Lo primero que constaté es que aquel “forzarse a estar sin pantalla” supuso un esfuerzo angustioso. Los paseos por la naturaleza en los primeros días, por ejemplo, se experimentaban desde una completa desconexión entre los elementos del paisaje y lo que uno era. Los árboles, las vacas y los arbustos eran, por decirlo así, meros objetos planos impresos en la mente. A los pocos días la angustia empezó a intercalarse con una sensación inefable de calma y comodidad. Los objetos, y entre ellos, claro, figuran las personas, empezaron a adquirir consistencia y forma. Algo así como un sentido del tacto abstracto emanaba de ellos. Lo que era plano, adquiría un volumen. Este volumen no sólo estaba determinado por la forma, su manera de ocupar el espacio en mi proyección mental: era un volumen también por su repentino sentido narrativo. Si los primeros días en la montaña existía la habilidad de procesar lo plano como un conjunto de fragmentos inconexos donde preponderaba lo codificado por lo visual, tras acostumbrarme a la existencia aislada esa habilidad cambió por un pensamiento verboso, matizado más allá de su componente visual por efectos sinestésicos de profundidad, forma, sonido, sentido, etc. Y aunque parezca que la descripción favorece a este último estado por ser variado y su vocación unitaria, no hay que desdeñar lo que uno puede extraer también del otro. Cuando regresé de la montaña parecía que mi mente se acababa de acostumbrar a pensar el mundo como historia. Al sentarme frente al ordenador para trabajar, fue la pantalla lo que me pareció inconexo, incluso sórdido o demasiado fragmentado. La educación en una materia había llevado a la ignorancia en otra. A medida que pasaron los días y se sucedieron las sesiones en el ordenador, algunos momentos de televisión, el teléfono móvil, etc, regresó el sentido de la urgencia, pero al mismo tiempo un entendimiento y una aceptación como natural del mismo; volvió lo plano, las imágenes, esa cosa que Lefevre llamó presencias de una ausencia tomaron el mando en el esquema de pensamiento. Las ventajas: se enlazaban ideas mucho más distantes entre sí, casi operaba alguna suerte de delirio que permitía entrevér otros significados posibles y otras formas de expresión. Está claro, en definitiva, que la pugna, si uno se la toma en el sentido literal de pugna, expresa con naturalidad lo que sería un temperamento esquizoide.

En la introducción a Giro Visual, de Fernando R. de la Flor (publicado por Delirio), se menciona como símbolo clave la figura de Aby Warburg, experto en iconología. «Pero he aquí que aquel mismo hombre que pretendió recopilar el bilderatlas del mundo, durante una época larga y dolorosa, sintió cómo el polo del lenguaje y de la escritura misma se desestructuraba ante sus ojos; literalmente se derruía, girando hacia el lado temible de la afasia y de la agnosia, que llegó incluso a impedirle reconocer con claridad los signos que había aprendido a trazar en la escuela, el primero de los trabajos que el “mono gramático” debe incorporar a su trabajo. Son los años de su estancia en la clínica psiquiátrica de Bellevue en Krezlingen.» […] «Los cuadernos del fundador de una “ciencia de las imágenes” -quien estaba golpeado en aquellos momentos por la enormidad trágica de la Guerra del 14- testimonian qué recursos ingentes y qué sobreesfuerzos de energía hubo de poner en juego para no perder la capacidad discursiva, el fundamento en el logos, en el momento mismo en el que sobre la superficie convulsa de la escritura una fuerza desconocida fragmentaba y disgregaba sus palabras, dejando en las páginas las huellas visibles del drama squizo en que había caído el iconólogo.»

giro visual rodriguez de la flor

Warburg como símbolo y antecedente. Como en esta materia soy por completo autodidacta, prefiero optar por el camino de la divagación. Giro Visual -me refiero al libro en sí, al objeto-, me había acompañado los últimos diez años de casa en casa. Estuvo conmigo en Salamanca, de vuelta a Barcelona, en las casas de Provenza, de Lesseps, del Liceo y del Born. Yo me pregunto por qué no lo leí antes y la respuesta resulta tan obvia como mágica: porque no me hubiera servido para nada. Que alguien me explique, pues, por qué mecanismos acaba en las manos de uno un libro clave en un momento determinado, o por qué la voluntad se conjura para leerlo en ese momento y no en otro. Al principio del ensayo, R. de la Flor coloca una cita de Filóstrato: «Quien no ama la imagen es injusto con la verdad», cuya dificultad y nivel de abstracción me ha dejado meditabundo durante días, pues siento que lo que se afirma es cierto pero soy incompetente para comprenderlo. De hecho, aquí estoy, escribiendo, por completo en el texto como una voz que resuena en la mente; la escritura como representación de lo que es todo ello ausencia. El Giro visual es un proceso, iniciado siglos atrás, en el que «la imagen, o, en extenso, el signo visual pasa a ocupar una posición preeminente y nueva en el régimen general del conocimiento». Si miramos a nuestro alrededor comprenderemos las últimas consecuencias prácticas del Giro visual. No faltarán pantallas y dispositivos; si comparamos un periódico contemporáneo con un períodico de hace cien años certificamos el aumento drástico de la imagen, y sobre todo de su sofisticación. El libro ofrece una revisión histórica de los puntos clave del Giro visual así como una reflexión sobre las enconadas posturas intelectuales que se enfrentan en este campo. En última instancia se analizan los efectos del Giro visual en el planteamiento de los nuevos estudios de Humanidades e Historia del Arte. Tales disciplinas están cambiando en su modus operandi, y sus límites y objetos. Naturalmente, a tenor de mis experimentos en el campo, el libro me dio que pensar. Muy recomendable, y de escritura por momentos sublime.

Como parte de mi trabajo en los últimos tiempos había estado relacionado con los videojuegos, invertía la mayor parte de mi tiempo de “pantalla” en ellos. Y en ellos pensaba y ellos conformaban mi imaginario. El juego, como tal, supone tanto una vía de sublimación como una perdición. Demasiado tiempo habitando el mundo del juego uno enloquece, pues su fascinación anula el cansancio que en verdad produce. Lo más perverso del capital: haber transformado el trabajo en juego. Ahora bien, el mundo del videojuego, sobre todo debido a su concentrada historia (con saltos tecnológicos muy bruscos que provocaron un continuo proceso de metamorfosis), parecen representar bien en qué consiste el Giro visual. Hoy en día, en el mundo el videojuego predomina über alles el componente visual (el propio paso del concepo de juego a videojuego así lo expresa y merecería un capítulo a parte acerca de su significado y percepción por parte del jugador implicado). Los títulos más vendidos tienen como aspiración principal alcanzar algún tipo de mímesis con la realidad (como paso previo al complicado problema del paso a la virtualidad). Sin embargo, décadas atrás, cuando la tecnología aún era demasiado inhóspita para resultar atractiva desde la perspectiva de la imagen, emergieron formas de videojuegos distintas que todavía hoy perduran en silencio y que podrían representar en abstracto un posible statuo quo, antes de la fagocitación por el Giro visual del mundo del videojuego.

Un caso interesante es, por ejemplo, MUD, un juego de rol que funciona únicamente con texto, y que además tiene el honor de ser el Primer mundo virtual online de la historia. El código, creado en 1978 por Roy Trubshaw, sigue recibiendo hoy en día actualizaciones, y mantiene una comunidad de jugadores estable. Un amigo que se dedica a hacer performances artísticas relacionadas con videojuegos, Daniel Moreno, me explicó cómo se desplaza por el juego en un entorno espacial no representado por imagen ni mapa alguno. Puedes interactuar con ese espacio únicamente mental, los personajes que aparezcan en él, los objetos, etc, sólo mediante texto, y ellos interactuarán contigo de la misma manera. La ausencia de imagen es completa, más allá de la pantalla como soporte:

Un pequeño paréntesis merecerían los videojuegos que prescinden tanto de texto como de imagen, y se juegan sólo a través del sonido. Este campo es más difuso y actual. Encontramos desde las composiciones de John Zorn Lacrosse y Cobra (2000 y 2002), donde las reglas de interpretación musical están ligadas a reglas de un juego. También existe una tradición de videojuegos para ciegos, pero tras esta denominación se hace gueto de un mundo de posibilidades del que se ha prescindido. No faltan, claro, híbridos imagen-sonido, como la aplicación de iPhone diseñada por Brian Eno, Bloom, que tampoco es propiamente un videojuego. Aguas turbulentas.

Pero si nos ceñimos de nuevo a la pugna imagen-texto, hay más elementos de interés. Cualquier lector de revistas de videojuegos estará de acuerdo conmigo en lo siguiente: las Aventuras Gráficas han muerto y sólo se habla de ella como cosa del pasado. Por Aventuras gráficas se entiende un tipo de juegos que combinaban importantes elementos de texto con imagen y, sobre todo, una narración más o menos lineal. El artículo mejor posicionado en Internet sobre aventuras gráficas tiene un título significativo: “Rise and fall of a beloved gendre“. Pongamos por ejemplo a uno de los títulos más antiguos de este género: King’s Quest.

Este tipo de juegos me recuerda, de alguna forma, a la formación ecfrástica de la que habla R. de la Flor en Giro Visual, «cuyo objeto preciso fue potenciar el texto en cuanto vehículo, medium de imágenes.» El género emblemático – jeroglífico precedió al Giro Visual, antes de la apertura de la Era Moderna. Durante un momento, hubo un status quo entre imagen y texto (una simbiosis que se extendió al género de los videojuegos de Rol, por ejemplo). Durante un tiempo, en el nuevo mundo de los videojuegos, las Aventuras gráficas ocuparon un lugar dominante, y por ello ahora siempre, indefectiblemente, se habla de ellas como de algo “caído”, como acaso ha caído también el texto en nuestra cultura moderna. Los significativo, entiendo, es que el mismo proceso observado en los últimos siglos lo vemos en apenas unas décadas representado especularmente en el mundo del videojuego. Pues de la época dorada de aventuras gráficas como Monkey Island, Indiana Jones, Loom y tantas otras, pasamos a la invención de las tarjetas 3DFX y al salto cuántico hacia la hipertrofia de la imagen, y el status quo se rompe.

Un ejemplo muy claro de la evolución que han seguido casi todas las sagas de videojuegos lo encontramos en Elite: Dangerous. No hay evolución de la mecánica de juego, excepto modificaciones puntuales y la apertura general a un mundo multijugador estable (la virtualidad). La principal evolución es de naturaleza visual y toda interface textual tiende a su simplificación o integración moderna en la imagen (como ocurre en Internet):

Las implicaciones del predominio de lo visual deben ser mejor pensadas y, sobre todo, debe aparecer una educación que nos ayude a entender la naturaleza de su funcionamiento y efectos en nuestra conciencia y percepción del mundo. El humanismo escritófilo sobrevive bajo presión, y no me parece raro que existan problemas que afecten a la vida cotidiana (esos dificultosos paseos por el campo en busca otra vez de lo palpable y lo imaginable) en las personas que habitamos todavía en él. Para mí, una grata forma de integrar las posibilidades de esta situación, ha sido conocer y tratar de comprender las formas expresivas del arte contemporáneo.

manual seo editoriales

Manual SEO para editoriales: el tiempo de carga

En este nuevo capítulo de Manual SEO para editoriales, repasaremos el concepto del “Tiempo de carga” desde el punto de vista teórico (con teórico quiero decir: “Qué es lo teóricamente ideal que más agrada al buscador”) y práctico (con práctico quiero decir: “Qué se puede hacer, sin gastar dinero, para mejorar mi tiempo de carga”). Para llevar a cabo este pequeño estudio, he tomado como referencia seis editoriales cuyos libros conozco o he leído en el último año (2016). Podría haber incluido más editoriales de mi gusto, como por ejemplo Automática, Sahalín, Atalanta, Can Editions, Alpha Decay y tantas otras que, a su vez, tienen páginas web susceptibles de mejora. La elección concreta de Malpaso en este breve estudio se debe a que su página web está mejor optimizada que el resto, por lo menos en cuanto al tiempo de carga. Es una gran editorial y no es de extrañar de dispongan de empleados encargados únicamente de eso. Malpaso se tomará aquí como referente para el resto de editoriales escogidas: Candaya, Capitán Swing, Delirio, Pálido Fuego y Sexto Piso.

Hay dos motivos básicos por los cuales el tiempo de carga de una página web es fundamental. Uno tiene que ver con el posicionamiento y otro con la experiencia del usuario en la página:

  • En cuanto al posicionamiento: de los más de 200 factores -no claramente conocidos, es algo parecido a la fórmula de la Coca-Cola- que Google toma como referencia para elaborar sus rankings de posicionamiento, el tiempo de carga es uno de los más importantes. Cuando más rápido carga una web, mayores posibilidades tiene de posicionar todo su contenido indexado (página principal y sub-páginas, artículos, blog, etc).
  • Si el tiempo de carga es excesivo (por ejemplo, más de 6 segundos), la tasa de rebote aumenta exponencialmente. El rebote ocurre cuando un usuario entra en una web y sale de ella sin haber hecho nada.  Si una página tarda demasiado en cargarse, es muy alta la probabilidad de que un porcentaje importante de los usuarios (sobre todo aquellos que no buscaban directamente esa página) cierre la ventana antes de que se produzca la carga completa. Una mejora de la tasa de rebote es un signo de calidad: los usuarios entran y permanecen en el sitio.

Puede parecer inverosímil que 6 segundos de carga determinen una tasa de rebote muy alta. Pero tales son los tiempos modernos: en Internet seis segundos es lo mismo que esperar media hora al autobús en la intemperie, por hacer un símil bronco. Pero esto es un manual y no un tratado crítico. Nuestro objetivo será mejorar lo que tenemos según las “reglas” (muy criticables) establecidas por el buscador dominante: Google.

Antes de pasar al análisis detallado de las webs (fallos y mejoras posibles y gratuitas que se puedan hacer): ¿Cómo conozco mi tasa de rebote? y ¿Cómo puedo conocer la velocidad de carga de mi web?

  • Tasa de rebote: Para conocer la tasa de rebote de tu web debes tener asociada una cuenta de Google Analytics. En Analytics se indica en la propia front page cuál es la tasa de rebote de tu web y su evolución en el tiempo (uno no debe asustarse si la tasa de rebote ronda, por ejemplo, el 70%: es normal e, incluso, un buen dato. Aunque desde el punto de vista humano es una prueba de la absurda velocidad y falta de atención que ha adquirido nuestro tiempo).
  • Velocidad de carga: puedes testear la velocidad de carga de tu sitio web tantas veces como quieras en Webpagetest, donde además se ofrece un desglose completo “en cascada” de las operaciones de carga, lo cual permite identificar qué es lo que está ralentizando (o no) a nuestra página web.

Tiempos de carga de seis editoriales en 2017

A continuación, desglosados en la tabla, los resultados del Webpagetest de las seis editoriales seleccionadas. Debajo repaso el significado de las principales variables para, a continuación, enumerar soluciones concretas que mejorarán de forma notable los valores señalados en rojo (algunas muy técnicas, otras muy sencillas). Las puntuaciones mostradas de F (rojo) a A (verde) no son síntoma de la calidad del contenido de cada web. Tan sólo indican si, en lo referido al tiempo de carga, hay o no optimización.

MALPASO

malpaso-page-load-test-1

CAPITÁN SWING

capitan-swing-page-load-test-1

CANDAYA

candaya-page-load-test-1

SEXTO PISO

sexto-piso-page-load-test

DELIRIO

delirio-page-load-test-1

PÁLIDO FUEGO

palido-fuego-page-load-test-1

Tiempo de carga: el significado técnico de las variables

Empecemos por una explicación general de las variables que se puntúan de F (no optimizado) a A (optimizado):

  • First Byte Time: Esta variable no depende tanto de nuestra web, sino de nuestro hosting (el lugar donde está alojada). El First Byte Time mide cuánto tiempo tardan una red y servidor web a enviar el primer byte de una página web al navegador cuando se realiza la solicitud de carga (Chrome, Firefox, etc). Esta es una de las variables más técnicas y existen dos formas para mejorar su rendimiento: contratar un servidor mejor (hay servicios de hosting en torno a los 70 euros al año que hacen especial hincapié en este factor. Si tenemos la web montada sobre el de servidor WordPress, por ejemplo, puede convenir dar ese pequeño salto). Por otro lado, el First Byte Time mejora sustancialmente si se asocia a la web una CDN (ver abajo, última variable).
  • Keep Alive Enabled: Cuando alguien entra en nuestra web envía una petición a nuestro hosting, de manera que se establece un enlace entre web y usuario. Si se entra en una página web cualquiera, se envía una petición de carga para dicha web. Mantener habilitado el Keep Alive permite que el usuario no tenga que realizar peticiones al hosting cada vez que quiera moverse por una web, puesto que su petición inicial sigue vigente. En el gráfico presentado, las webs de editoriales que no lo tengan habilitado (por lo general, hoy en día, está habilitado por defecto) deben contactar con su hosting (esta web no lo tiene activado todavía, por cierto -mis disculpas, es nueva).
  • Compress Transfer: Aquí se mide cuánto tarda en cargar todo aquello que no sean imágenes o vídeos  en una web (texto, html, css, etc). Las acciones que veremos más abajo pueden mejorar sustancialmente este valor.
  • Compress Image: Aquí se mide si las imágenes que estamos utilizando son las idóneas para la navegación web. Un resultado “A” significa que estamos ofreciendo imágenes comprimidas y, por lo tanto, de acceso mucho más rápido. Un resultado en rojo implica que estamos utilizando imágenes demasiado grandes y pesadas, y esto está repercutiendo directamente en el tiempo de carga. Este valor también se puede mejorar de forma sencilla, como veremos.
  • Cache Static Content: El Static Content lo conforman partes de la web que no cambian habitualmente (javascript, css, imágenes…). Si tenemos un mal valor aquí, cada vez que entra un usuario en nuestra web, debe cargar todo el contenido desde 0. Si tenemos un buen valor, la segunda vez que un usuario entre en nuestra web, parte de la misma ya estará cargada en su propio navegador (de modo que se puede reducir su tiempo de carga hasta un 80%). Este es un valor también mejorable de forma sencilla si usamos una base WordPress.
  • Effective use of CDN: Ni una sola de las páginas analizadas utiliza el servicio de una CDN. En términos muy generales, una CDN es un servidor ultrarrápido que aumenta drásticamente la velocidad de carga de un sitio (en lugar de procesar ciertos comandos tu propio servidor, los procesa la CDN, un servidor externo situado en otro páis, cuya potencia es superior). Incluir una CDN en tu sitio web no es fundamental, pero es un elemento clave que automáticamente mejora el resto de valores aquí mencionados (por ejemplo, puede ofrecer una solución al First Byte Time). El problema, las CDN no son gratuitas y su configuración algo ardua. Basta aquí con señalar un servicio bueno, bonito y barato de CDN para quien le interese (9 euros al mes): CDN Max.  (y aquí una pequeña explicación).

Por otro lado, junto a las variables significadas con los iconos A – B – C – D – F. Se aporta un conjunto de datos específico (First view run). Aquí deberíamos fijarnos en todos los valores (aparece por ejemplo el valor concreto de First Byte Time, ya mencionado), pero sobre todo en los siguientes:

  • Time (fully loaded): cuánto tiempo tarda en hacer una carga completa. El valor ideal sería entre 1 y 2 segundos (o menos). Un valor estándar, más bien malo: 3 – 4 segundos. Un valor malo 5 segundos o más.
  • Request (fully loaded): Aquí se indica el número de peticiones que se hacen al servidor. Si nuestra página web tiene muchos elementos (imágenes, botones de facebook, sliders, etc), el número de request es superior. Reducir el contenido de una página reduce este factor. No se puede establecer un punto de referencia acerca de lo que sería “lo ideal”, pues puede haber páginas con decenas de request de muy poco peso mucho más rápidas, por ejemplo, que una página con 15 request de mucho peso.
  • Bytes in (fully loaded): Básicamente, aquí se mide el peso total de la página: cuánto debe descargarse de Internet para tenerla del todo cargada. Aquí, está claro, si reducimos el tamaño de nuestras imágenes (o comprimimos), y si aligeramos el peso en términos de Kb suprimiendo o comprimiendo su contenido, este valor descenderá. Lógicamente, el peso ideal de una página sería 1 kb, pero eso significaría tener una página prácticamente sin contenido. Hay que lograr un equilibrio entre la cantidad de cosas que queremos mostrar, y el peso específico de cada una de ellas (el ejemplo de las imágenes es el mejor: si subimos a nuestra página una imagen de alta resolución, 1920 x 1080 por ejemplo, pesará mucho más que una imagen a menor resolución y no se notará diferencia alguna en el navegador. Por lo tanto, siempre imágenes pequeñas, siempre imágenes JPG -nunca otro formato-, como veremos a continuación).

Estas tres variables están relacionadas. Una página que pese menos de 1 MB y tenga un tiempo de carga superior a 4 segundos presenta un problema tan grave como una página que pese 2 MB y tarde 8 segundos. La reducción de una de las variables implica la reducción de las otras dos (y otras).

Mejorar nuestro tiempo de carga sin morir en el intento

Después de estas premisas y explicaciones introductorias (cada elemento de naturaleza técnica puede observarse con mayor profundidad, pero no es el objeto de este tutorial), voy a repasar aquí algunas acciones que se pueden llevar a cabo sin gastar dinero y que mejorarían los resultados de, según entiendo, todas las páginas aquí examinadas (excepto Malpaso, que sólo mejoraría con una CDN).

Felizmente, la mayor parte de las webs de editoriales que he frecuentado están construidas sobre WordPress, en su propio hosting o en hostings exteriores. Aquí enumero de entrada algunos plugins fundamentales (y gratuitos) que mejorarán los datos generales. Tan sólo hay que instalarlos y configurarlos (en cada caso, pongo un enlace a una guía “paso a paso”).

  • W3 Total Cache: Plugin gratuito e imprescindible para mejorar todos los factores de carga. El plugin opera en muchos aspectos la velocidad de carga si se configura bien, y se puede comprobar rápidamente pasando un Page Load Test antes y después de su inclusión y configuración. Uno de los valores que seguramente mejorará de forma radical es el “Caché Static Content”. Por otro lado, si en algún momento decidimos instalar una CDN, con este plugin gratuito podemos implementarla y optimizarla. De momento, aquí una guía para configurarlo.
    Para aquellos que puedan pagarlo, por 39$ WP Rocket es uno de los mejores servicios de pago (en la red hay guías de configuración, pero prefiero ceñirme y profundizar en lo gratuito)
  • EWWW Image Optimizer: Este plugin, también gratuito, optimiza, comprime y mejora de forma automática todas las imágenes que hay en tu web. Aquí una guía para configurarlo. Quiero señalar, en lo referente a las imágenes, que además de implementar el plugin, resulta necesario revisar manualmente si tenemos imágenes demasiado grandes. Una vez identificadas esas imágenes demasiado grandes, conviene cambiarlas por otras más pequeñas (sin problemas de calidad se puede pasar de resoluciones superiores a 1024 x — , a resoluciones inferiores a 750 x —, o mucho más pequeñas, además del propio factor de compresión). También conviene cambiar manualmente todas las imágenes que tengamos en formato PNG por formato JPG. Siempre, en todos los casos, utilizar imágenes JPG.
  • WP Optimizer: Este plugin limpia de basura y elementos sobrantes nuestra base de datos.
  • Lazy Load images: En WordPress hay diversas variantes de este plugin (recomiendo descargar la que tenga mejores puntuaciones / y más descargas). Con él instalado, las imágenes de una web sólo se cargarán si el usuario las muestra en pantalla. Esto es: nada más abrir la web, se cargará lo que se ve, dejando en suspenso todas las imágenes que no vemos en pantalla. Si hacemos scroll hacia abajo, las imágenes se cargarán y aparecerán. Esto permite acelerar radicalmente el tiempo de carga, puesto que en el pedido al servidor se efectuarán menos peticiones de arranque. (esta función está incluida en el plugin de pago WP Rocket).
  • P3 Plugin performance profiler: Este es un plugin extra que nos permite saber qué elementos internos (plugins, sobre todo), están ralentizando de alguna manera nuestra web.

Añadir y configurar estos cinco plugins, así como asegurarse de que nuestras imágenes tienen el tamaño y formato adecuado, repercutirá directamente en todos los datos que se muestran en la tabla inicial.

Caso concreto: análisis en del rendimiento

Aquí quiero analizar con algo más de detalle la “cascada” de datos que ofrece la herramienta Webpagetest para alguno de los seis ejemplos tomados en consideración. Sería demasiado arduo analizar con profundidad total; tan sólo quiero ilustrar con ejemplos cambios rápidos que se pueden hacer.  Me abstengo de fijarme en Malpaso y selecciono azarosamente dos casos: Sexto Piso y Capitán Swing. Nótese también que este comentario es puramente técnico y en ninguna medida juzga la apariencia estética, composición y disposición de la página: son cosas que el usuario común no nota directamente.

  • Sexto Piso: En primer lugar, llama la atención un problema anterior al asunto del “tiempo de carga”, pero relacionado con él. Si uno teclea en Google España “Sexto Piso”, aparece en primera posición sextopiso.mx. He visto que existe el dominio sextopiso.es. Que aparezca en Google España el .mx y no el .es implica un error de posicionamiento a corregir cuanto antes. (haría falta un artículo entero, pero básicamente, se le está diciendo al buscador de forma equívoca que las búsquedas en España conduzcan a la versión Mexicana de la web). El hecho de que el usuario español se direccione al dominio .mx implica, por un elemento puramente geográfico, que todos los valores del tiempo de carga de esta web sean más lentos. Ubicar sextopisto.es en un servidor situado en España, así como posicionar para Google España el .es, implicaría una mejora notable, añadida a la mejora que supondrían los plugins comentados arriba. La ventaja principal: bajaría la tasa de rebote y muchos usuarios que (100% seguro) entran en el sitio y salen sin mirarlo, se quedarían en él (esto es estadístico, no una verdad absoluta).
    • La cascada de datos: Aquí vemos todos los elementos que carga la página y cuánto tarda para cada uno de ellos. sexto piso tiempo de carga

En este extracto (sacado de los resultados de Webpagetest) vemos cómo hay algunos elementos que están lastrando la carga de la página principal. Se trata de algunas imágenes en       formato PNG que no están correctamente comprimidas. Identificarlas y cambiarlas por imágenes JPG más comprimidas (además de incluir los plugins arriba comentados), eliminaría estos factores de lastre. Por otro lado (no se ve en la imagen) tenemos un First Byte Time de 2 segundos que, entiendo, se debe a la localización mexicana del servidor.

  • Capitán Swing: La página web de Capitán Swing, de acuerdo con los datos que arroja el Webpagetest, requiere de pocas mejoras para optimizar el apartado de carga. Vemos deficiencia sobre todo en el First Byte Time, problema por lo general asociado con el hosting (quizá estaría bien considerar la posibilidad de pasar a un Hosting con mejores prestaciones. No se trata tanto de una cuestión de precio sino de calidad y ubicación). La inclusión y configuración de los plugins debería mejorar este valor al precargar en la caché parte del contenido estático de la web.
    • La cascada de datos: La impresión general es positiva: la página es ligera con excepción de algunas imágenes, que podrían cambiarse por versiones menos pesadas.capitan-swing-tiempo-de-carga-1

Para estas dos páginas web vemos cómo los elementos señalados en rojo (F) tienen una razón de ser y pueden mejorarse sin 1) invertir dinero 2) ejecutar cambios estructurales.

Conclusiones

Mientras redactaba este artículo, mi amada mujer me decía: “Pero una editorial no es lo mismo que otras páginas webs”. ¿Para qué mejorar el tiempo de carga y optimizar la web de una editorial si, normalmente, su funcionamiento depende mucho más del factor social, de lo que diga la prensa, el boca a boca, que del propio buscador?

En los tres años que trabajé en la Feria del Libro de Madrid, uno de los objetivos básicos que compartían editoriales independientes era el darse a conocer, llegar a más público y, en ese caso, hacerlo en contacto directo con los editores. El objetivo de la optimización de una página web es parecido. Si se mejora el tiempo de carga, mejora el posicionamiento general de todo el contenido. De esta manera, cuando un usuario X busque en Internet, por ejemplo, “Jacques Abeille” aparecerá más arriba en resultados la página de Sexto Piso asociada al autor (ahora mismo se encuentra en posición 8. Las tres primeras posiciones, el así llamado triángulo de oro, son la primera opción para el 99% del tráfico del buscador y sólo una de las tres posiciones remite al libro de Sexto Piso explícitamente ahora mismo). En el caso de Capitán Swing, alguien podría buscar por lo que fuere “Owen Jones” y encontrará en sexta posición la página de la editorial. En segunda posición aparece una reseña de The Guardian, lo cual podría indicar que el contenido en español para esta palabra clave no está competido. Una posición mejor garantiza una mayor afluencia de público quizá interesado en un autor / obra, pero que no conoce el sello editorial que lo edita.

El problema es que en muchos casos de búsqueda (cualquier autor, cualquier libro que se nos ocurra) las grandes empresas ya se han ocupado de situarse mejor que las propias editoriales (Una prueba fácil: ¿Cuántas veces sale por encima de la web de la editorial el link a la Casa del Libro? ¿Cuántas veces Fnac, La Central u otras grandes corporaciones dominan las posiciones más altas? Hay que considerar que la página de destino de la editorial, además de ser punto de origen del producto (el libro), muchas veces ofrece tienda online (por lo que conviene un mejor posicionamiento) y, además, casi siempre se ofrece mejor contenido que las fichas de las librerías (enlaces de prensa, pdf para empezar a leer, etc…). En el caso concreto de las librerías, observo este problema con mayor gravedad: ¿Por qué en Google sólo La Casa del Libro y no tantas librerías pequeñas que malamente subsisten en el contexto actual? Quiero decir: aceptando las patéticas reglas de posicionamiento que alguien inventó hace años en un acceso de imbecilidad,  ¿por qué no enseñarlas y difundirlas también para quien no tiene los medios ni el tiempo para entrar en un terreno tan combativo y sangrante? Aquí, con muy poco se puede conseguir mucho.

Una mejora en el tiempo de carga es uno entre los muchos aspectos que pretendo ir desgranando en esta serie de artículos. El objetivo es ofrecer herramientas básicas para empezar a competir, por lo menos en lo básico, frente a empresas que cuentan con servicios avanzados de SEO y optimización (muchas veces sumados a una fuerte inversión económica – publicitaria para atraer tráfico “cualificado” de pago).

En el siguiente artículo explicaré detalladamente cómo efectuar un buen SEO Onpage y cómo conseguir un mejor posicionamiento del mismo con algunos ejemplos concretos, como el caso de las palabras clave “Jacque Abeille” y “Owen Jones”, entre otras.

Manual SEO para editoriales: todos los artículos

  • Palabras clave y posicionamiento de una URL (próximamente)
  • Cómo funciona Google: principios fundamentales

Métricas de internet: María Frisa y los efectos virales

En ocasiones, determinadas campañas de Change.org se viralizan envueltas en la polémica. Hoy quisiera aportar algunos datos de interés acerca de un caso concreto. El drama se gestó de la siguiente manera: Un famoso y pintoresco Youtuber, Haplo Schaffer, decidió denunciar en Change.org un libro para niños de la autora María Frisa, publicado por Alfaguara. Consideraba que 75 consejos para sobrevivir en el colegio estaba “plagado de insultos tóxicos de todo tipo para niñas de 6 a 12 años, que destacan por su machismo, incitación a la desobediencia, incitación al bullying”. Aportaba algunos ejemplos de frases que probaban presuntamente tal toxicidad, y también capturas de pantalla. La petición alcanzó las treinta mil firmas en pocos días, momento en que algunos periodistas afines al mundo editorial denunciaron a Haplo Schaffer por considerar que la información que aportaba en la petición era sesgada y parcial, y que la acusación perdía todo sentido si uno leía el libro, y que en todo caso el tema había excedido los límites de la normalidad para convertirse en un linchamiento.

El pequeño drama, uno de los tantos que ocurren cada día en la era reciente de Internet, adquirió de pronto una dimensión metafísica. Los que firmaban la petición, ¿habían leído el libro o bien se basaban únicamente en aquellos extractos sueltos para juzgarlo y sentenciarlo? Otros, se preguntaban en las redes: ¿Se puede emitir un juicio válido acerca de lo que no se conoce o tan sólo se conoce de manera manifiestamente parcial? ¿Cuántos firmantes habían firmado el manifiesto con conocimiento de causa y cuántos tomaron por válida la fuente sin contrastar la información? En última instancia: ¿la mayoría tiene la razón?

Aquí pretendo ofrecer datos numéricos que cada uno deberá interpretar tal y como crea conveniente. En mi opinión, son datos elocuentes que prueban –y si no lo hacen, por lo menos conjeturan-, como poco, la existencia de una anomalía. Para extraer las cifras que expondré he utilizado herramientas parcialmente gratuitas de Google, habitualmente utilizadas por especialistas en SEO. Estas herramientas nos ofrecen datos precisos de las fluctuaciones de las modas y los intereses de una sociedad, por lo menos en Internet. La primera, Google Adwords, es una compleja herramienta que habitualmente se utiliza para contratar publicidad. Los anuncios que aparecen en todo resultado de búsqueda se contratan en Adwords. Puesto que se trata de una tarea que requiere de mucha precisión, Adwords incorpora un sistema de planificación de palabras clave que nos dice cuánto se busca cada palabra clave en cada momento, cada idioma y cada país, y qué competencia tiene la puja por click publicitario (este servicio, actual y tristemente, es de pago). Puesto que en España casi todas las búsquedas se sirven de Google, podemos considerar estos datos representativos del conjunto de la sociedad que utiliza Internet, que a su vez corresponde al 90% de la población del país a fecha de 2016.

Según Google Adwords, la palabra clave “María Frisa” con tilde se buscaba hasta la fecha un promedio de 30 veces al mes en Google. Una vez al día. “Maria Frisa”, sin tilde, se buscaba 170 veces. Por otro lado, la palabra clave “75 consejos para sobrevivir en el colegio” se buscaba unas 260 veces de promedio. Los datos en Adwords no se actualizan en tiempo real, de modo que esta captura muestra la situación antes de la viralización.

frisa-adwords-2

Esos datos arrojan un promedio de búsquedas total al día en extremo reducido, por no decir insignificante, en el contexto de la totalidad de búsquedas. Sólo en España, la palabra clave “Pokemon” se busca 246.000 veces al mes (fecha: junio 2016), y los datos no incorporan todavía el enorme repunte que ha supuesto “Pokemon Go”, cuya palabra clave ha contabilizado varios millones de búsquedas este mes. Si seguimos tirando un poco del hilo y comprobamos en Adwords las palabras “libros infantiles”, “libros para niños”, y “mejores libros infantiles”, comprobaremos que se buscan, al mes, 3.600 / 1.300 y 210 veces. De un total del 90% de la población de España con acceso a Internet, sólo a 3.600 personas como promedio (y suponiendo que nadie repita) se les ocurre buscar “libros infantiles” en Google. Una búsqueda más específica como “comprar libro infantil” no tiene resultados relevantes: en la práctica, no se produce nunca.

13728475_10208149334583696_1508343168_o

En términos SEO, la palabra clave “Maria Frisas” es considerada un micronicho. Por supuesto, merece la pena señalar con ironía y desconsuelo la diferencia de búsquedas entre “María” con tilde y “Maria” sin tilde, siendo esta segunda y cómoda opción la preferida por los navegantes.

Otra herramienta de consulta interesante para detectar tendencias de moda, palabras clave cuyas búsquedas crecen como la espuma, es Google Trends (de momento, totalmente gratuita). Para las mismas palabras clave ofrece resultados sorprendentes:

13884603_10208149334623697_1522536805_n

Lo que vemos en el gráfico es el “interés” que ha suscitado Maria Frisa en Internet en los últimos años, con un rango de cero a cien, donde cero es la parte inferior y significa eso mismo, cero, y cien la parte superior. Los datos, según Google Trends para el mes de julio, indicaban un cambio de tendencia radical que apuntaba a un hecho viral. El interés por “María Frisa” con y sin tilde había sido bajo y de tendencia menguante hasta el mes de julio, donde de pronto se colocó en el punto máximo de la escala de Google Trends. Hay que fijarse, también, en el gráfico en el rango 2005-2009. Una teoría no examinada todavía con total profundidad sugiere que cualquier análisis de palabras claves correspondientes a escritores o libros, inicia un declive en ese período del que sólo repunta por razón de la novedad, o en todo caso de los movimientos del mercado y efectos virales como el que estamos observando. El interés por los libros, disminuye, señores.

Por otro lado, el libro en cuestión, 75 consejos para sobrevivir en el colegio, fue una palabra clave también mucho más buscada después del fenómeno de viralización:

frisa-trends-2

El dato merece una breve especulación. Según se observa tanto en Google Trends como en Adwords, hay una diferencia extrema entre cuánto se buscaban estas palabras clave antes y después de la viralización. ¿Se puede extrapolar de forma indirecta que los treinta mil firmantes que en pocas horas aprobaron la petición de Change.org no sabían mucho efectivamente de la autora y del libro hasta ese momento? Por otro lado, que se haya buscado mucho también la palabra clave correspondiente al título del libro, ¿indica que ha habido un interés por acudir al texto original?

Lo que parece obvio es que todo cambio brusco en la tendencia no suele estabilizarse. Si buscamos cualquier otro fenómeno viral que nuestra memoria recuerde e indagamos en sus correspondientes palabras clave observaremos que todo cambio brusco tiene su posterior efecto de rebote. Un ejemplo clásico es el de “León come gamba”:

frisa-comegamba

Se puede enunciar así: en la mecánica del linchamiento o la ridiculización, la repentina fama adquirida volverá a su punto inicial, sin grandes cambios sustanciales, por lo menos en el gráfico y en los términos deshumanizados de los tráficos y los números en Internet. Pero detrás de las palabras clave y los números se suelen esconder seres vivos que no pueden ser cuantificados sólo en esos términos. Del gráfico puede inferirse que, a efectos prácticos, la viralización de un linchamiento es, para quien la sufre, como una tormenta en el desierto. Encontrarse en el punto de mira implica recibir de pronto una gran cantidad de juicios negativos e incluso difamadores. No hay que perder de vista las consecuencias psicológicas de un fenómeno de esta naturaleza.

Por otro lado, merece la pena señalar que Haplo Schaffer, creador de la petición de Change.org, encarna a una de esas figuras que viven adaptadas al medio y a su lógica intrínseca. Este es su gráfico de Google Trends:

frisa-schaffler

Este gráfico muestra lo dura que puede llegar a ser la vida para los Youtubers. Es necesario considerar que, en su caso particular, las posiciones del gráfico son traducibles a dinero efectivo. La inconstancia de la línea y los sucesivos movimientos bruscos muestran los éxitos y fracasos de este Youtuber. Observamos, no sin ironía, que desde mediados de 2014 no lograba generar con su producción ningún incremento sustancial en su fama. Pero, oh, tras la publicación de Change.org promovida por él, la parte correspondiente al mes de julio presentaba un claro repunte de su fama. Veremos lo que ha pasado en los meses siguientes a continuación.

Datos actualizados: noviembre de 2016

Por no perder el hilo, empalmo con lo último que estaba comentando. Además, ya se había creado cierta atmósfera de misterio. En noviembre y ya con perspectiva del asunto (un fenómeno viral no dura más de dos o tres días) observamos que Haplo Schaffer alcanzó un hito en su carrera de Youtuber gracias a la polémica que él mismo había generado.

haplo-schaffer-interes-tiempo

En el caso de un Youtuber, un evento así es un impulso. A pesar del efecto rebote, la base parece haberse incrementado. Observamos de hecho una fase ascendente en la actualidad, noviembre de 2016. El primer capítulo de la tercera temporada de Black Mirror no revela nada que no exista ya. Una persona cuya profesión no tenga que ver estrictamente con el medio, como es el caso de la escritora María Frisa, presenta un cuadro distinto:

maria-frisa-noviembre-2016

El efecto viral fue momentáneo y, al poco tiempo, se regresó a los niveles habituales del gráfico antes del evento viral. Los usuarios que, en la red, adquieren beneficios a raíz de la capitalización de su flujo social, no actuán de la misma manera que los individuos cuyos ingresos no dependen de su actuación en Internet. Yo, personalmente, y puesto que esto no pretende ser un artículo académico y puede permitirse excursos sin fundamento, iría con cuidado con los primeros. Casi parecen la consagración última del capital. Habiéndolo integrado en sí mismos y en su conducta, ya no son ellos mismos, sino el capital mismo que actúa a través de ellos. La relación no es de servidumbre, como la de un consumidor, sino de poder. El libro de María Frisas era para Haplo Schaffer, en alguna medida, una posibilidad de inversión. En el enunciado “nadie puede ser acusado hasta que hayan sido examinadas todas las pruebas en un juicio justo”, puede eliminar de sí mismo, en el contexto de la inversión en Internet, los conceptos de “juicio justo”, “todas las pruebas” y “nadie puede ser acusado”. Podría decirse, de hecho, que ya no es un enunciado, pues ha pasado a ser una onomatopeya: la manifestación de un instinto. El nervio Inquisidor que vibra.

En cualquier caso, los datos de Adwords (en la actualidad parciales por ser una herramienta de pago) indican que la palabra clave “Maria Frisa” sin tilde recibe por lo menos más de mil búsquedas al mes, y la palabra “María Frisa” con tilde, entre cien y quinientas. Los datos son mejores que antes del evento viral, pero de acuerdo con los hechos, no compensan en absoluto y siguen siendo bajos en el contexto del interés general. Obsérvese, por ejemplo (y con esto cierro este artículo), el interés general que despiertan dos KW muy delimitadas: “Librerías” y “Librerias” (esto merece un análisis más profundo en otro artículo: pronto).

librerias-trends

No parece muy esperanzador: “libreria” sin tilde, en azul. En rojo, “librería con tilde”. En amarillo, “libro infantil”, también arroja un interés neto que es inferior a lo que uno podría suponer.