Suelen acompañarme los libros de Ashbery. He’d get mad, they’d banish us. We’d swim in steep delirium. Todavía me pregunto de dónde surge su fuerza.

Quisiera en este artículo esbozar algunos elementos técnicos de arquitectura web orientada a los motores de búsqueda. Específicamente orientados a webs de escritores que quieran difundir su contenido al tráfico orgánico masivo sin, por ello, verse obligados a ceñirse a las reglas de escritura de Google. Como es sabido, un espacio web que siga las directrices de Google no puede ser, por definición un espacio creativo: deberíamos crear los textos de una forma concreta, y con un estilo concreto, y nuestro trabajo se vería restringido en el momento en que quisiéramos abrirnos al gran público del tráfico orgánico.

Así pues: ¿Cómo puede un escritor acceder a los flujos de tráfico orgánico sin venderse a las reglas del clickbait? Pues ahora mismo la situación es la siguiente: los principales artistas en la red son especialistas en la creación de contenidos adulterados por la finalidad última del posicionamiento. La pregunta es clara: ¿es posible conservar la pureza y autonomía del propio estilo y, al mismo tiempo, entrar dignamente en la lucha por la audiencia de Google?

Lo es. Veamos cómo, desde un punto de vista técnico.

Estructuras nido segregadas

Los nombres resuenan estrambóticos en el oído. Desde la silla rotatoria y con las manos en el teclado uno se pregunta: ¿cuántas veces ya has pulsado Enter?

Este tutorial está orientado a sitios que soporten WordPress, o en aquellos que permitan  modificar la arquitectura de Urls. Sigo WordPress por ser el medio más masivo y utilizado (esta página está montada sobre WordPress y es un ejemplo vivo y funcional de lo que quiero explicar en este artículo). Las estructuras nido agrupan pedazos de la web en diferentes subcarpetas. De tal manera que uno puede indicarle a Google qué secciones indexar (cuáles compiten) y qué secciones no indexar (cuáles no compiten). Por ejemplo, en la web de un escritor:

  • https://nombreescritor.com/ficcion/
  • https://nombreescritor.com/libros/

Cada artículo se anida en su categoría. Un texto de ficción, se anida en su categoría de tal forma que quedaría: https://nombreescritor.com/ficcion/titulo-texto. Veamos de forma práctica cómo crear este tipo de estructuras en WordPress. Lo primero que hacemos es entrar en nuestro WordPress y acceder a “entradas –> categorías”. En categorías creamos las categorías que conformarán nuestra estructura segregada, con el slug de palabra única, a ser posible: “ficcion”, “libros”. En cada categoría, marcaremos la opción “no-index” (esta opción aparece si utilizamos el plugin Yoast SEO: obligatorio).

A continuación, accedemos a “Páginas” y creamos una página para cada categoría creada: “https://nombredeescritor.com/ficcion/”  y “https://nombredeescritor.com/libros/”.

Por último, accedemos a “Ajustes” –> “Enlaces Permanentes”. Allí seleccionaremos “Estructura personalizada” y escribiremos en el recuadro en blanco “/%category%/%postname%/”

estructura seo escritores

Atención: si aplicas esta maniobra a un sitio antiguo con mucho contenido, vas a cambiar radicalmente su estructura. Se recomienda realizar esta conceptualización en proyectos no empezados (si son empezados, se requiere de un conocimiento que excede el objeto de este tutorial fundador). Cuando hayamos realizado este cambio, ocurrirá que tendremos dos tipos de artículos: unos serán de ficción, freestyle, sin reglas, e irán anidados en https://nombredescritor.com/ficcion/nombre-artículo. El otro tipo de artículos será, en cambio, 100% SEO (Search Engine Optimization, esas siglas ya se han naturalizado y en la jerga quieren decir: “artículos optimizados  para los motores de búsqueda”), y se anidarán en https://nombredeescritor.com/libros/.

A continuación, veremos cómo indicarle a Google que nuestra web tiene dos tipos de artículos: unos que queremos que indexe y que compitan en las SERPs, y otros que son sagrados, porque son nuestras creaciones, y no queremos que compitan, o nos da igual.

Un diálogo con Google y otros motores de búsqueda

Para cada página web, Google ofrece una serie de servicios gratuitos cuyo objetivo es ayudarnos a comprender cómo quiere él que seamos. Una vez tengamos nuestro dominio activo, debemos añadir la propiedad a Google Search Console (se utiliza la cuenta de gmail, el proceso es sencillo). Cuando Google valida nuestra propiedad, quedamos enlazados, hay un canal de comunicación. En Search Console encontraremos todo lo que necesitamos saber sobre el comportamiento de los robots araña en nuestro sitio.

Una de las principales herramientas a configurar es el archivo robots.txt. Este archivo, un documento de texto subido a la raiz de nuestra web, es leído por los robots de Google cuando éstos llegan al sitio. En Robots.txt, los robots encuentran instrucciones detalladas sobre lo que “debe ser leído” o lo que “no debe ser leído”. Cuando creamos una estructura nido ya creamos una bifurcación que los robots sabrán leer adecuadamente, pero podemos indicar en el documento de robots, por ejemplo, “Disallow: /ficcion/”, si no queremos que ese contenido se indexe en Google.

Yandex y Bing también poseen sus propias herramientas de administración, aunque suelen ser útiles sobre todo en mercados extranjeros.

Qué hacer una vez tenemos una arquitectura segregada

A partir de aquí, el planteamiento es abierto, uno puede escindirse en mercader salvaje y filósofo elocuente y no habría problema para Google. La estructura de tipo nido, según algunos especialistas en SEO, es una alternativa muy eficaz a los subdominios para segregar tráfico, con lo que, una vez fragmentamos la web, tenemos mucho margen para tratar en cada pedazo de ella.

Si bien es cierto que es preferible para la comprensión de los robots una web semánticamente unitaria, he comprobado en este mismo sitio que es posible posicionar contenidos bastante dispersos sin causar confusión. Por otro lado, es posible un gran volumen de textos creativos de tal manera que no se perjudique una posible estrategia de posicionamiento. En el ejemplo de seguiremos imaginaremos que el escritor en cuestión, decide dedicar la parte segregada en /libros/ a promocionar su obra. Eso es lo que quiere: en /ficcion/ publicar sin restricciones, ni de estilo, ni visuales, ni técnicas, y en /libros/ crear un fragmento de web absolutamente optimizado para los robots, nuestros nuevos amigos, con el que obtener tráfico / lectores.

¿Por qué vas a permitir que Amazon y otros gigantes online vendan tus libros cuando, por lo general, nadie te paga por ello? Véndelos tú mismo. O bien, ¿por qué no ajustar algunos artículos decentes a las prerrogativas SEO para obtener tráfico y lectores potenciales en un contexto en que esta es la norma y claudicamos ante ella? Doma al buscador al que odias, sobre todo para saber cómo odiarlo mejor. En este punto, lo que vamos a hacer es lo que se conoce como un Estudio de Palabras Clave. Para ello podemos usar los múltiples planificadores de palabras clave que hay en Internet (gratuitos y de pago). Si alguna vez hemos gastado dinero en Adwords podremos usar el Planificador de Google. De lo contrario, hay alternativas como Keyword Tool.

Con estas herramientas podremos saber: 1) cuánta gente nos busca (si nos busca alguien) 2) cuánto se busca una palabra clave dada y cuál es aproximadamente su dificultad.

Para saber la dificultad de posicionamiento de una palabra clave suelen utilizarse herramientas de pago, pero si ponemos en la barra del buscador de Google “allintitle:palabra clave XX”, veremos cuántas urls hay indexadas por tal palabra clave. La gracia de la búsqueda de palabras clave: dar con palabras que se están buscando mucho y sobre las que nadie ha escrito o en las que hay competencia baja. Si fuésemos un escritor de relato breve, podríamos crear unos cuantos artículos en una segregación específica, del estilo: “/relatos/mejores-libros/” (4000 búsquedas mensuales, dificultad 5 sobre 100), “/relatos/como-escribir-relato-consejos/”  (2000-200 / 0) y, por ejemplo, “/relatos/elementos-relato” (5200 búsquedas mensuales, dificultad 0). Un tráfico potencial para tres url optimizadas de 12 mil usuarios mensuales. En cada url adoptaríamos una postura distinta: aquí las posibilidades son infinitas y el objeto no tiene por qué ser simplemente ganar notoriedad. También se pueden crear estructuras para ganar dinero, o mucho más experimentales, estructuras de activismo: plataformas que ataquen a nichos concretos con un posicionamiento de marca, para boicotearlo. O bien crear un entramado de artículos decentes que, por algún motivo, coinciden con palabras clave masivas, con el objeto de que los lectores obtenidos por el tráfico orgánico te conozcan y se transfieran poco a poco a tus artículos de ficción.

Por último, hay que señalar que en /libros/ y /ficcion/ habíamos creado dos páginas. No tendrán contenido vacío. En la estructura /libros/, todos los artículos anidados (ej /libro/nombre-artículo) se enlazarán internamente a través del texto con su página de aterrizaje y entre sí cuando haya afinidad semántica. El enlazado interno en la web es la herramienta más poderosa de transferencia de fuerza. Si los artículos anidados en /libros/ tienen una página de aterrizaje donde se resume el tema y tocan más o menos todas las palabras clave de la estructura anidada (con una palabra clave principal: libros en este caso, o subvariantes), fácilmente Google comprenderá que tanto /libros/ como /ficcion/ son distribuidores de tráfico hacia los artículos, en el contexto de la estructura anidada.

Resultados de una arquitectura abierta

Con los años, uno adquiere habilidad para manejarse con estructuras titánicas. En la actualidad, trabajo en un equipo de SEO técnico de una agencia en la que manejamos webs con estructuras de varios millones de urls que hay que afinar, ordenar y acondicionar para una suave y feliz conexión con el buscador. Esta web -mi web personal-, espacio pequeño, ha sido un escenario para experimentos que, lógicamente, no probaría nunca en clientes que podrían perder sus volúmenes de tráfico. Cualquier estrategia experimental es susceptible de éxito, pero también de penalización si se exceden ciertas normas implícitas de naturalidad (normas que, además, cambian con el tiempo).

En todo caso, en el tiempo libre he creado aquí precisamente lo que explico en este articulo, una arquitectura abierta, con secciones flotantes (algunas visibles, como esta, otras en gran medida ocultas a la experiencia de usuario on page, sólo para buscadores). Ahora estamos alojados en “/internet/”.

Los datos de los robots de Ahrefs sólo para España. Según ellos, 90% del tráfico (3,5K mensuales) tiene como destino tan sólo unas 6 urls específicamente SEO:

traffic

Esta web no desindexa ningún contenido vía robots. En ningún artículo de /internet/, /ficcion/, /literatura-ensayo/ y /videojuegos/ ejecuto maniobras SEO sobre el texto: tan sólo me limito a la parte técnica (enlazado interno, optimización de carga, código). El texto es libre y genuino, a veces contrario a todas las directrices de escritura de Google. Sin embargo, la estructura segregada me permite que una parte de la web entre de lleno en competición en el mercado orgánico y, a medio plazo, lentamente, recibir poco a poco lectores que se transfieren al resto de secciones (esa misma), donde nos liberamos de las cadenas del SEO. Simple, paradójico y funcional.

Un curso de seis semanas para adquirir autonomía

Lo esbozado es sólo un planteamiento general que pretende ilustrar cómo, en principio, se puede hacer cualquier cosa si se conoce el reverso técnico de Internet. Sin por ello tener que abandonarse a ninguna robotización de texto y contenidos, como masivamente han hecho otros, para empezar las corporaciones. Este texto no tiene ningún elemento de optimización, pues lo considero un texto general de carácter teórico.

Si a alguien le ha parecido interesante el planteamiento, o por lo menos la posibilidad de aprender cómo funciona exactamente este mundo (el del posicionamiento y la optimización para Google), estoy dando un curso de seis semanas, de SEO orientado a escritores y webs culturales, en Central de Escritura. Allí se profundiza en el funcionamiento de buscadores, herramientas, composición de textos, diseminación semántica, y SEO técnico, entre otros elementos. Más info, aquí:

curso seo central escritura

0 comentarios

Dejar un comentario

¿Quieres unirte a la conversación?
Siéntete libre de contribuir

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *