ensalada-seo-lucia-marin

Ensalada SEO 2017: Tendencias SEO para estar a la última :D

Posted by Lucía Marín on Oct 25, 2017

Este fin de semana, Gorka y yo hemos estado en un Evento SEO en Zaragoza al que nos encanta ir todos los años que podemos: Ensalada SEO. Aquí voy a dejar mis notas del evento más algunas de las fotos que tomamos.

Taller Auditoría SEO con Sistrix

Juan González

El viernes no llegamos al evento hasta esta charla. Así que segunda vez que me pierdo este año la charla de Siteground sobre optimizar velocidad de carga en WordPress, vaya!!

Del taller de auditoría me llamó sobre todo que se dijera que los enlaces internos son casi tan potentes como los externos, al menos en cuanto a la posibilidad de usar anchor text semánticamente relevantes. De hecho no fue el único momento en que se dijo dentro del evento.

Sobre Sistrix, me quedo con curiosidad de probar la herramienta al fin. Especialmente el informe de distribución en ranking para ver si debo tratar de reflotar algunos contenidos antiguos de este blog. Ya lo haré con la versión de prueba que creo nos van a dejar a los asistentes por un tiempo :D
El motivo: me pareció buena idea mirar si tengo muchos resultados en segunda página, pues como decía puede que deba mejorar los contenidos existentes antes que crear nuevos jeje, difícil al ritmo que me lanzo a escribir nuevo post!

 

SEO en Real Time

David Esteve

David trabaja en unidad editorial así que esto fue sobre medios de comunicación, más que nada sobre noticias nuevas que llegan de súbito y perecen muy pronto, de ahí lo de real time. Aún así, siempre se sacan ideas creativas… :) Y estuvo muy graciosa la ponencia!

david-esteve-ensalada-seo

Factores a tener en cuenta en un sector así: competencia y recursos dedicados.

Casuísticas que se comentaron:

  • Breaking new o suceso, cambio: no sabemos las keyword antes de que ocurran y no podemos buscarlas en Trends, o no como hacemos típicamente. Además es un tema delicado el cómo nombrar las cosas.
  • Eventos que van a ocurrir o eventos repetitivos: pasa parecido, no tenemos por qué conocer las keywords y en Google Trends quizá no haya volumen de búsqueda. Ahora veremos cómo hacer :)

Sucesos

Primero cuando les llega la noticia suben el mínimo contenido posible y factible, para empezar a posicionarse.

Para medios y noticias es fundamental usar Google Trends, porque tiene resultados para la última hora, por palabras clave.

En algún ejemplo que se comentó, al principio no pueden usar ciertas palabras…, y hay que recurrir a sinónimos. Después, cuando aclaran los hechos, se cambia el titular… Pues bien, se me ocurre que algo parecido podemos hacer si escribimos sobre un post sobre un evento, primero usar un titular de evento y luego, incluso si es monográfico o el evento no tiene búsquedas, podemos cambiar a otro título específico y que sea menos perecedero. En algún post de este blog lo he hecho, sin embargo me ha faltado hacer un seguimiento más a fondo…

Como curiosidad, en medios se usa la herramienta analítica Chartbeat, ya que va mandando pings a páginas, para saber si los usuarios siguen aún activos en la página, porque normalmente se van muy rápido, en cuanto leen lo que quieren, y por ello el concepto de sesión de Analytics pierde vigencia aquí. Otra idea que saco de aquí: ya que en medios pasa eso (y a veces en blogs también, que no estamos seguros si el usuario se queda y lee, o si por el contrario, se marcha o deja la pestaña ahí inactiva…), ¿por qué no bajar el tiempo de caducidad de la sesión al mínimo de 1 minuto o unos pocos minutos? Quizá sea una burrada pero bueno… si alguien nos está leyendo, algo de scroll hará, o algún click… o algo así… ¿por qué no probarlo en un segundo tracking? yo ahí lo dejo :D

tiempo-caducidad-sesion-analytics

Temas recurrentes o que están por ocurrir / repetirse

Para eventos que se repiten, podemos buscar en Google Trends a ver cómo buscó la gente la última vez.

El problema: que a veces no hay un volumen de búsqueda relevante y Google Trends no da resultados…

Pero hay un truco para buscar mejor: buscar por horario en una fecha pasada. Para ello tendremos que modificar los parámetros porque no se permite elegir, algo así entendí. Tener en cuenta poner la hora +2 para tener el horario de Madrid.

A su vez, ver las búsquedas por horas y ciudades específicas nos ayuda a encontrar resultados para esas búsquedas más específicas, ya que algunas si las buscamos en Google Trends al estilo tradicional, no nos va a aparecer nada.

Cambiando el enfoque y viendo todas las búsquedas para un momento específicamente, ahí sí vamos a tener keywords de búsqueda. Un muy buen truco!! :D

david-esteve-trends

¡¡Gracias!! Este truco nos encantó a much@s :))

Y de la charla resaltaría esto también, ¡¡al fin un titular en condiciones para un resultado de búsqueda sobre un partido!! ajaja, al menos en mi opinión, gana el primero por goleada:

titular-futbol-decente-seo

Genial el primer titular de la foto, porque incluye todas las keywords: horario, donde ver… no solo para Google, sino que para el usuario también me parece ideal, a mí personalmente, porque esas son las cosas que suelo buscar en las noticias de este tipo, y me frustra un poco entrar a leer una noticia y no ver claros esos datos, que a veces ni vienen. Hay que evitar las pérdidas de tiempo al usuario :)

 

Descubrir y aprovechar una OPORTUNIDAD

Con Google Trends en tiempo real podemos mirar cada día y horas concretas, para ver qué búsquedas causan furor en el momento, e ir incluyendo páginas relacionadas con ese contenido. Esto nos lo cuenta con el ejemplo de Pokémon go.

PREDECIR EL FUTURO

Programa La voz, hay cuatro búsquedas clave relacionadas, y al parecer se repite esto cada año, ajá… Google «predice» algún año el orden de los ganadores, pues su volumen y lugar en resultados de búsquedas va correlacionado.

Resultados de noticias

Por último, como tip que me gustó, aunque sea para resultados de medios algo quedará para los demás :)) Google rastrea e interpreta que la noticia ha sido actualizada cuando le cambian el título, añaden contenido arriba y republican. Y así los pone de nuevo los primeros 😅😎😁 pues va por fecha y hora de actualización.

 

Controla tú a Google, cómo educar a un buscador

Lino Uruñuela

lino-urunuela-ensalada-seo

En primer lugar, Lino nos anima a distinguir las directivas de las señales SEO. Porque Google cumple en mayor medida las directivas.

directivas-señales-seo

Después le dimos un repaso a atributo Rel.

Él cuenta que con Rel Prev/Next no ha visto diferencias. En mi caso tengo dudas de si el primero de toda la serie no gana importancia si el resto de los contenidos son potentes :D

  • Rel Nofollow puede usarse para contenidos publicitarios.
  • Rel Canonical cuando tenemos diversos contenidos que son redundantes.
  • Rel Noindex es que no muestre en resultados pero sí que rastree. En un mismo ej. que se puso por error noindex y calló el tráfico orgánico a lo bestia de una home. Durante ese periodo los robots siguieron rastreando a saco, incluso más.

 

Debemos evitar que Google pierda el tiempo en urls que no son potenciales, por ello, tiene sentido poner solo noindex si no ponemos en el robots.txt además que no se rastree esa página? Pues parece que no mucho, solo como «ñapa» o parche si no se puede hacer otra cosa.  Así, en robots.txt está bien que excluyamos los parámetros de filtros y búsquedas por ej.

Cuando mejoramos y aumentamos las páginas restringidas convenientemente, es muy probable que aumenten nuestras páginas indexadas correctamente. No olvidemos que no por tener más urls rastreadas vamos a tener mejores posiciones SEO o más tráfico. No tiene una relación directa, a veces es incluso inversamente proporcional. Es bueno analizar el ratio entre urls del bot y urls de Analytics, puede ser relevante y debe ser bajo. Cuando un contenido es dudoso quizá conviene ponerle un noindex o incluso no rastrearlo desde robots.txt.

Ojo que las meta / señales solo son parches. Es mejor tener una buena arquitectura de la información y revisar el número de links que incluimos y distribuirlos correctamente. Debemos controlar el PR sculpting, que es cómo se reparte la fuerza de los enlaces entrantes entre los contenidos de nuestra web.

Ojo, que quizá sea desaconsejable usar nofollow ahora en enlaces internos. Primero Google dijo que sí, luego que no. No queda muy claro si con nofollow internamente se sigue distribuyendo PR hacia los contenidos.

 

Ley del primer enlace:

Si tenemos varios enlaces hacia un mismo contenido, Google solo hace caso al anchor text del primer enlace. Por tanto, si enlazamos en un menú, y luego en un contenido como en un post, no tiene sentido quizá ya insistir en mandar peso artificialmente desde el contenido (salvo que lo tenga para el usuario).

Links en JavaScript: Google intenta acceder a todo lo que se parezca a un link en el código, como si lo tienes en Tag Manager.

Si tienes primero un link en foto con alt y luego otro en texto. Hace más caso al de texto. Por ello es recomendable meter dentro del <a> las dos cosas imagen y texto, ahí parece que hace más peso el alt.

 

En enlaces internos, no creemos links que luego debamos corregir con algún meta. Por ej. No creemos enlaces a tags de wordpress y categorías si no son relevantes. Ni enlaces a búsquedas ni filtros.

 

CAMUFLAR LOS ENLACES

Se puede hacer encriptando un link en base64 y luego por JQuery a todos los links con una clase tipo “camuflaenlace” hacer que un cierto atributo sea el de la URL codificada. De modo que ni siquiera parezca un link para Google :D

Con este truco avanzado conseguiremos que Google salte del todo esos enlaces, si por ejemplo, el primer link en de filtro y no pega que tenga todas las keywords.

Dudas que planteé y se me resolvieron, thanks Lino y gracias Gorka por volver a aclararme en casa ja ja! :)

  • Noindex si no se excluye un contenido en robots, ya no tiene mucho sentido, a veces se pone de forma redundante por asegurarnos de que no se quede sin esa instrucción
  • Qué pasa con los enlaces en anclas? al parecer estos no se tienen en cuenta para la autoridad
  • Si excluimos por robots los parámetros, y lo mismo desde search console, indicamos que esos parámetros no cambian el contenido… sigue siendo interesante usar lo de camuflar enlaces? al parecer sí porque para el PR sculpting y para el primer enlace se tiene en cuenta el número total de enlaces en el «tiempo» o crawl budget consumido, y lo interesante es evitar hacer perder el «tiempo» a Google, no marearle con cosas irrelevantes

Y aquí está la presentación, es del eShow pero es lo mismo :))

Estrategia SEO

Arturo Marimón

En SEO es importante tener un plan:

«Un mal plan es mejor que no tener ninguno» (Marshall)

Hay proyectos donde no podemos cambiar cosas clave, como un H1, un canonical, etc. Hay aspectos SEO que cambiamos y que no sirven de nada.

No hay que hacer 100 cosas un 1% mejor que los demás. Hay que hacer 2 o 3 cosas pero un 300% mejor que los demás.

Pensar qué nos va a marcar la diferencia en nuestro proyecto. De ahí lo de pensar estratégicamente, más que ponerse a mandar mil cambios técnicos a una empresa grande que se va a agobiar y no va a ver un cambio real.

Por ello debemos hacer un SEO equilibrado entre:

  • Autoridad (enlaces)
  • Relevancia
  • Confianza

arturo-marimon-ensalada-seo

Autoridad SEO:

Un sitio web no tiene autoridad en sí mismo, no en un modo «global» o absoluto; sino que la autoridad va por clusters, por temas. Se puede tener autoridad en un campo específico.

Para ello los links siguen siendo importantes, especialmente lograr links relevantes dentro de tu nicho.

 

Relevancia SEO:

Cuando se es relevante en un cluster de topics y publicamos dentro de ese cluster, enseguida se posiciona el contenido. En cambio, si nos salimos de esa temática, es casi como si empezáramos de cero.

¿Cómo atacar un cluster específico? Con links internos y los anchor text de estos. El linking interno sirve para desambiguar el contenido, no se trata de repetir mucho un anchor text sino en hacer los enlaces con naturalidad.

En el linking interno debemos revisar la intencionalidad de búsqueda del usuario. Una página debe resolver no solo una keyword de búsqueda específica, sino todas las búsquedas relacionadas que el usuario pueda querer hacer para profundizar. Así conseguimos que el usuario no vuelva a Google.

Debemos enlazar por topics como por subhomes. Crear un árbol de contenidos con clusters diferentes pero relacionados y crosslinking entre secciones. Ojo que los enlaces fuera del cluster nos perjudican, por ej. lo que se suele hacer de enlazar desde todas las páginas hacia la sección de ofertas.

 

Confianza SEO:

¿Cómo sabe Google que un contenido es relevante? Por el comportamiento de la gente que lo busca y que visita la web. Un comportamiento muy relevante es el pogo-sticking que es ese comportamiento negativo cuando el usuario viene y vuelve al buscador a refinar la búsqueda.

Esto se puede medir con Google Tag Manager. Hay un post de Simo Ahava al respecto con JavaScript, lo quiero probar y hacer si se puede con las propias variables y triggers de GTM de la herramienta próximamente. Llevo tiempo con ello en mente y el evento me lo ha recordado.

Si medimos el pogo-sticking vemos las páginas que tienen mejor y peor comportamiento según Google. Este ratio lo vamos a relacionar con el tamaño del cluster y con la posición de las queries.

En su caso, en un ejemplo particular, a partir de un 18% de pogo-sticking Google ya les baja una página de posición.

Con este factor clave vemos que analizar el comportamiento del usuario en las páginas es fundamental, no solo se trata de enlaces.

 

Todo sobre mi madre

MJ Cachón

MJ nos cuenta un proyecto donde le piden presupuesto para una joyería online. El cliente viene de perder un 90% de un presupuesto de 4000€ al invertir en Adwords.

Antes de mandar el presupuesto le estuvieron revisando todo esto:

Lo primero que mira es el robots.txt para ver el grado de madurez del proyecto.

Consola de Chrome o comandos (control/comando u) para ver el orden del head.

También revisamos la estructura de enlazado de la web. Especialmente para ver si hay enlazado horizontal.

mj-cachon-madre-ensalada-seo

Velocidad: Rendimiento por dispositivos. Por ej. Google Page Speed.

Sector: saber cómo están los competidores y quienes son.

Briefing: un formulario de Google para que lo rellene el cliente.

Keywords: qué vendemos y cómo es mejor presentarlo.

A quién: nuestro target, nuestro cliente potencial. Importante ver en sistrix o semrush dónde se posiciona tu competencia pero tú no, así tendremos mejores ideas sobre keywords.

Atributos del producto: pensamos, concatenados keywords y luego buscamos para ver qué es más relevante.

MJ nos dio ideas muy originales. ¡¡Gracias!!

Por ej.: Google Imágenes y Pinterest agrupan y categorizan las imágenes por clusters o palabras clave. Sirve para ver cómo lo definen ellos, que seguro ya lo han estudiado bien.

Truco Wikipedia: miramos en una keyword concreta cómo hace Wikipedia para categorizar, clasificar, enlazar, etc. Tb podemos mirar sus encabezados h. Miremos también el véase también.

Podemos ver por ej que se enlaza en Wikipedia desde abalorios. Con la custom search de Wikipedia.

 

Al final, con todo este keyword research debemos poder mejorar la estructura inicial.

Ojo con las páginas que no se enlazan desde ningún sitio pero son importantes.

Enlazado interno: Horizontal y hacia categorías y subcategorías. Quitar o cambiar todos los enlaces que no apunten a una página que de 200 como respuesta de servidor.

Preguntas frecuentes: Reciclarlas para SEO. Por ej. Cómo limpiar anillos. Cómo cuidar anillos de plata, etc. Con keywordtool.io podemos encontrar qué preguntas busca la gente.

Eventos planificados: Pensar cuándo va a tener más búsquedas la web para que la página esté posicionada para entonces. Por ej . Para reyes, 14 de febrero, etc. Ahí han detectado aproximadamente que la gente busca un mes y medio antes.

Screaming frog: informe insecure content, para verificar que tras la migración de http a https no sigamos enlazando a contenidos inseguros.

Tb se pueden comprobar las redirecciones con screaming frog.

Qué hacer con enlaces como aviso legal y cookies que tienen miles de enlaces internos y no son relevantes? Bloquear en el robots.txt.

Aquí dejo la ENORME presentación de MJ Cachón, si voy encontrando el resto las sumaré al post:

AMP más allá de los contenidos

Estela Franco

De media ya usamos unas 3 horas al día el móvil.

Si una web tarda más de 3 segundos en cargarse, hay más de un 50% de probabilidades de que el usuario abandone la página. Mientras el promedio de tiempo de carga era de ¿20? segundos (disculpad que no sé si entendí ok y me suena 20 a muchísimo, será tiempo de carga completa de toda la página y recursos externos supongo, gtm.load je je).

Se aconseja que las páginas pesen como máximo 500kb.

Solo un 26% de webs hacen menos de 50 peticiones por página.

Por todo esto es por lo que se lanzó AMP por parte de Google, que ya cumple unos 2 años.

Poco a poco AMP pasó de ser algo puramente para medios a algo útil para mucho más tipos de webs. Y más con datos como estos:  Retail 14 segundos de media, Viajes 11 segundos de media…

amp-estela-franco-ensalada-seo

Los tiempos de carga en la mayoría de los sectores son demasiado elevados para visitar los sites en móvil. Y esto afecta a los ratios de conversión para dispositivos diferentes a desktop.

Google parece que sigue apostando fuerte por AMP, ha comprado una herramienta para convertir contenidos webs que no son CMS en AMP.

Sobre AMP:

  • Es un HTML simplificado
  • Open Source
  • Prerenderizado, cacheado y servido por Google, pero solo desde el buscador
  • Se puede usar en otras plataformas como Google
  • No afecta al servidor porque se sirve desde la caché de Google

 

Integración SEO/SEM

José Llinares

A veces nos falta tener una visión más global en los proyectos, estamos tan especializados en nuestro campo que perdemos en cierto modo la visión de conjunto. El diseño UX/UI depende totalmente del diseño del propio producto.

Hablamos en general muy poco entre las diferentes partes de las funciones de marketing: SEO, SEM, Analítica Web… y cuesta llegar a puntos en común porque si se trata de agencias diferentes cada una quiere que inviertan más en su parte de la tarta. Hay mucha gente que solo mira sus métricas e interés y no el de la empresa, pero por suerte cada vez vamos tendiendo más a la colaboración, añadiría yo, hay sector para tod@s :)

Debería haber un equipo de Search Marketing que coordinara y juntara ambas partes. Por ej. es interesante compartir keywords entre equipos de SEO y SEM.

Interesante que desde la estrategia SEO se hable también al cliente de los modelos de atribución. ¿Por qué? Porque las agencias de medios sí lo hacen y se atribuyen hasta conversiones post view o post impression.

Otra sinergia SEO-SEM es que para aumentar el Quality Score lo que hay que hacer es SEO On Page. Debemos de olvidarnos de hacer landings diferentes para SEO y para SEM.

Para las palabras que no generen conversiones pero sean relevantes en el funnel de conversión en cliente, se puede traspasar recursos de esfuerzos en SEM a esfuerzos en SEO.

Del trabajo SEM podemos extraer para el SEO qué palabras que son muy rentables, no estoy trabajando en SEO y debería empezar a trabajar. En SEM puedo trabajar en clusters o grupos de keywords diferentes antes de enfocarme en ellas con trabajo SEO. En SEM se pueden probar las cosas muy rápido.

jose-linares-ensalada-seo

 

 

Caso de estudio: Auditoría de contenidos efectiva

Alberto López

Todas las webs tienen problemas de contenido: común, duplicado, escaso o irrelevante.

Dependiendo del problema podemos: redireccionar, poner canonical, ampliar contenido…

La herramienta de pago mejor para auditar contenido parece ser Safecont. Una vez detectadas las páginas posiblemente más conflictivas con Safecont, podemos pasar a Screaming frog, y subir el listado de URLs. Si además conectamos con Google Analytics e importamos métricas de comportamiento como objetivos, sesiones, etc. pues en pocas horas podemos hacer un diagnóstico de contenido de toda nuestra web o blog.

alberto-wanatop-ensalada-seo

Caso de estudio: SEO contra todos

Miguel Ángel García

Nos habla de un caso de éxito, de una empresa con mucho interés local.

Al no tener mucho presupuesto y tratarse de algo tan local, decidieron optar por lo lógico:

  • Productos top
  • Ofertas
  • Local

Productos: mejorar en esos productos que ya se destaca de manera natural, posicionados en SEO para toda España. Vieron que deben estar posicionados no solo en España, sino que tb en las ciudades clave: Madrid, Barcelona, etc. Sobre todo en Zaragoza salir los primeros, obviamente.

miguel-cafe-con-web-ensalada-seo

  • Ofertas: destacan sobre todo en el black friday, que para esta empresa es fundamental.
  • Categorías: suben de colchones viscoelásticos a colchones de muelles.
  • Otra estrategia: tratar de posicionarse con sinónimos (con camas).
  • Al final salen en 5° lugar por ser como un gatito peleando con un tigre.
  • Están empezando a trabajar marcas, por un lado pikolin y por otro lado marcas que son residuales para otros competidores.
  • Otra estrategia: optar por términos como precio + colchón + modelo.

Al final están haciendo lo que les permiten las circunstancias, como nos ocurre a tod@s… y luego se ven las típicas incongruencias de Google, con otros competidores posicionados aunque repiten keywords en negrita, meten textos de relleno, etc. Genial la sinceridad, gracias!!

 

Caso de estudio: Rentabilidad SEO

Víctor Guerrero

¿El SEO es rentable? A veces el cliente nos lo pregunta, y la verdad es que depende del cliente.

Vamos a ver dos casos de Ecommerce, ambos con Google Shopping, de un sector poco online, sector industrial, sitios en PrestaShop.

victor-vgs-ensalada-seo

Caso 1:

Empresa antigua con amplio margen comercial. Esto permite que se invierta en SEO y se siga siendo rentable.

Ellos llevan SEO y SEM y el ticket medio es superior en orgánico que en PPC. Mientras tanto el número de conversiones en ambas es bajo y están igualadas.

Quieren aumentar el número de resultados en Serps y mejorar en las keywords menos competidas.

 

Caso 2: ecommerce también en prestashop con SEO, SEM. La diferencia es que tiene mucho menos margen, debe vender mucho volumen para que le sea rentable todo. Es de material de oficina al parecer.

Les hicieron un par de grandes descalabros, que para ser una empresa que solo vende online. Así que obviamente ya no se fían de las agencias. Por suerte, van remontando y han vendido 152.000 en 6 meses.

¿Quién dijo que el SEO no da resultados? ja ja

Y bueno, para terminar aquí dejo algunas fotos más del finde y del evento.

¡¡Hasta el año que viene!!

Si necesitas aprender Google Tag Manager y Analytics, entonces te interesa mi curso online. Consta de material PDF actualizado constantemente. Un sitio para hacer tus prácticas. Y está tutorizado por foro/email durante 2 meses (más opción a clases particulares).

O si prefieres una formación in company, en tu empresa, sobre:

  • Tag Manager y Píxeles de Conversión
  • Google Analytics básico o avanzado
  • Data Studio
  • Supermetrics Functions
  • SEO
  • Google Ads
contacta con nosotros, seguro que podemos ayudarte :)

Sobre mí