30 junio, 2024

¿Es el CTR un factor de clasificación? Una mirada objetiva | Daniel Taylor

Actualizado: 2 de enero de 2024

El CTR (tasa de clics) ha recibido mucha atención en los últimos meses a medida que más estudios han demostrado que apoyan y refutan la hipótesis.

En el registro público, Google ha declarado que no utiliza el pogo-sticking como factor de clasificación, lo cual tiene sentido dado cómo se comporta el usuario moderno en computadoras de escritorio y dispositivos móviles.

Tengo mis propias conclusiones sobre el CTR como factor de clasificación para sitios web individuales, e incluiré mis pensamientos personales en la conclusión, pero primero quiero evaluar el caso de ambos, con base en evidencia anecdótica y estudios generados por SEO, como así como estudios, patentes e investigaciones de Google.

CTR (tasa de clics)

Gran parte del fervor reciente y el respaldo al CTR como factor de clasificación provinieron inicialmente de un artículo de Google, titulado Incorporación de clics, atención y satisfacción en un modelo de evaluación de la página de resultados de un motor de búsqueda.

El documento describe dos desafíos iniciales que enfrenta esta hipótesis y que se deben a la introducción de nuevas funciones SERP por parte del propio Google y al comportamiento estándar del usuario.

En primer lugar, la presencia de dichos elementos en una página de resultados de un motor de búsqueda (SERP) puede provocar la ausencia de clics, lo que, sin embargo, no está relacionado con la insatisfacción, los llamados “buenos abandonos”.

Se trata de fragmentos destacados y otros bloques de resultados de contenido especial que conducen a una búsqueda de “cero clics”.

En segundo lugar, el diseño no lineal y la diferencia visual de los elementos SERP pueden generar patrones no triviales de atención del usuario, que no se capturan con las métricas de evaluación existentes.

Esto se debe a que como usuarios no recorremos los resultados de búsqueda de forma lineal y además abrimos múltiples pestañas, lo que significa que el comportamiento es errático e impredecible.

El documento también destaca cuatro palabras clave fundamentales en el resumen posterior, que son:

Comportamiento del usuario Modelos de clic Movimiento del mouse Buen abandono

El estudio también afirmó que el 42% de los evaluadores de calidad solo hicieron clic en el resultado de SERP para confirmar que la información presentada inicialmente en el SERP (en resumen, a través de metainformación) era correcta. Esto significa que los clics adicionales en los resultados no se correlacionan con un conjunto de resultados iniciales “deficientes”.

En particular, al evaluar la satisfacción, el documento no menciona el «tiempo de permanencia», la tasa de rebote ni el tiempo promedio en el sitio.

Esto nos lleva a un segundo trabajo de investigación de Google, Aprender a clasificar con sesgo de selección en la búsqueda personal. Lo que para mí tiene dos de las declaraciones más importantes sobre el CTR prácticamente en el primer párrafo. siendo estos:

Los datos de clics han demostrado ser un recurso fundamental para mejorar la calidad del ranking de búsqueda.

Y…

Si bien los motores de búsqueda pueden recopilar fácilmente una gran cantidad de datos de clics, diversos sesgos dificultan el aprovechamiento pleno de este tipo de datos.

Entonces, ¿Google puede recopilar esta información? Sí, ¿Google puede aplicar esta información en todo el corpus web de manera significativa y escalable? No.

La perspectiva del ingeniero de clasificación de Google

Otro punto de vista que se puede analizar proviene de SMX West 2016. El ingeniero de Google Paul Haahr habló sobre cómo funciona Google desde la perspectiva de un ingeniero. Lamentablemente, las diapositivas ya no están disponibles públicamente a través de SlideShare, pero la charla se puede ver a través de YouTube.

Hay algunas diapositivas clave que Paul comparte y que ofrecen una idea sobre la cuestión del CTR como factor de clasificación, a saber:

La transparencia que Google busca en los cambios en los patrones de clics en los experimentos de tráfico en vivo, sin embargo, con la salvedad de que puede ser más difícil de lo que se espera, lo que tiene sentido si se observan los documentos de investigación mencionados anteriormente.

Vale la pena resaltar que mientras Paul habla, se refiere a los patrones de clics como una de las métricas utilizadas para determinar las tasas de éxito de la versión AB, y no que los experimentos de patrones de clics estén separados de las pruebas AB.

Advertencia: «Interpretar experimentos en vivo es realmente un desafío»

En las propias palabras de Haahr, una interpretación ingenua del Algoritmo B que coloca P₂ por delante de P₁ y no genera ningún clic sería “malo”, y hay una serie de factores que explican por qué no pudo haber ningún clic en este caso.

La sesión de preguntas y respuestas organizada por danny sullivan con Paul Haahr y Gary Illyes de la misma conferencia reiteraron lo difícil que es interpretar los hallazgos de experimentos en vivo.

Hay tantos experimentos que hemos realizado que tienen métricas en vivo muy engañosas y realmente necesitamos analizarlas en profundidad.

Haahr también dio un ejemplo de un experimento de larga duración de Google en el que intercambiaron los números 2 y 4, basándose en el 0,2 % de los usuarios del motor de búsqueda como conjunto de datos. A partir del análisis, descubrieron que en la prueba B, donde el número 4 estaba en lugar del número 2, más usuarios hicieron clic en el número 1.

Haahr, también durante la sesión de preguntas y respuestas, reveló que el puesto número 10 normalmente obtiene más clics que los puestos número 8 y número 9 juntos (pero sigue siendo peor que el número 7).

AJ Kohn, artículo de 2015

En 2015, AJ Kohn se propuso responder la misma pregunta: ¿La tasa de clics es una señal de clasificación? Para mí sigue siendo un gran post cuatro años después.

Con la publicación, AJ también aborda la pregunta desde el punto de vista de Bing, con una cita de Duane Forrester sobre si Bing usa o no el CTR como señal de clasificación de una entrevista con Eric Enge en 2011.

Estudios y artículos de investigación anteriores

Los artículos anteriores y la charla SMX de Paul Haahr son de la era de búsqueda 2016/2017, y el CTR como entrada de clasificación es anterior a esto. Hay una gran cantidad de artículos de investigación, estudios y patentes de Google que abordan el tema, pero para mí los más importantes a tener en cuenta son:

Thorsten Joachims, 2002

Joachims, un investigador asociado con la Universidad de Cornell, muestra cuán antigua es la investigación sobre CTR, y el artículo Optimización de motores de búsqueda utilizando datos de clics tiene dos puntos clave:

La idea clave es que dichos datos de clics pueden proporcionar datos de entrenamiento en forma de preferencias relativas… existe una dependencia entre los enlaces presentados al usuario y aquellos para los cuales el sistema recibe retroalimentación.

Filip Radlinski y Thorsten Joachims, 2005

A partir de 2005, Joachims y Radlinksi, ambos de Cornell, publicaron el artículo Evaluación de la solidez del aprendizaje a partir de la retroalimentación implícita. También conocido como aprendizaje automático y CTR simulado.

El objetivo de este artículo es comprender cuándo los datos de CTR son útiles y cuándo son sesgados y menos útiles.

Este artículo es especialmente interesante porque introduce la posibilidad de modelar el comportamiento del usuario y utilizar esos datos en lugar del comportamiento real del usuario. Este artículo también menciona el aprendizaje por refuerzo, que es el aprendizaje automático.

Filip Radlinski, Thorsten Joachims y Robert Kleinberg, 2008

Nuevamente con Radlinski y Joachims, esta vez acompañados por Kleinburg, todos ellos todavía de Cornell, este artículo (Aprendiendo diversas clasificaciones con bandidos multiarmados) introdujo la noción de intención del usuario y la importancia de mostrar una diversificación de resultados para satisfacer a la mayor cantidad de usuarios.

Y satisfacer a la mayoría de los usuarios significa comprender qué clics generan la menor cantidad de clics de regreso al motor de búsqueda, también conocido como abandono, un término muy utilizado en los artículos de Google sobre el tema.

Satisfacer a todos los usuarios significa mostrar diferentes tipos de páginas web. La intención del usuario para muchas consultas de búsqueda es diferente, lo que significa que se requiere diversificación de SERP y SERP no lineales.

Una conclusión de este artículo es que:

Esperamos que un algoritmo de este tipo funcione mejor cuando pocos documentos sean propensos a cambios radicales en su popularidad.

Y para una gran proporción del corpus web, esto resultará cierto ya que no se producen muchos cambios en términos de la intención del usuario detrás de los temas y consultas establecidos.

Estudios, textos y experimentos del CTR

Con cualquier cosa, y una de mis mayores recomendaciones para cualquiera que comience en SEO es leer todo lo que pueda sobre un tema, incluidos los argumentos a favor y en contra. Para mí, dos estudios destacados sobre el CTR como factor de clasificación son:

Ricardo Baeza-Yates, 1999

Ricardo Baeza Yates (Yahoo!) dice en su libro Modern Information Retrieval, que los datos de clics pueden ser una señal más clara y definitiva que los datos de PageRank para determinar la calidad de un resultado.

Yahoo incluso publicó una patente, presentada en 2006, que analizaba la sustitución de datos de PageRank por datos de CTR.

Bartosz Góralewicz, 2015

A través de Search Engine Land, Bartosz Góralewicz compartió los resultados de un experimento que realizó que sugiere la tasa de clics (CTR) de los motores de búsqueda. no es un factor de clasificación.

Cesarino Morellato y Andrea Scarpetta, 2015

De nuevo a través de Search Engine Land, los profesionales italianos de SEO Morellato y Scarpetta realizaron un experimento, aunque con algunos sesgos, que concluyó que el CTR de la búsqueda es un factor de clasificación.

Natzir Turrado, 2015

En su estudio titulado El CTR afecta al SEO, pero ¿por qué no se puede manipular artificialmente?y (escrito en español por lo que necesitarás usar Google Translate), Turrado explora que el CTR de hecho afecta el SEO pero no se puede manipular artificialmente.

Eric Enge, 2016

En 2016, Eric publicó un estudio en el entonces blog Stone Temple, ahora Perficient titulado Por qué el CTR es (o no) un factor de clasificación.

En resumen, Google utiliza pruebas controladas de tasa de clics para validar la calidad de sus resultados de búsqueda.

El estudio de Eric también se correlaciona con un seminario web de preguntas y respuestas que tuvo con Andrey Lipattsev, estratega senior de calidad de búsqueda de Google, Rand Fishkin y Ammon Johns.

También vale la pena señalar que Rand Fishkin tiene ejecutar experimentos y encontró correlaciones con el CTR y los cambios de clasificación.

Nathan Veenstra, 2016

En la publicación de Nathan, se aborda tanto el CTR como la tasa de rebote y sus méritos como factores de clasificación.

La publicación, Por qué la tasa de rebote no es un factor SEO, está en holandés (título original Waarom la tasa de rebote no es un factor SEO), pero el traductor de Google funciona bien.

¿Qué tiene que decir Google?

No creo que ninguna publicación de análisis como esta esté completa sin incluir información de John Mueller y Gary Illyes, quienes tienen el poco envidiable trabajo de responder preguntas de SEO las 24 horas del día, los 7 días de la semana, los 365 días del año.

Juan Mueller

En BrightonSEO, en abril de 2019, John tuvo una sesión de preguntas y respuestas en vivo que Distilled desde entonces analizó y buscó leer entre líneas sus respuestas.

La pregunta que le hicieron a Juan fue: Seguramente en ese momento, John, empezarías a utilizar señales de los usuarios, ¿verdad? ¿Comenzarías a mirar en qué resultados se hace clic con más frecuencia? ¿Comenzarías a mirar cosas así en ese momento?

A lo que Juan respondió:

No creo que usemos eso para una clasificación directa como esa. Usamos señales como esa para analizar los algoritmos en general, porque a través de un millón de consultas de búsqueda diferentes podemos determinar cuál tiende a ser más correcta o no, dependiendo de dónde hacen clic las personas. Pero para una consulta específica para un puñado de páginas, puede ir en muchas direcciones diferentes.

Esto coincide con los comentarios realizados por Paul Haahr en la sesión de preguntas y respuestas de SMX West 2016, así como con los pensamientos y conclusiones de Bartosz Góralewicz y Eric Enge.

Gary Illyes

En SMX Advanced en 2015, Gary Illyes habló sobre cómo Google utiliza los clics realizados en los resultados de búsqueda de dos maneras diferentes: para evaluación y para experimentación, pero no para clasificación.

Dice que ven a aquellos que intentan inducir ruido en los clics y por esta razón saben que usar ese tipo de clics para clasificar no sería bueno.

En otras palabras, el CTR sería demasiado fácil de manipular como para utilizarlo con fines de clasificación. Esto es interesante, ya que contradice los estudios realizados por Rand Fishkin, en los que se influyó en los resultados mediante 600/700 clics adicionales.

Sin embargo, un mes después de que Gary Illyes hiciera estas declaraciones, Google publicó una patente que muestra cómo pueden clasificar las páginas en parte basándose en los comentarios de los usuarios (clics) en…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *