Artículos e investigación|septiembre 25, 2019

Los Test A/B en 2019, Un Enfoque Basado en Datos

Te tomas en serio la calidad de los productos que aparecen en tu sitio web o app y tu servicio al cliente es intachable. Aun así, te enfrentas a una competencia creciente y la rotación de clientes es elevada, incluso dentro de tu público más leal. 

La presión que cae en tu equipo por demostrar ROI es enorme, a pesar de que el presupuesto para marketing está más ajustado ahora que nunca. 

La buena noticia es que hoy en día las marcas tienen acceso a un gran volumen de información, así como a todas las herramientas necesarias para saber exactamente qué atrae a los visitantes y qué los desanima. Los tests A/B, o “Split testing”, proporcionan una respuesta científica a una pregunta que anteriormente se había contestado haciendo uso únicamente de la intuición.

El hecho de ser una solución extendida no quiere decir que sea infalible.

Para aprovechar al máximo el test A/B es crucial planear de antemano y ser estratégico desde el primer momento. Si escatimas en la preparación, podrías perder tanto tiempo como dinero.

Veamos por qué. 

 

 

¿Qué es un test A/B o “Split testing”?


El test A/B, conocido también como “Split testing” o “Split URL testing”, es un proceso que ayuda a los marketers a comparar una o más versiones de una página web o aplicación con una página control. Esto les permite comprender qué elementos actúan de mejor manera para su público.


Split URL testing tiene una leve diferencia, en cuanto que la versión de control tiene además un URL diferente (esto a menudo no lo saben los visitantes).

El propósito de un test A/B es construir varias versiones diferentes de una misma variable, modificando uno, o más, de los elementos específicos dentro de cada variante, sea la copia, el diseño o el color, entre otros.

Entonces, el público se divide en grupos iguales. Cada grupo es expuesto a una de las variantes de manera aleatoria y por un periodo de tiempo determinado.  Analizar el comportamiento digital de los visitantes y, más importante, la tasa de conversión de cada versión revela qué variante funciona mejor y, por tanto, debería enseñarse a un público más amplio.

 Hoy en día, no son los marketers los únicos que toman decisiones sobre la experiencia del cliente y los consumidores influyen directamente en las optimizaciones.

¿Por qué implementar una estrategia de tests A/B?

Vayamos directos al grano, ¿os parece? La razón principal para implementar una estrategia de tests A/B es la optimización de la tasa de conversión.

Adquirir tráfico puede ser costoso (Adwords, referencias, relaciones públicas…), mejorar la experiencia no es solo más sencillo, sino también más coste-efectivo. Además, un test A/B trae consigo numerosas ventajas, esta prueba te permite:

Llevar a cabo un test A/B de manera “tradicional”

Al igual que los heatmaps, el concepto del test A/B no es en absoluto nuevo. Wikipedia lo describe como «un experimento aleatorizado con dos variantes”. Es imposible hablar acerca de los tests A/B sin hacerlo también de los procesos que tradicionalmente han informado a este tipo de experimento de marketing. Merece la pena destacar que estos procesos tradicionales están mal dotados para manejar los retos complejos de la construcción de experiencia en el año 2019.

Pero bueno, a eso llegaremos un poco más tarde. Generalmente hablando, un test A/B habitual sigue los siguientes pasos:

¿Qué se puede examinar con un test A/B?

Las posibilidades de un “Split test” son casi infinitas.

Por lo tanto, es imperativo identificar bien los objetivos para poder mantener al mínimo los elementos a examinar.

Si tu objetivo es, por ejemplo, incrementar la tasa de confirmaciones de pedido después de un “añadir al carrito”, sería interesante poner a prueba:

Si cada elemento se aísla en una variante distinta, será posible conocer cuál fue la causa de que los visitantes abandonaran su carrito.

Sin seguir ningún orden en particular, aquí os dejo algunas áreas de optimización para las cuales las pruebas A/B pueden ser útiles:

La razón por la que los tests  A/B ya no son suficientes

Estas pruebas tal como las conocemos ya no funcionan. Esto puede parecer una declaración muy directa, aun así…

Todo el mundo está de acuerdo en la necesidad de influenciar los datos para mejorar la experiencia del usuario y, a la larga, la tasa de conversión. Sin embargo, la mentalidad data-first no parece ser una prioridad para todo el equipo. De hecho, un elevado número de pruebas A/B de hoy en día se llevan a cabo con muy poco, si no ningún, análisis anterior a la implementación.

¿Esto qué quiere decir? Que docenas, y a veces incluso cientos, de pruebas se llevan a cabo en páginas web o aplicaciones sin ningún enfoque o sin el conocimiento de que existe un elemento que merece ser probado. Claro, ¡todas estas pruebas conllevan un coste!

Los equipos ya están sobrecargados y hacer pruebas ciegas es una pérdida de tiempo y de dinero, resultando en conclusiones bastante tambaleantes. Verdad es que “Split testing” tiene el potencial para conducir hasta optimizaciones geniales, pero el equipo debe replantearse urgentemente su estrategia para priorizar las pruebas más críticas y así, sacar el mayor provecho de su información. 

¿Cómo optimizar tu estrategia de tests A/B en 2019?

Nuestros años de experiencia en UX y optimización de tasas de conversión nos han ayudado a definir un acercamiento mucho más pragmático a los tests A/B.

La efectividad de estas pruebas empezará con un buen análisis pre-test.

Saber que debes hacer la prueba es bueno, saber exactamente qué elementos debes probar es crítico.

Aquí en Contentsquare, creemos que cada test A/B debe basarse en un análisis anterior, y este análisis no debe hacerse de cualquier manera. De hecho, este paso crucial permite al equipo:

  1. Localizar el problema antes de probarlo
  2. Priorizar las hipótesis a analizar
  3. Verificar estas hipótesis mediante un proceso controlado
  4. Sacar conclusiones respaldadas por datos.

Este enfoque nos ha permitido definir nuestro propio proceso para analizar la actuación de páginas web y apps y para llevar a cabo campañas pertinentes de tests A/B. Nuestro método sigue 4 pasos:

Fase 1: Análisis

Este análisis considera:

 Este análisis permite al equipo identificar el winning insight / pares de recomendación.

Concretamente, se trata de identificar cuestiones de comportamiento en la página o app (insight) y formular una solución (recomendación) con la ayuda de equipos de UX y UI.

Fase 2: Criterios

Es imposible poner a prueba a todo de una vez, por eso es importante determinar cuáles de los insights van a tener el mayor impacto y, por tanto, deben ser priorizados.

Los criterios se basan en:

Fase 3: Estrategia

Si (¡y sólo si!) has seguido todos los pasos necesarios para determinar correctamente los insights/recomendaciones, entonces estás preparado para empezar la prueba.

Para obtener los mejores resultados, ten en cuenta:

Los resultados del test A/B

No dedicaremos mucho tiempo a este apartado ya que, como hemos mencionado anteriormente, la parte más importante de la prueba es el análisis llevado a cabo antes de lanzar una campaña de prueba A/B.

Para aprender más acerca de nuestro CX hecho a medida y soluciones para la optimización de la tasa de conversión, echa un vistazo las capacidades de nuestra plataforma.

Con visualizaciones de datos sofisticados y matrices fáciles de leer y granulares, hoy todo el mundo del equipo digital puede influenciar al comportamiento del usuario para mejorar su experiencia en su página web o aplicación.

 

¡Analiza el comportamiento de tus usuarios y mejora tu conversión!
Reserva una demo personalizada con uno de nuestros expertos. Descubrirás cómo nuestra plataforma de UX Analytics puede aumentar tu conversión y al mismo facilitar las experiencias digitales de tus usuarios.

Pide una demo

Autor
Federico La Pietra

Federico La Pietra es Marketing Manager para el Sur de Europa en Contentsquare.

data benchmark
Vea cómo se clasifica