Los 6 principales límites del A/B Testing

Escrito en 27 noviembre, 2012 por Patricia en Sin categoría

Para los afortunados que  poseen una cuenta google para administrar su página web, una función muy interesante está a su disposición.  ¿Su nombre? WebSite Optimizer (Optimizador de sitios web), conocido como Test A/B. 

Muchos marqueteros consideran esta herramienta como un grial. De hecho, sus poderes se basan en una experiencia “científica” para llegar a ser una “verdad empírica” para definir : cuál es la mejor decision para  su página web, simplemente interesante…

 

Pero: el Test A/B no da siempre “LA” mejor solución de manera segura y cierta. Por ello numerosos límites existen.

Descubran todo sobre los 6 principales defectos de la herramienta estrella de la usabilidad web…

Test A/B : ¿Qué es?

El concepto es simple:

  • Se prueba una versión A de una página web.
  • y una versión B.

La herramienta permite seguidamente de identificar cual es la versión que permite hace actuar más facilmente al internauta como se desee.

¿Qué es el Test A/B?

Ejemplo:

Soy una empresa X y utilizo Internet para mostrar mis productos y recibir peticiones de visitantes que puedan estar interesados en mis ofertas. Quiero utilizar el A/B testing para determinar si poner mi foto en la parte superior del texto, o bien en la parte inferior para permitirme generar más peticiones de los internautas. Al final del test, la herramienta Google me indica por ejemplo, que en la versión que contiene la foto al inicio del texto, me permite en el 90% de los casos generar 2% de peticiones adicionales.

Ahora que el concepto está clarificado, prestemos la atención a los 6 principales defectos del Test A/B.

1. El test A/B no toma en consideración la función de adaptación.

Todos los test de optimización responden a leyes matemáticas en función de la adaptación. Para resumir, esta ley matemática nos enseña que existe varios “máximos”, como lo ilustra este gráfico.

 

Función de adaptación:

Si todos los test responden a esta ley, ¿cómo el marketor puede estar realmente seguro de haber alcanzado el rendimiento “máximo” con el test A/B?

En otros términos, es imposible de determinar con precisión en que lugar de la curva nos encontramos antes de poner el test A/B en funcionamiento. Los resultados del test A/B pueden darnos a entender que hemos logrado un pico de rendimiento, pero no podemos adivinar si es el máximo local, global o si es un “accidente” de la curva.

2. El test A/B no toma en cuenta la diferencia tipo.

El test A/B reduce los rendimientos a una única cifra: la media ponderada de las transformaciones, en función de  las versiones. Evidentemente, todo el mundo entendera aquí la “limitación” del test A/B.

  • ¿Pero esta “simplificación” no es el objetivo del test A/B? Sí.
  • ¿Entonces cuál es el problema? Que no se puede llevar ninguna otra acción correctiva después del test A/B.


Cuando no se toman en cuenta las especificaciones de los diferentes segmentos de visitantes, el test A/B puede inducir decisiones equivocadas. 

Imaginar una tienda de e-comercio que vende sus productos a particulares de categoría socio-profesional superior de menos de 40 años . Realiza un test A/B para probar dos versiones diferentes y ver cual de las dos genera una mejor tasa de añadido a la cesta.  Sus modificaciones no tienen ningún impacto sobre su segmento de clientes.

Pero, resulta que la modificación B atira más el ojo a los mayores de 60 años que “clican” (un poco por inadvertencia) en la siguiente etapa. ¿Qué ocurre? La version B va a ganar las estadísticas del WebsiteOptimizer.

Convencido de los buenos resultados, pone definitivamente la version B en línea. Pero al final, obtiene un resultado de calidad mediocre… ¡el cuál creía irrefutable! La tasa de abandonos del recorrido aumenta rápidamente, para al final, ¡no dar ningún euro suplementario!

Moraleja: Existe gente detrás de las pantallas del ordenador conectados a Internet. 

No reducirlos a una simple media, sin las informaciones sobre las desviaciones que puedan existir, no puede que llevar a una versión reductora de un sistema complejo y a decisiones erróneas.

3. El test A/B no puede llevar a un analysis fino de las causas del rendimiento, mismo a través de un trabajo largo y costoso.

Imaginar el formulario de contacto de una página web. Se realiza un test A/B para determinar si es más eficaz que los internautas validen sus informaciones con un botón rojo o un enlace azul.

El problema, es que el test A/B no  puede que dar una visión “general” del rentimiento. Para determinar fidelmente las causas de dicho rendimiento, sería apropiado utilizar dos test:

  • Un test A/B para el color
  • Un test A/B para el método de clic.

Existen entonces diferentes “niveles de libertad”. Como en el ejemplo, por un lado el color y por el otro el método de clic.  Pero, podría haber añadido igualmente la libertad del texto de validación, que sería entonces otro “grado de libertad”. Es para responder a este tipo de problemas que Google a puesto a disposición los test A/B con variables multiples.

Pero el real problema es que para realizar un analysis fino – un test A/B se descompondría en etapas de subtest – Se necesitaría un nombre de visitantes y de tiempo infinito para explorar todos los “grados de libertad”. 

Además es necesario no olvidar ninguna información sobre la “ecuación de transformación”. Las variables no pueden ser consideradas como elementos isolados.

Son factores que obran reciprocamente entre ellos y crean las sinergías. También, esto va a impactar a la tasa de transformación, pero no se tienen los medios para medir esta “inter-contribución”.

4. El test A/B, sin verdadera estratégia de persuasión, est condenada al fracaso.

El diseño de la usabilidad no lo hace todo. Los internautes tienen procesos diferentes. Pueden llegar a una misma decisión – como clicar aquí como queríamos-, pero con recorridos psicológicos diferentes.

La estratégia de persuasión es una de las claves de la estructura de una página web. Un sitio web debe llegar a personas diferentes, que llegan en la página con diferentes expectativas y objetivos de visita que se distinguen.  Pertenece a cada uno de trabajar en primer lugar este aspecto antes de pensar a saber si el rojo es mejor que el azul.

Por ejemplo, un hombre duro, vulgar, sin ninguna educación. ¿Sería determinante el echo que esté más elegante con un traje gris o bien con uno negro, para desenvolverse en una cena de lujo?

5. El test A/B no toma en cuenta el “timing”, que puede ser decisivo en la tasa de transformación.

Estudios han demostrado que los internautas tienen por  costumbre volver varias veces en una página web antes de “ser transformado”.

Teniendo en cuenta este echo, una pregunta interesante se impone: ¿Cuál es la tasa de transformación de aquellos que no han comprado la primera vez, pero que lo han hecho cuando han vuelto más tarde a la página web?

Este dato no se toma en cuenta en el test A/B. Es decir, el test A/B es una herramienta de “corto plazo” y no toma en consideración el aspecto temporal de la relación continua que se desarrolla con los internautas.

Para las empresas que comercializan productos complejos o tienen ciclos de venta largos, el test A/B no podrá dar ninguna pertinencia de la utilización de los internautas en ese periodo de tiempo.

6. El test A/B es un proceso infinito, sin límite, que puede llegar a ser costoso.

Si se pasa todo el tiempo a probar, obtendremos todo el tiempo un resultados “medios”, es decir, una media. El día que va probarse un nuevo elemento con un resultado malo, durante todo el periodo de ese test tendremos un rendimiento inferior a la media.

Lo importante no es probar indefinidamente millones de opciones, sino establecer aquello que funciona e ir incrementando el rendimiento de la página web más allá de la media.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

Puedes usar las siguientes etiquetas y atributos HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>

  • Nube de palabras claves