Analytics Premium ComScore ClickTale Analytics Certified Partner Klipfolio Coremetrics

Sumamos una nueva herramienta a nuestro “repertorio”: Webtrekk

14/10/2016 a las 13:50

Webtrekk

Cuanto más nos sumergimos en la completa plataforma que la compañía alemana Webtrekk nos ofrece, más nos gusta. Sin ánimo de entrar en mucho detalle, sí queremos mostrárosla por encima y daros nuestras primeras impresiones sobre ella tras habernos certificado y haber realizado nuestra primera implementación.

En estos momentos, se encuentran en plena migración de interfaz. El nuevo, más limpio y minimalista, puede dar la falsa impresión de que no estamos ante una herramienta demasiado completa, pero nada más lejos de la realidad.

Como ejemplo, y para hacerse una idea de la liga en la que juega, una mezcla de roles, categorías y filtros nos permiten realizar una gestión de permisos de usuario que puede llegar a un nivel de detalle como pocas veces hemos visto.

Webtrekk

Uno de los múltiples informes que una implementación básica en Webtrekk nos ofrece.

Pero vamos a ello. Demos un repaso a vista de pájaro de los principales componentes de la plataforma.

 

TAG INTEGRATION

Aunque no compite (ni lo pretende) con gigantes en éste área como Google Tag Manager o Tealium, es una herramienta que facilita mucho la implementación de Webtrekk. Arrastrando y soltando lo que ella denomina plugins, y con una configuración mínima de los mismos, podemos comenzar inmediatamente a recoger una gran cantidad de datos de un sitio web donde previamente hayamos insertado el script correspondiente.

Nos llamó la atención la inclusión de un plugin para detectar si el usuario utiliza Ablock y otro para medir el scroll en página. Muy útiles, como también lo es el que nos permite crear encuestas para nuestros visitantes. Y, por supuesto, incluye también plugins personalizados donde podemos insertar el código javascript que necesitemos (para píxeles de remarketing, por ejemplo).

Webtrekk

Configuración de la etiqueta o plugin básico de Webtrekk

 

DIGITAL ANALYTICS

Es la herramienta de análisis propiamente dicha. Además de disponer de una gran variedad de informes, permite la creación de informes personalizados (bookmarks) a partir de éstos, gracias al alto grado de personalización que ofrece. Podemos añadir y quitar dimensiones y métricas, añadir modos de visualización, cambiar el tipo de gráfico asociado a la tabla y la métrica mostrada, etc.

Webtrekk

Tres modos de visualización de datos, configurables: mapa de calor, barras y semáforos.

Cómo no, contamos con la posibilidad de construir filtros y segmentos todo lo complejos que sea necesario. Tan sólo echamos en falta un mejor soporte a las expresiones regulares en este área. Trabaja con una versión muy simplificada de éstas.

Webtrekk

Google Analytics

Arriba: informe “Page detail” de Webtrekk. Abajo: informe “Resumen de navegación” de Google Analytics, del que os hablamos hace poco. Aunque muy similares, nos ha gustado mucho que el primero aporte gráficas de tendencia para las páginas previas y posteriores.

Aunque herramientas de pago como ésta no necesitan recurrir al muestreo o sampling, hay que tener en cuenta que los informes, por defecto, se nos presentan basados en una muestra del 20% para agilizar la carga, pudiendo nosotros, después, cambiar al 100% el tamaño. Los tiempos de respuesta no nos han parecido excesivos en ningún momento, por lo que nos hubiera gustado que el tamaño por defecto de la muestra fuera algo que se nos permitiera definir a nivel global en la configuración.

Y en cuanto a cuadros de mando, Webtrekk nos facilita mucho el crearlos. Los llama “reports”.

Webtrekk

Ejemplo de report en Webtrekk

Nos ha parecido lo suficientemente potente en este aspecto como para cubrir esta necesidad en la mayoría de los casos, sin tener que salir de la plataforma.

DMP

En el DMP jugamos con las variables recogidas por el User Relationship Management para construir segmentos diferenciados a los que poder “atacar” de manera diferente. Por ejemplo, tenemos el Profile Macro Status que, de manera configurable, nos permite saber el grado de “madurez” de un visitante. Podríamos clasificarlo como mero visitante, como alguien que se ha interesado por los productos, como alguien que llegó a comprar, como un comprador recurrente…

DMP

Lista de visitantes  en detalle, sobre la que podemos crear segmentos

Las últimas dos columnas de la captura de pantalla nos muestran unas métricas realmente interesantes y fruto de análisis avanzados incluídos en este módulo.

La primera es la probabilidad de que ese usuario no regrese nunca más al site o no vuelva a usar nunca más la app. La segunda, una estimación de la probabilidad de que el usuario termine realizando una conversión.

En la captura de pantalla figuran a cero porque en ese caso todavía no hay datos suficientes como para que el análisis arroje resultados significativos.

 

MARKETING AUTOMATION

Webtrekk

Configuración de una campaña

El último elemento del que vamos a hablar es el Marketing Automation. Basándose en segmentos (actividad en sesiones previas) o en el comportamiento en la sesión actual (tiempo real), podemos personalizar los contenidos mostrados, presentando al visitante banners con ofertas más susceptibles de interesarle, capas con invitaciones a suscribirse o productos recomendados, entre otros tipos de personalización. Potente, fácil de usar y completamente integrado en la plataforma.

 

EN RESUMEN

Webtrekk constituye una plataforma muy completa, con grandes ideas bien implementadas. Y su potente herramienta de analítica digital es digna de ser tenida en cuenta en todos aquellos casos en los que las soluciones gratuitas se nos hayan quedado cortas y nos estemos planteando dar el salto a algo más “serio”.

Aunque nos proponemos seguir hablando de Webtrekk en futuras entradas del blog, os animamos a que nos digáis en los comentarios si hay algún aspecto en particular sobre el que os gustaría saber más.

Así fue nuestra charla de Mobile Analytics en México

11/07/2015 a las 01:50
Desayuno Charla Mobile Analytics en Mexico por Metriplica

“Mobile Analytics: Por donde comenzar” Charla que describe el paso a paso para iniciar la medición en nuestros canales móviles

Aprovechando nuestra creciente presencia en México, y como una manera de acercarnos más a representantes de diferentes marcas e industrias que cuentan con una importante presencia en digital, el pasado 9 de julio realizamos, en conjunto con Multiplica México, nuestra primera charla desayuno acerca de Mobile Analytics. No es ningún secreto que la experiencia de usuario en dispositivos móviles se vuelve cada vez más cotidiana y profunda, convirtiéndose en un factor decisivo para las estrategias de marketing digital en la actualidad, y es por ello que es clave entender cómo se puede medir el comportamiento de los usuarios en canales móviles.

Gaël Thomé, Director de Multiplica México, dio la bienvenida a quienes nos acompañaron, e introdujo al primer ponente de la mañana: Octavio Hernández. Su ponencia titulada “Innovación y Tendencias en mobile” estuvo enfocada en mostrar un breve pero completo panorama de la industria en mobile, para poder analizar su evolución y comprender su importancia actual.

En los últimos 5 años, la penetración de smartphones ha crecido un 500% en México, y según Google, hoy estamos viendo un aumento de un 26% en conversiones desde dispositivos móviles. Esto es muy importante, porque demuestra que los usuarios están completando cada vez más el ciclo de información – comparación – compra desde sus dispositivos. Además, es notable la preferencia de los usuarios por navegar sitios responsive frente a la opción de descargar una aplicación para poder interactuar y hacer transacciones con sus marcas preferidas.

Octavio Hernandez, nos comenta de la innovación y tendencias en mobile

Octavio Hernandez, nos comenta de la innovación y tendencias en mobile

A continuación, Richard Johnson, Director de Metriplica America ahondó en su charla titulada “Mobile Analytics, por dónde comenzar” la importancia de la analítica dentro de la experiencia móvil . ¿Cómo adaptar las estrategias de medición que se aplican normalmente en una web, a una experiencia mobile? Existen muchos caminos a explorar, y cada uno debe estar pensado en función de los objetivos más importantes de cada negocio y del perfil de sus consumidores.

Desayuno Metriplica

Más de 50 asistentes, representantes de bancos, telcos, universidades, retail, participaron del desayuno acerca de Mobile Analytics

Destacó que el recorrido que los usuarios hacen, se ha vuelto una experiencia integral multicanal y multidispositivo, y es crucial entender, medir y analizar cada uno de los pasos para asegurar el éxito de toda estrategia de marketing digital. Tener una visión completa del desempeño de cada uno de los canales de adquisición, las interacciones dentro de los sitios web y el e-commerce, y del valor de cada uno de los objetivos es la base para definir las acciones que transforman a una marca en líder entre las diversas opciones con presencia en digital.

Desayuno Metriplica 3

Verónica Traynor y su charla titulada “Claves para una experiencia de compra móvil perfecta”

Para cerrar el ciclo de ponencias, Verónica Traynor, Directora de MultiplicaLab, habló de la experiencia del usuario desde el punto de vista de la forma en que las plataformas responden (y escuchan) a sus necesidades y cómo esto puede significar la diferencia entre construir una base fiel de clientes u ofrecer una experiencia frustrante. ¿Cuántas veces hemos querido comprar algo en línea, pero encontramos un obstáculo infranqueable que nos hace arrepentirnos y volver por donde veníamos?

No debemos olvidar que nuestras plataformas digitales deben estar diseñadas conforme a las necesidades del usuario, simplemente porque ofrecer una interfaz sencilla, práctica y efectiva siempre va a redituar en un mayor número de transacciones y de clientes felices. El diseño y desarrollo de sitios y tiendas en línea debe ser siempre un ejercicio de retroalimentación y escucha activa, que debe reflejarse también en el servicio al cliente.

Disfrutamos mucho nuestro primer evento de Analítica Web en México y agradecemos a cada uno de los más de 50 asistentes su participación que contribuyó a que fuese todo un éxito. 🙂

¿Cómo valorar un cambio si cometiste el error de no hacer un test?

29/05/2015 a las 08:30

 

 

test_1

 

No nos engañemos, la única manera fiable de verdad de poner a prueba un cambio en nuestro sitio web o nuestra app para móvil es realizar un test (A/B o multivariante).

Supongamos que queremos cambiar el formulario para suscribirse a la newsletter, o la ubicación o el diseño del botón de añadir un producto al carrito.  Lo que se busca es optimizar, lograr que la tasa de conversión del objetivo que se alcanza a través de ellos aumente (lograr suscripciones o la adición de productos a la cesta de la compra en nuestros ejemplos).

Claro, tanto en la tasa de conversión como en el resto de métricas hay muchos factores que influyen: estacionalidad, campañas, tendencias a largo plazo debidas a la situación del mercado, etc. Pero los test nos permiten aislarnos en gran medida de todo eso. El desempeño de la versión original y los cambios a probar se va medir durante el mismo periodo y bajo las mismas circunstancias. A igualdad de condiciones, se puede decir que el factor determinante será el elemento que estamos poniendo a prueba.

Durante el tiempo que dure el test, a los diferentes visitantes que vayan llegando les iremos mostrando, o bien la versión original o la/s variante/s.

Hay muchas otras, pero la herramienta para hacer tests que incorpora Google Analytics se llama “Experimentos de contenido” y puede encontrarse en el apartado de “Comportamiento” de los informes.

 

test_2

 

Pasado un tiempo, si el experimento estaba bien planteado, obtendremos el resultado: es decir, si la alternativa propuesta supone una mejoría con respecto al original (y en qué medida) o no.

 

test_3

 

Perfecto, esta es la manera correcta de hacer las cosas. Pero es más frecuente de lo que quisiéramos encontrarnos en la situación de que se nos pida analizar un cambio en un sitio web o una app cuando éste ya se ha hecho, sin ofrecernos la oportunidad de hacer un test.

Es una situación complicada y hay que tomar ciertas precauciones para no llegar a conclusiones equivocadas. De hecho, es probable que nuestro análisis no sea concluyente.

Cosas a tener en cuenta:

 

 No debemos iniciar el análisis con ideas preconcebidas.

Por muy claro que veamos que el nuevo diseño o ubicación es mejor que el anterior, por muchos estudios que apoyen que tal o cual color incita a la acción más que otro, nunca hay que dar por hecho que el cambio va a funcionar mejor (ni lo contrario). Corremos el riesgo de “torturar” los datos hasta que nos digan lo que queremos oír, sea o no sea verdad.

 

 Hay que elegir bien cómo vamos a valorar el cambio.

No hay que basarse en valores absolutos (número de conversiones totales), sino en la tasa de conversión. Y ésta, segmentando las sesiones de modo que solo tengamos en cuenta aquellas que han llegado a ver el elemento que ha sufrido el cambio. Si no, estará entrando también en la ecuación el hecho de que pueda haber aumentado o disminuido el número de usuarios que llegan hasta la página en cuestión.

Por ejemplo, si estamos analizando el desempeño del nuevo botón “agregar al carrito” con respecto al viejo, y menos usuarios están llegando a las fichas de producto porque nuestra nueva colección no está gustando, evidentemente, si calculamos la tasa de conversión con respecto a todas las visitas, está bajará y no será por culpa del botón. Debemos aplicar un segmento que sólo tome en cuenta las sesiones que incluyeron la página de producto, en este caso.

 

Se debe buscar un cambio claro en el valor del indicador y  que coincida en el tiempo con el cambio en la web o en la app.

No hay que comparar el valor del indicador elegido en un periodo previo al cambio con el valor del mismo indicador en un periodo posterior. Eso nos puede llevar a engaño. Veamos un ejemplo:

test_4

 

A mediados de mes se cambió el elemento analizado. Si calculamos la tasa de conversión media de la primera quincena y la comparamos con la tasa de conversión media para la segunda, el resultado de la comparación nos dirá que antes del cambio la tasa de conversión era mayor. Es cierto, pero no es por culpa del nuevo botón/diseño de formulario/etc.  Lo único que se le podría echar en cara es que no fue capaz de frenar la caída. Pero no nos engañemos, una tendencia motivada por poderosas razones, como una estacionalidad natural y pronunciada, difícilmente la podrá enmendar (o estropear) un cambio de color en un botón.

Si hay estacionalidad, la eliminaríamos si comparamos el periodo con su equivalente en el año anterior. Pero seguirá habiendo otros factores que justifiquen un incremento o un descenso en el indicador.

¿Qué podríamos pensar si realizamos esa clase de análisis en esta otra situación?

 

test_5

 

Evidentemente, la tasa de conversión es superior tras el cambio, pero la tendencia venía de más atrás.

Podemos ampliar el periodo analizado lo que queramos, pero lo único que veremos será tendencias a más largo plazo debidas a causas totalmente ajenas al cambio que estamos valorando.

¿Qué nos podría indicar que el cambio introducido ha supuesto una mejora? Un cambio abrupto como éste:

 

test_6

 

Una vez confirmado que ese mismo día no hubiera otros factores que pudieran haber influido (otros cambios, el lanzamiento de un nuevo producto muy deseado y más añadido al carrito que la media…), podemos sentarnos a analizar lo que la gráfica nos muestra.

Es cierto, había una tendencia a la baja que se mantiene, pero el cambio analizado introdujo un incremento brusco del indicador, justo ese día,  a partir del cual la tendencia sigue su curso.

El nuevo formulario (o el nuevo botón, o lo que sea) parece funcionar mejor. La tasa de conversión fluctuará debido a la presencia de campañas o la falta de ellas, de cambios en nuestro catálogo, tendencias estacionales, etc. pero sobre un punto de partida un escalón por encima gracias a la optimización lograda por el cambio.

Este último ejemplo es muy claro y evidente, pero no siempre va a ser así. Insistimos en que el análisis de un cambio a posteriori es el último recurso y que siempre hay que tratar de realizar tests. Es más sencillo de lo que parece y sus resultados son siempre más fiables y concluyentes.

Y si os habéis quedado con ganas de saber más sobre cómo hacer un test en Google Analytics, cuando Google lanzó esta funcionalidad ya le dedicamos un artículo en el que explicábamos cómo usarla. Aunque la ubicación exacta y la interfaz mostrada en las capturas de pantalla han cambiado algo, la forma de crear el test es básicamente la misma. Para más detalles, te animamos a leerlo:

http://www.doctormetrics.com/2012/06/21/content-experiment/

También puedes dejarnos tus dudas sobre esta materia en los comentarios.

Midiendo la usabilidad de forma cuantitativa

23/05/2012 a las 12:25

El concepto usabilidad lo podemos entender como, la medida entre la interacción ideal y la real con la que se desenvuelve nuestro público objetivo.
En los inicios de internet esos dos tipos de interacciones (ideal y real) aunque diferían mucho, no eran un gran hándicap para un usuario “paciente”, dada la novedad que ofrecía un canal web con posibilidades ilimitadas. Simplemente solventando errores en el diseño de las webs se conseguían doblar sus ratios de conversión.
Actualmente esa época ha pasado y un site usable es el precio que hay que pagar para ya no convertir, sino reducir el bounce rate y no perder a los usuarios en el primer contacto con la web. Y es que el usuario actual es “impaciente” por naturaleza, siendo 5 segundos la espera media de carga de una página antes de abandonar un site.
Así lo denota uno de los gurús a lo que usabilidad se refiere, Jakob Nielsen, cuando menciona que el usuario actual ha pasado de navegar por los menús de forma secuencial y pausada, a buscar escaneando frenéticamente una web en pocos segundos.

Revista

Hoy en día son más las empresas que teniendo un buen producto, no convierten por una mala usabilidad de su site, que a la inversa.

Lo ideal sería no tratar de corregir los problemas de usabilidad, sino sacar el máximo potencial a nuestros productos apoyándonos en una web excelente a nivel experiencia de usuario.

¿Cómo conseguirlo?

Un buen diseño no es sólo un proceso creativo

El buen diseñador y/o arquitecto es aquel que tras pensar cuál es la mejor manera de construir, por ejemplo, un proceso en una web, no se queda satisfecho con su opinión sino que trata de contrastarla con la percepción del usuario final.

Y es que al final el trabajo de  un experto no deja de ser una opinión, que aunque mucho más contrastada, sigue siendo una hipótesis de lo que el usuario final realmente prefiere. Es por ello que se hace necesario, además del proceso creativo de diseñar la mejor opción, aplicar por ejemplo un test de usuarios, para corroborar que será una buena opción para el usuario final. Por tanto, sumamos la tan necesaria parte científica al método.

Test de usuarios antes de lanzar una web ¿y después?

Realizando este tipo de pruebas antes de publicar en real una web, nos asegura que la interacción que hemos diseñado para nuestro site evitará grandes problemas pero, ¿al 100%?

La respuesta es no, dado que una vez subida la web en real los usuarios se comportan de forma diferente debido a sus condiciones o restricciones a nivel de: navegador, conexión, intención, resolución, etc… Al final las pruebas realizadas antes del lanzamiento no dejan de ser una pequeña muestra, un segmento importante de usuarios pero, no suficiente para evitar problemas que se verán una vez la web esté “live”

Todo esto nos lleva a la conclusión que una vez colgada la web, necesitamos recoger la información del comportamiento de los usuarios, para ir corrigiendo estos problemas e ir mejorando la relación entre el usuario y la interficie.

Para tratar de cuantificar estos problemas y mejorar la usabilidad, disponemos de diferentes armas: las herramientas de analítica web tradicionales (WA: Web Analytics), las específicas para determinar la interacción (WIA: Web Interaction Analytics) y las utilizadas para probar alternativas de mejora (Testing) como más destacadas.

Midiendo la usabilidad con herramientas cuantitativas

Con el objetivo de mejorar la interacción de usuarios con nuestro site y hacer que conviertan más, podemos utilizar tres tipos de herramientas que nos ayudarán de forma cuantitativa a identificar problemas a nivel usabilidad.

En primer lugar las herramientas de Web Analytics (WA) nos dicen “Qué está pasando” y permiten identificar y priorizar en qué zonas de nuestra web están sucediendo los problemas y cómo influyen estos obstáculos en la conversión de un site. De todos es conocido Google Analytics, ComScore Digital Analytix, Coremetrics, AT internet como ejemplo de las mismas.

Una vez hemos identificado dónde concentrar nuestros esfuerzos, debemos tratar de conocer al máximo los problemas con la interacción. Aquí es donde entran en juego las Web Interaction Analytics (WIA) para enseñarnos dónde hacen o no hacen click nuestros usuarios, cómo mueven el ratón, qué uso hacen del scroll, hasta donde llegan en la visión de página, cómo se comportan en un proceso usuario a usuario, etc… En resumen, estas herramientas determinan el “Cómo lo hicieron” tanto a nivel página, como a nivel proceso, de forma agregada o segmentada y sobre todo, de forma individualizada para observar comportamientos únicos de usuarios reales.

Podemos resumir el uso de estas herramientas, mencionando los problemas de usabilidad más comunes que tratan de resolver:

1)     Invisibilidad de elementos claves

2)     La interacción no se produce como se tenía pensado

3)     No se introduce o proporciona la información correctamente por parte del usuario

4)     Los usuarios se comportan de forma imprevisible

Las herramientas disponibles al respecto las podemos dividir entre las que necesitan de un hardware más un software (ej: Eye tracking Tools), y las que con sólo con esto último ya funcionan. Nos concentraremos en el segundo grupo al ser aptas para cualquier bolsillo.

Como ejemplo tenemos Userfly, Crazy Egg, Seevolution, etc. resaltando de entre todas ellas Click Tale por tener todas las funcionalidades al respecto integradas.

Por último, una vez conocido cómo interactuó el usuario, y por tanto, porqué se produjo el problema, pasaríamos a la fase de mejora construyendo una alternativa.

Imaginemos que con la analítica web identificamos una página con un alto grado de abandono y con las herramientas de WIA observamos que los usuarios no veían el botón de comprar. Ahora sería el momento de construir una página alternativa con un botón comprar mucho más visible que antes. ¿Fin del proceso?

Otra vez la respuesta es no, dado que si subiéramos directamente esa alternativa,  no podríamos acabar de constatar si esa nueva página ha ayudado a bajar el abandono o es otro el factor que afectaba en el pasado y ahora no lo hace (llámese campaña, promoción, error en servidor, etc.) ¿Qué podemos hacer?

Aquí es donde entra en juego las herramientas de testing online (no confundir con los test de usuarios). Su funcionamiento es bastante simple, mantienen online tanto la página alternativa como la página a mejorar y la enseñan aleatoriamente a una muestra o a otra. De esta forma calculan el ratio de conversión para cada versión, manteniendo las mismas condiciones para ambas. Aquí herramientas como Google Website Optimizer, Optimizely, Test & Target serían un ejemplo.

Realmente el uso tanto de este último grupo de herramientas de testing como el de web analytics tools, no es exclusivo para la mejora de la usabilidad, pero hemos querido resaltar el proceso a seguir para la mejora de este ámbito.

Herramientas para medir la interacción ¿desconocidas?

Usaremos los problemas sobre usabilidad listados anteriormente, para englobar alguna de las funcionalidades  que las herramientas de WIA ofrecen para resolverlos.

1)     Invisibilidad de elementos claves

En este caso para determinar si una zona o elemento de una página se ve o no, podemos hacer un análisis del scroll para determinar hasta que punto de una página el usuario bajó o dejó de leer. En la imágenes podemos ver un ejemplo de ello, cuanto más oscuro más gente llego a ver esa parte de contenido.

Revista

Podemos complementar este análisis midiendo el número de segundos que permaneció a cada altura de la página, manteniéndose la lectura por colores.

Revista

2) La interacción no se produce como se tenía pensado

Para saber si se hace click donde se tenía pensado (sea o no sea un link) existen los denominados mapas de calor o heatmaps. Siguen la misma leyenda de colores que antes, siendo aquí el oscuro mayor intesidad de click. El valor de estos heatmaps se encuentra al segmentarlos según comportamientos o características de los usuarios, de esa manera podemos identificar promociones desenfocadas o erróneas.

Revista

3) No se introduce o proporciona la información correctamente por parte del usuario

En este caso la funcionalidad estrella es el análisis de formularios, para no solo cuantificar quién lo completo, sino qué campos se evitaron, cuánto tiempo se tardó por cada campo, los que no completaron el formulario en que campo se quedaron, etc, etc

Revista

4) Los usuarios se comportan de forma imprevisible
Tener la posibilidad de poder grabar cada una de las visitas de una web para tratar de verlas todas después, más parece un tortura que una ventaja. El concepto cambia cuando podemos seleccionar un colectivo en concreto para hacer esto, por ejemplo, usuarios que tuvieron un error determinado, personas que se quedaron a 1 paso de la compra, visitas que tuvieron problemas con la pasarela de pago…
Poder seleccionar y visualizar una muestra de visitas, nos hace disponer de un test de usuarios con tráfico real y por tanto con intención real de compra.

Revista

Medir pero ¿hasta qué punto?
Como conclusión podemos decir que en la actualidad, y como hemos comprobado, el problema no reside en la falta de herramientas que nos ayuden al análisis de la usabilidad sino a cómo saberlas utilizar de forma óptima, para no quedar esclavos de ellas horas y horas, pero eso da para otro artículo…

Partners Certificados de ClickTale

01/03/2012 a las 14:23

Estamos muy contentos de poder anunciar que ¡somos Partners Certificados de ClickTale!, el proveedor líder mundial en Customer Experience Analytics.

Somos el único Partner que hay en España y empresas como Lenovo, Booking.com, Hallmark, Danone, Mint…se encuentran entre sus clientes que suman más de 65.000 por todo el mundo.

La Personalización: hacia una nueva experiencia de usuario

23/05/2011 a las 18:34

Hace unos meses comenzamos a hablar de la personalización de los sites. Sin embargo, lo hicimos desde un punto de vista del usuario, y más concretamente, desde el punto de vista del usuario soñador. La analogía que hemos usado hasta este momento era la del cliente que va todos los días al mismo bar y siempre pide lo mismo: este cliente espera que más temprano que tarde el camarero no le pregunte qué quiere tomar. Bien, ha llegado el momento de poner las cartas sobre la mesa. En este post vamos a dar el punto de vista del consultor que entre sus servicios ofrece los de consultoría en segmentación y personalización.

¿Cómo podemos definir la personalización?

Qué tener en cuenta a la hora de lanzar un test con Optimizer I

20/12/2010 a las 13:01

Iniciamos esta semana una serie de post sobre errores comunes que se suelen cometer a la hora de lanzar un test de Optimizer.

El objetivo es que antes de lanzar un test, estemos seguros de que la configuración es la adecuada y por tanto los datos del test serán válidos.

1 problema: Voy a instalar Optimizer y mi página tiene Analytics

Si bien en la mayoría de los casos, la instalación de Google Analytics y Google Optimizer no presenta problemas y se limita a copiar el tag de optimizer tras el de analytics, existe una situación que es bastante problemática (y cada vez más frecuente) y se produce cuando en el tag de analytics hemos usado el método _setDomainName (“<nombre dominio>”).

Este método es usado cuando  nuestro site está formado por múltiples subdominios como por ejemplo: tienda.midominio.com, blog.midominio.com, www.midominio.com. y permite que las cookies de Google Analytics no se borren cuando un usuario navegue a través de los diferentes subdominios.

El problema es que Google Analytics y Google Optimizer comparten una serie de cookies, entre ellas la que permite identificar al usuario para, en caso de que vuelva posteriormente a la página donde llevamos a cabo el experimento, podamos ofrecerle la misma versión.

Si colocamos el tag de Optimizer estándar en una página donde tenemos un tag de Google Analytics modificado con el _setDomainName, lo que nos pasará es que algunas de las cookies creadas por Analytics, serán borradas por el Optimizer y viceversa. En la práctica, esto implica que un usuario que llegue a la página donde llevamos a cabo el test verá una versión diferentes cada vez que recargue la página (o realice una visita posterior).

Además cada vez que entre a la página de test, el usuario será considerado como nuevo por lo que lo contaremos varias veces estropeando los datos del test.

Solución:

Para evitar este problema tendremos que hacer 2 modificaciones al tag de optimizer.

  1. Situar el siguiente script  antes del script de control

    <script>
    
    _udn=".midominio.com";
    
    </script>
    
    
  2. Añadir la siguiente línea a los códigos de seguimiento y conversión
    gwoTracker._setDomainName(".midominio.com");

A continuación muestro un ejemplo de cómo podría quedar un tag:

var gwoTracker=_gat._getTracker("UA-XXXXXXXX-X");

gwoTracker._setDomainName(".midominio.com");

gwoTracker._trackPageview("/YYYYYYYYYY/test");

Con esta simple solución, nos aseguramos que nuestro experimento funcionará correctamente con un Analytics preparado para realizar un seguimiento multidominio.

Igualmente, esta solución se puede aplicar para realizar implementaciones de Optimizer donde, por ejemplo, la página de destino o conversión se encuentra en otro subdominio.

En próximas entregas seguiremos comentando elementos que debemos tener en cuenta a la hora de preparar un experimento, mientras tanto, si te estas peleando con un experimento y quieres comentarnos tu caso, te animamos a que nos escribas un comentario.

Un saludo y felices fiesta a todos

Dr. Optimizer.

Test A/B en múltiples subdominios con GWO

07/10/2010 a las 12:27

Hace unos meses, me encargaron realizar un test sobre la home de un site. La particularidad del test residía en que la página alternativa estaba alojada en un subdominio diferente por ejemplo, si la home se encontraba en www.midominio.com la página alternativa a probar se encontraba en subdominio.midominio.com.

En teoría, un test A/B con Google Optimizer  solo se puede aplicarse a páginas en un mismo dominio, de hecho si ponemos las páginas anteriores en la configuración del experimento, nos saldrá un error indicando que las páginas se encuentran en dominios diferentes.

Por tanto,¿Cómo podemos realizar un test A/B cuando las páginas no están en diferentes subdominios?

Paso 1. Dando de alta el experimento

Lo primero que haremos será crear un test múltiple, dónde la página a testear será la url de la página original, en nuestro caso la home: www.midominio.com.

La página de conversión será la página que hayamos definido para contabilizar una conversión, en mi caso era finalizar una compra y quedaría: www.midominio.com/gracias.php

Paso 2. Insertando los código

Una vez que hemos dado nombre al experimento, pasamos a la introducción de los códigos. En principio para realizar un experimento con Google Optimizer hacen falta poner 4 códigos:

  • El código de control, que se encarga de decidir que página se muestra al visitante y “recordar” la elección en el caso de que el visitante vuelva otro día.
  • El código de seguimiento, que se encarga de llevar la cuenta de los visitantes que visualizan las páginas que testeamos
  • El código de conversión, que se encarga de llevar la cuenta de cuantos visitantes han visto la página de conversión
  • Por último, tenemos el código de sección, que para este experimento no usaremos.

Los 3 primero códigos, el de control, seguimiento y conversión se deben poner en la página tal y como indican las instrucciones de Optimizer.

Es en el código de sección cuando tendremos que realizar nuestra personalización, en principio ignoraremos las instrucciones de Optimizer con respecto a las secciones y copiaremos el siguiente código a continuación del código de control

 

 

<!-- utmx section name="Test URL" -->
<script>
var b = utmx('variation_content', 'Test URL');
function filter(v) {
var u = v[0].contents;
if (b && u.substr(0,7) == 'http://' && b.substr(0, 7) != 'http://')
{
u = u.substr(7);
}
return u;
}
utmx('url', 'Test URL', 0, filter);
</script>

Este código, nos permitirá introducir la url de nuestra página alternativa en el siguiente paso, como si de una variación se tratase.

Paso 3. Creando las variaciones

En la siguiente pantalla de optimizer, se nos mostrará la sección recién creada (TestURL) y se nos ofrecerá la posibilidad de crear las alternativas a probar.

Lo que tenemos que hacer es crear una nueva alternativa e introducir como código la url de la página a testear, es importante que no haya espacios en blanco y que la url solo esté en una línea por ejemplo, yo tendría que poner:

http://subdominio.midominio.com

Una vez creada la alternativa podemos guardarla y realizar una pre visualización para asegurarnos que todo funciona correctamente.

Paso 4. Antes de lanzar el experimento, hay que preparar las cookies

Como saben Google Optimizer utiliza una serie de cookies para establecer la página del experimento que debe mostrar a un usuario e identificarlo en posteriores visitas. Las cookies se crear para un dominio concreto si yo no indico lo contrario, por lo tanto con el tag “estándar” las cookies se crearían solo para  www.midominio.com.

Dado que nuestro test abarca varios subdominios, es necesario ajustar el tag para que las cookies valgan tanto para www.midominio.com como para subdominio.midominio.com .

Las modificaciones que tenemos que hacer son:

Antes del control script, tenemos que situar la siguiente línea:

<script>

_udn=".midominio.com";

</script>

En el tag de seguimiento y en el tag de conversión debemos añadir la siguiente línea:

gwoTracker._setDomainName(".midominio.com");

Un ejemplo de cómo quedaría sería:

<!-- Google Website Optimizer Tracking Script-->

<script type="text/javascript">

if(typeof(_gat)!='object')document.write('<sc'+'ript src="http'+

(document.location.protocol=='https:'?'s://ssl':'://www')+

'.google-analytics.com/ga.js"></sc'+'ript>')</script>

<script type="text/javascript">

try {

var gwoTracker=_gat._getTracker("UA-XXXXXXXX-X");

gwoTracker._setDomainName(".midominio.com");

gwoTracker._trackPageview("/YYYYYYYYYY/test");

}catch(err){}</script>

Y listo, una vez hecho lo anterior, ya estamos preparados para lanzar el test.

Paso 5. Lanzar el experimento

Por último, escogemos el porcentaje de tráfico que queremos dirigir al experimento y lanzamos el experimento.

Otros usos de este experimento

Un experimento que se puede realizar con esta metodología, es la de probar sites enteros es decir, imaginemos que re diseñamos nuestro site y antes de ponerlo online queremos verificar que efectivamente es mejor que el anterior en términos de conversión.

Si la mayoría de nuestras visitas entran por una página concreta (la home por ejemplo) podemos realizar un experimento en el que al usuario se le mantiene en la home “antigua” o se le envía a la home “nueva”  (entendiendo que si entra en la home nueva, seguirá navegando por el nuevo site).

Situando el código de conversión en la misma página en ambos sites (por ejemplo, en el agradecimiento de compra del site original y alternativo) estaré midiendo cuan bueno es el nuevo site con respecto al antiguo y por tanto decidir si realmente conviene cambiarlo.

Espero que este post te haya resultado útil y como siempre, te animo a que compartas tus experiencias y dudas con nosotros.

Dr. Optimizer.

De esta manera, podemos verificar

Se advierte al usuario del uso de cookies propias y de terceros de personalización y de análisis al navegar por esta página web para mejorar nuestros servicios y recopilar información estrictamente estadística de la navegación en nuestro sitio web. Política de cookies Acepto