Tags populares:

Primer contacto con Yandex Metrica

27/07/2015 a las 12:41

Había oído hablar hace bastante de Yandex y de su su herramienta de analítica (Yandex Metrica), al igual que de su herramienta de PPC (Yandex Direct) parecida a Adwords o Bing Ads, pero no había pasado de la simple curiosidad hasta hace poco, que me dio por echarle un ojo más detenidamente para ver que tal era, y ahora os cuento un poco.

Lo primero de todo es tener tu cuenta de mail de yandex.com, al igual que pasa con Google Analytics, necesitas una cuenta del propio buscador para poder acceder a sus herramientas. Esto no tiene más dificultad que irte a yandex.com y abrirte una cuenta. Hay que recordar que Yandex es el buscador ruso por excelencia.

 

yandex creacion cuenta

 

 

Una vez la tengamos vamos a metrica.yandex.com ya podemos crearnos nuestra cuenta de Yandex Metrica. Simplemente hemos de seguir las instrucciones y en un momento tendremos la herramienta implementada:

Completar los datos de nombre de dominio, nombre de la cuenta, zona horaria, si hay más de un dominio….

 

yandex general

 

 

Ir a counter code e introducir el código que nos dan en todas las páginas de nuestra web. Yo en este caso lo hice a través de GTM que me resultó más fácil.

 

yandex code

 

Después de unos pocos días de tener Yandex Metrica en mi site al entrar me encuentro esto:

 

DASHBOARDS

Lo primero que se te muestra al entrar en Yandex Metrica es un dashboard, un dashboard standard: users, new users, visitas por día, bounce rate medio, entradas por dispositivos, etc. Pero lo podemos customizar con los datos que más nos interese y que sea lo primero que veamos a la hora de entrar en nuestra cuenta.

 

yandex dashoboard 1

 

Para añadir algún widget más al dashboard tenemos dos opciones, o seleccionar en “widget library” donde ya tenemos varios widgets diseñados para implementar rápidamente.

 

yandex reate widget

 

O ir a “create a widget”, donde lo podemos crear widgets más personalizados. Por ejemplo al seleccionar un “pie chart” nos permite customizarlo de la siguiente manera:

 

yandex creacion widget

Por supuesto podremos crear diferentes cuadros de mando de acuerdo a nuestras necesidades.

 

REPORTS

La siguiente pestaña que nos encontramos es la de Reports o informes. Aquí nos encontramos con una serie de informes parecidos a los que nos encontramos en Google Analytics, aunque personalmente me gusta más la manera en la que están organizados en GA, aunque también puede ser porque estoy mucho más acostumbrado a ellos.

 

yandex reports

 

Además igual que en GA, podemos crear informes personalizados y usar segmentos.

Aquí en los informes podemos seleccionar el modelo de atribución (nos da tres opciones: primera visita, última vista, última visita con un clickthrough relevante).

 

yandex atrib

 

Dentro de los informes personalizados podemos elegir las dimensiones y métricas a mostrar en el informe al igual que los objetivos que queremos que aparezcan. Otra curiosidad es el checkbox que nos indica “Hide statistically insignificant data” y como lo podemos adecuar:

 

yandex insignificat data

 

 

MAPS

Aquí nos encontramos con la parte más destinada a la usabilidad de Yandex Metrica, pues tenemos diferentes informes que nos pueden resultar útiles:

  • Link map: mapas de calor basados en los enlaces que más se clickan:
    yandex form map
  • Click map: los mapas de calor basados en donde se hace click.
  • Scroll map: Mapa de calor que nos muestra hasta donde se hace scrollyandex scrollmap
  • Form Analysis: es una herramienta diseñada para sitios que utilizan activamente los formularios . De contacto, leads, … . El informe de Form Analysis ayuda a entender exactamente cómo los usuarios del sitio interactúan con los formularios.La herramienta está disponible con dos tipos de visualización de datos : Form Conversion Rate  y Form fields.
    • Form Conversion Rate muestra :
      – el número de visitas a la página que contiene el formulario;
      – el número de interacciones con el formulario;
      – el número de formularios enviados.yandex form analytics
    • Form Fields contiene la siguiente información:
      – tiempo dedicado a la interacción en cada campo del formulario.
      – campos sin rellenar del formulario.
      – campos desde los cuales los usuarios han salido de la página sin enviar el formulario.yandex form analisis

Estos informes nos pueden ayudar rápidamente a ver que tal funcionan los formularios: si estamos pidiendo más datos de los necesarios (los usuarios rellenan ciertos campos y luego se van), si hay algún campo que da problemas (fecha de nacimiento DD/MM/AAAA o AAAA/MM/DD o MM/DD/AAAA), …

 

WEBVISOR

Webvisor permite analizar el comportamiento de los usuarios reproduciendo las acciones del usuario exactamente como ocurrieron, para ver lo que sucede en cada página y cómo los usuarios navegan , hasta todos los movimientos del ratón , uso de las teclas  y donde se hace click.

 

yandex webvisor2

 

SETTINGS

Esta pestaña nos muestra lo que vendría a ser el panel de administrador de GA. Aquí tenemos diferentes opciones:

General: Donde nos encontramos el nombre del contenedor de Yandex Metrica, los dominios, zona horaria, etc (lo que vimos al crear nuestra cuenta)

Counter Code: El código a implementar en nuestro site, con una serie de opciones que podemos seleccionar:

Webvisor: Donde activamos la herramienta de Webvisor (que hemos comentado anteriormente).

 

yandex webvisor


Goals:
Aquí definimos los objetivos de nuestro site. Tenemos varios:

  • Número de páginas vistas
  • Page URL
  • Event
  • Multi-step Goal

yandex goals

 

Filtros: que como podemos ver es bastante más simple y con menos opciones que las que podemos encontrar en GA.

 

yandex filters

 

 

Esta es una pequeña introducción a Yandex, si os animáis a probarlo ya nos diréis vuestras opiniones, aún me falta experimentar más con el pero me parece que puede ser un complemento interesante a Google Analytics.

Implementación de User id con Google Tag Manager

21/07/2015 a las 15:11

Mucho se ha hablado este último año de la importancia del uso del user id y de todos los beneficios que podemos conseguir con su correcta utilización. Podemos, por ejemplo, obtener un recuento de usuarios más preciso y fiable o crear nuevas campañas de marketing, adaptadas a las distintas combinaciones de dispositivos e interacciones de los usuarios.

Y esto está muy bien pero ¿Cómo podemos implementarlo para aprovechar sus ventajas en nuestra herramienta de analítica web?

Existen diversos métodos para capturarlo, pero hoy hablaremos de la implementación con Data Layer Variable. Que nadie se asuste porque es más sencillo de lo que puede parecer a priori.

  1. Necesitamos añadir al código de nuestra página el dataLayer. Es importante que el código esté antes del código de Google Tag Manager porque sino es así GTM accederá a las variables antes de que estén creadas y nos devolverá error.

Captura de pantalla 2015-07-21 a las 9.48.42

  1. Ok, una vez listo el código vamos a nuestra cuenta de Google Analytics porque es necesario configurar el user-ID. Accedemos a nuestra propiedad, hacemos clic en información del seguimiento y en User-ID.

Captura de pantalla 2015-07-21 a las 9.51.02

Seguimos los pasos que nos pide Google Analytics y ya tenemos creada una vista dentro de nuestra propiedad con los datos del userId. Recomiendo poner a la vista un nombre fácil de identificar.

3

  1. Una vez configurado en Google Analytics nos vamos a Google Tag Manager y aquí empieza la diversión:-)

Creamos una variable personalizada tipo dataLayer y colocamos en Data Layer Variable Name justo el mismo nombre que aparece en nuestro código. En este caso sería userId.

Captura de pantalla 2015-07-21 a las 9.52.56

  1. El siguiente paso es ir a la etiqueta que ya tenemos creada de Google Analytics y configurar la variable. Quedaría algo como esto:

Captura de pantalla 2015-07-15 a las 13.20.43

Realizamos un preview y comprobamos que el dato se está capturando. Si todo está ok publicamos la versión del contenedor, solamente nos quedaría crear una dimensión personalizada para enviar el dato a Google Analytics. De esta forma podremos cruzarlo con otros datos en una vista normal, y no solamente tener los datos en la vista especial creada al principio de User-id.

¿Y cómo vemos estos datos en nuestros informes de Google Analytics?

Lo primero que tenemos que hacer es crear una dimensión personalizada desde el Administrador de Google Analytics:

5

Captura de pantalla 2015-07-15 a las 13.23.07

Una vez creada vamos a Google Tag Manager y en el Tag de Google Analytics añadimos una dimensión personalizada con el nombre userId.

Captura de pantalla 2015-07-15 a las 13.23.45

Comprobamos que está correcto mediante preview, publicamos contenedor y ya estaría listo.

Para finalizar, volvemos a los informes de Google Analytics y mediante una dimensión secundaria o un informe personalizado…ahí tenemos los datos de nuestros usuarios logueados.

Captura de pantalla 2015-07-15 a las 13.24.26

Una vez que tenemos activo nuestro user id podemos empezar a jugar con los datos y, por ejemplo, crear una dimensión personalizada con usuarios registrados vs. no registrados.

¿Ya lo han implementado en su web?

 

 

 

Así fue nuestra charla de Mobile Analytics en México

11/07/2015 a las 01:50
Desayuno Charla Mobile Analytics en Mexico por Metriplica

“Mobile Analytics: Por donde comenzar” Charla que describe el paso a paso para iniciar la medición en nuestros canales móviles

Aprovechando nuestra creciente presencia en México, y como una manera de acercarnos más a representantes de diferentes marcas e industrias que cuentan con una importante presencia en digital, el pasado 9 de julio realizamos, en conjunto con Multiplica México, nuestra primera charla desayuno acerca de Mobile Analytics. No es ningún secreto que la experiencia de usuario en dispositivos móviles se vuelve cada vez más cotidiana y profunda, convirtiéndose en un factor decisivo para las estrategias de marketing digital en la actualidad, y es por ello que es clave entender cómo se puede medir el comportamiento de los usuarios en canales móviles.

Gaël Thomé, Director de Multiplica México, dio la bienvenida a quienes nos acompañaron, e introdujo al primer ponente de la mañana: Octavio Hernández. Su ponencia titulada “Innovación y Tendencias en mobile” estuvo enfocada en mostrar un breve pero completo panorama de la industria en mobile, para poder analizar su evolución y comprender su importancia actual.

En los últimos 5 años, la penetración de smartphones ha crecido un 500% en México, y según Google, hoy estamos viendo un aumento de un 26% en conversiones desde dispositivos móviles. Esto es muy importante, porque demuestra que los usuarios están completando cada vez más el ciclo de información – comparación – compra desde sus dispositivos. Además, es notable la preferencia de los usuarios por navegar sitios responsive frente a la opción de descargar una aplicación para poder interactuar y hacer transacciones con sus marcas preferidas.

Octavio Hernandez, nos comenta de la innovación y tendencias en mobile

Octavio Hernandez, nos comenta de la innovación y tendencias en mobile

A continuación, Richard Johnson, Director de Metriplica America ahondó en su charla titulada “Mobile Analytics, por dónde comenzar” la importancia de la analítica dentro de la experiencia móvil . ¿Cómo adaptar las estrategias de medición que se aplican normalmente en una web, a una experiencia mobile? Existen muchos caminos a explorar, y cada uno debe estar pensado en función de los objetivos más importantes de cada negocio y del perfil de sus consumidores.

Desayuno Metriplica

Más de 50 asistentes, representantes de bancos, telcos, universidades, retail, participaron del desayuno acerca de Mobile Analytics

Destacó que el recorrido que los usuarios hacen, se ha vuelto una experiencia integral multicanal y multidispositivo, y es crucial entender, medir y analizar cada uno de los pasos para asegurar el éxito de toda estrategia de marketing digital. Tener una visión completa del desempeño de cada uno de los canales de adquisición, las interacciones dentro de los sitios web y el e-commerce, y del valor de cada uno de los objetivos es la base para definir las acciones que transforman a una marca en líder entre las diversas opciones con presencia en digital.

Desayuno Metriplica 3

Verónica Traynor y su charla titulada “Claves para una experiencia de compra móvil perfecta”

Para cerrar el ciclo de ponencias, Verónica Traynor, Directora de MultiplicaLab, habló de la experiencia del usuario desde el punto de vista de la forma en que las plataformas responden (y escuchan) a sus necesidades y cómo esto puede significar la diferencia entre construir una base fiel de clientes u ofrecer una experiencia frustrante. ¿Cuántas veces hemos querido comprar algo en línea, pero encontramos un obstáculo infranqueable que nos hace arrepentirnos y volver por donde veníamos?

No debemos olvidar que nuestras plataformas digitales deben estar diseñadas conforme a las necesidades del usuario, simplemente porque ofrecer una interfaz sencilla, práctica y efectiva siempre va a redituar en un mayor número de transacciones y de clientes felices. El diseño y desarrollo de sitios y tiendas en línea debe ser siempre un ejercicio de retroalimentación y escucha activa, que debe reflejarse también en el servicio al cliente.

Disfrutamos mucho nuestro primer evento de Analítica Web en México y agradecemos a cada uno de los más de 50 asistentes su participación que contribuyó a que fuese todo un éxito. :)

Enviar los datos de los test a una propiedad diferente en GA

07/07/2015 a las 09:52

En las tareas de implementación con gestores de tags, por muchas variables o fuentes de datos disponibles y a pesar de los intuitivos interfaces o las plantillas disponibles para la creación de tags, no hay mejor aliado que la previsualización de los cambios realizados.
Es recomendable o, más bien, indispensable pasar por este paso antes de lanzar algo en abierto y asegurarnos de que los nuevos eventos, hits o pixels se lancen correctamente y nada afecte al funcionamiento del site.

A raíz de estas prácticas de testing hemos percibido, en algunas ocasiones, la preocupación, por parte del cliente, de que este tipo de acciones puedan afectar a la medición de los datos en Google Analytics.

Teniendo claro que esto es una acción puntual y localizada en el tiempo y que, en los informes, estos datos se perderán como lágrimas en la lluvia, disponemos de métodos para evitar “manchar” nuestros datos de una manera automática y sencilla.

El gestor de etiquetas Tealium, por ejemplo, permite trabajar en diferentes entornos, de manera que puedes guardar tus cambios en un entorno de desarrollo y testear el site sobre él hasta asegurarte que todo está correcto.

La información que se muestra a continuación está disponible en la Comunidad de Tealium.

Los entornos disponibles en Tealium (Dev, QA y Prod, por defecto) son accesibles dependiendo del código insertado en nuestro site:

codigo

Es decir, dependiendo de la llamada a la librería utag.js, veremos la acción de los tags y extensiones guardados en cada entorno:

//tags.tiqcdn.com/utag/miCuenta/miPerfil/dev/utag.js
//tags.tiqcdn.com/utag/miCuenta/miPerfil/qa/utag.js
//tags.tiqcdn.com/utag/miCuenta/miPerfil/prod/utag.js

Además Tealium cuenta con una herramienta muy útil, el Web Companion, que te permite simular otros entornos en el propio site, independientemente de la llamada a la librería utag.js a la que hagas referencia en el código.

web_companion

Si desarrollamos nuestras nuevas etiquetas en los entornos QA o Dev, para verificar que el funcionamiento es el correcto, y no queremos “manchar” los análisis que recoge GA, la solución es disponer de una propiedad de GA diferente a la que enviar estos datos de prueba que generamos navegando por estos entornos de prueba.

Para identificar en que entorno nos encontrarnos en cada momento y mandar la medición a una u otra propiedad, deberemos seguir estos pasos:

  1. Crearemos dos nuevos Data sources, “tealium_environment” y “ga_account_id_standar”, el primero recogerá el valor del entorno en el que nos encontramos, mientras que “ga_account_id_standar” indicará que UA utilizaremos en cada caso.Pulsaremos sobre el botón “+Add Data Source” para añadir el primero.
    add_data_source
    data_source_TEnv

    Y los mismos pasos para “ga_account_id_standar”.data_source_ga_id
  2. Daremos un valor a “tealium_environment” creando una extensión del tipo “Set Data Values” con el siguiente código JS:
    utag.cfg.path.split(‘/’)[6];
    Que devolverá el valor del entorno sobre el que se está ejecutando Tealium (dev, qa, prod).extension1
  3. Añadiremos una nueva extensión del tipo “look-up table” para dar valores al data source “ga_account_id_standar”, dependiendo del entorno en el que nos encontremos.look-up_table

    Por supuesto podemos indicar, si lo necesitamos, distintas UAs para los entornos Dev y QA.
    Hay que tener en cuenta que esta extensión debe lanzarse después de la extensión en la que proporcionamos el valor a “tealium_environment”.
  4. Por último debemos mapear el “ga_account_id_standar” en el tag de Google Analytics, seleccionando como destino “Account (override default).Es decir, la cuenta que hayamos definido en nuestra tag de Google Analytics se sobrescribirá con el valor de la variable “ga_account_id_standar.mapeado1mapeado2

 

Esta misma operación se puede realizar de manera similar para el gestor de etiquetas de Google (GTM).
En un post del gran Simo Ahava tenemos una breve explicación de cómo se realizaría esto, pero vamos a ver los pasos con el nuevo interfaz de GTM.

  1. En primer lugar seleccionaremos la variable Debug Mode de entre las variables que nos proporciona GTM por defecto.variables_GTM
    Esta variable devuelve el valor “true” si el contenedor se está ejecutando en modo de “vista previa” o “preview mode” y “false” en caso contrario.
  2. Esto nos permitirá crear una variable del tipo “look-up table” que devolverá un valor diferente según si estamos en modo de vista previa o no.new_var

    look-up_table_GTM
  3. Por último, al crear nuestra etiqueta de Analytics, seleccionaremos esta variable en la configuración de nuestra ID de seguimiento:tag_GTM

De la misma manera que pasaba con Tealium, esto permitirá que las pruebas que realicemos de nuestras etiquetas en el modo de vista previa, se envíen a una propiedad de Google Analytics donde no tenemos los datos reales, evitando que aparezcan datos anómalos en nuestros informes que luego, con el paso del tiempo, no sepamos explicar.

Metriplica destaca su posición como Google Analytics Certified Partner en Chile

18/06/2015 a las 07:42

Allá por noviembre del año 2007, Metriplica aterrizaba en Chile como una de las primeras consultoras de analítica web del país, aprovechando la experiencia y conocimientos adquiridos en España, y con casos éxito en el brazo que nos brindaban la oportunidad de apostar por crear culturas de medición en empresas nacionales.

A más de ocho años de aquellos días, Metriplica bajo el alero de Multiplica en Chile, ha ido transformando toda esta experiencia en proyectos de analítica web de alta calidad, con las empresas más prestigiosas del país y en una múltiple variedad de industrias y sectores, donde hemos ido conociendo y aprendido la dinámica de negocios en telecomunicaciones tales como Movistar, Entel, o la banca con empresas tales como BCI, BancoEstado, Banco de Chile, CMR Falabella, o incluso el Retail con Paris.cl y Ripley.cl.

Hoy recordamos este compromiso con la calidad y esa experiencia que nos avala, celebrando en Santiago un año como oficina certificada en Google Analytics. Dicho de otra manera, Chile hace un año se unía a España como socios certificados en Google Analytics lo que nos ha permitido estar más cerca que nunca de los nuevos lanzamientos y proyectos de esta plataforma y traspasar todos los beneficios y la confianza de un Certified Partner a nuestros clientes.

Metriplica Chile como Google Analytics Certified Parner

Sin embargo, la certificación de nuestra oficina local como socio certificado de Google Analytics no es el primer reconocimiento que Metriplica ha obtenido en estos largos años de trabajo. En Marzo del año 2012 nos transformábamos en la primera consultora de hispanoamérica en implementar Google Analytics Premium para el mercado latinoamericano con LAN.com; hito de enorme importancia no solo para Metriplica sino también para la industria, confirmando que en Chile sí existe cabida para grandes y ambiciosos proyectos de analítica digital.

Todo lo anterior solo se hace posible con un equipo de consultores de clase mundial. Por ello es que todos y cada uno de los profesionales y analistas de Metriplica cuentan con la certificación individual de Google Analytics como requisito indispensable para ser parte del staff.

Nuestra oficina en Santiago, parte de Metriplica América, se consolida por lo tanto como una de las consultoras de mayor prestigio y experiencia en el país y en la región, garantizando a nuestros clientes, contar con el mejor equipo para el desarrollo de soluciones de analítica web de cualquier tamaño.

Puede consultar nuestra ficha como Google Analytics Certified Partner en Chile en: http://goo.gl/mQiqNa

Nuestra experiencia en el Google Analytics Summit 2015

16/06/2015 a las 07:29
Google Analytics Summit 2015

Google Analytics Summit 2015

Qué se puede comentar de un grandioso evento cuyos anuncios y lanzamientos eran todos y cada uno… totalmente confidenciales; pues hablar de ellos, sin mencionarlos :)

Pues esta edición del Google Analytics Summit 2015, brindó sorpresas de esas que en medio de la presentación generán varios “wow” y otras que generan un “por fin!”, y aunque hubiéramos querido poder tener la posibilidad de comentar cada una de estas sorpresas, no podemos irnos decepcionados.

Este 2015 por primera vez asistimos consultores tanto de Metriplica España y Metriplica America (esta última en representación de nuestras oficinas de Santiago y Mexico DF) y pudimos ser testigos de lanzamientos que en su conjunto, nos dan la seguridad de que año tras año vamos contando con una herramienta mucho más sólida, integrada y en línea con las necesidades de la industria.

Metriplica en el Google Analytics Summit 2015

Interesante mapa de visualización que mostraba el origen de cada consultor, su rol y su experiencia en los summit

 

Paul Muret, VP de Google Analytics, como ya es su costumbre daba el puntapié inicial a un primer día cargado de conferencias generales, sesiones específicas y mini workshop donde pudimos probar distintos demos de los lanzamientos que se iban haciendo a cada hora. Justin Cutroni, Analytics Evangelist de Google Analytics fue el anfitrión del evento, y logró un muy buen trabajo generando un hilo conductor entre cada conferencia que pasaba por el escenario. Una sesión interesante fue la entrevista a Daniel Waisberg, Analytics Advocate de Google quien presentó su libro Google Analytics Integrations, un excelente recurso para quienes están constantemente buscando opciones para “poder medir con GA” distintas herramientas y plataformas (tales como Facebook, eMail Marketing, etc.)

Fuera de los contenidos del evento, ¿cómo es vivir un Google Analytics Summit desde dentro? Para quienes somos Certified Partners significa conocer y compartir experiencias con consultores de todo el mundo, literalmente. Tuvimos el placer de conocer a una adorable consultora coreana (del sur) tan simpática como brillante, que nos deleitaba con sus anécdotas y nos comentaba cómo el publicar un libro de analítica web no solo la hizo conocida sino también levantó su negocio. O el consultor irlandés/australiano que nos compartía cómo estaba el mercado en la gran isla oceánica para el desarrollo de Double Click con Google Analytics.

Metriplica en el Google Analytics Summit 2015

En cena de networking con otros consultores GACP de todo el mundo

 

Como Metriplica, nos encontramos con consultoras amigas, tanto españolas como latinoamericanas, las que en medios de almuerzos y happy hours debatíamos cada una de las sesiones y lanzamientos. Es grato saber que como consultora Certified Partner en España, en Chile y próximamente en México, vamos por buen camino, que nuestros clientes pueden estar no solo tranquilos, sino también entusiasmados por las nuevas funciones de Google Analytics, y cómo estas podrán darle “turbo” a sus distintos proyectos de hacer que los datos potencien el negocio.

Metriplica con Nicolas Escudero de Google España  y Ander Jauregui

Metriplica con Nicolas Escudero de Google España y Ander Jauregui

En este 2015, Google Analytics cumple 10 años, fecha en la que el nuevo Google Analytics nos invitaba a migrarnos desde el viejo y querido Urchin, en un acto más que simbólico de la transición de logs a tags. A los 10 años, un niño comienza a realizar operaciones y conceptos de mayor complejidad, y es lo que justamente nos está permitiendo alcanzar Google Analytics, una mejor plataforma para abordar proyectos de medición en un mundo mucho más complejo, multidispositivo y donde la división entre lo online y offline, para nuestros clientes prácticamente no existe (o no les importa).

Google Analytics, a nuestro modo de ver después del Summit, es mucho mejor que hace un año y nos da la esperanza tanto a nosotros como nuestros clientes, de que contamos con una herramienta de clase mundial, madura y totalmente consciente de la velocidad que necesitamos para estar a la altura del nuevo usuario y consumidor 2.0

Estaremos atentos a los lanzamientos oficiales que presente Google, para poder finalmente compartir nuestra experiencia con cada uno de los demos que vivimos en persona y contarles cómo sacarles el máximo provecho… tal como lo hacemos después de cada Summit.

¿Cómo valorar un cambio si cometiste el error de no hacer un test?

29/05/2015 a las 08:30

 

 

test_1

 

No nos engañemos, la única manera fiable de verdad de poner a prueba un cambio en nuestro sitio web o nuestra app para móvil es realizar un test (A/B o multivariante).

Supongamos que queremos cambiar el formulario para suscribirse a la newsletter, o la ubicación o el diseño del botón de añadir un producto al carrito.  Lo que se busca es optimizar, lograr que la tasa de conversión del objetivo que se alcanza a través de ellos aumente (lograr suscripciones o la adición de productos a la cesta de la compra en nuestros ejemplos).

Claro, tanto en la tasa de conversión como en el resto de métricas hay muchos factores que influyen: estacionalidad, campañas, tendencias a largo plazo debidas a la situación del mercado, etc. Pero los test nos permiten aislarnos en gran medida de todo eso. El desempeño de la versión original y los cambios a probar se va medir durante el mismo periodo y bajo las mismas circunstancias. A igualdad de condiciones, se puede decir que el factor determinante será el elemento que estamos poniendo a prueba.

Durante el tiempo que dure el test, a los diferentes visitantes que vayan llegando les iremos mostrando, o bien la versión original o la/s variante/s.

Hay muchas otras, pero la herramienta para hacer tests que incorpora Google Analytics se llama “Experimentos de contenido” y puede encontrarse en el apartado de “Comportamiento” de los informes.

 

test_2

 

Pasado un tiempo, si el experimento estaba bien planteado, obtendremos el resultado: es decir, si la alternativa propuesta supone una mejoría con respecto al original (y en qué medida) o no.

 

test_3

 

Perfecto, esta es la manera correcta de hacer las cosas. Pero es más frecuente de lo que quisiéramos encontrarnos en la situación de que se nos pida analizar un cambio en un sitio web o una app cuando éste ya se ha hecho, sin ofrecernos la oportunidad de hacer un test.

Es una situación complicada y hay que tomar ciertas precauciones para no llegar a conclusiones equivocadas. De hecho, es probable que nuestro análisis no sea concluyente.

Cosas a tener en cuenta:

 

 No debemos iniciar el análisis con ideas preconcebidas.

Por muy claro que veamos que el nuevo diseño o ubicación es mejor que el anterior, por muchos estudios que apoyen que tal o cual color incita a la acción más que otro, nunca hay que dar por hecho que el cambio va a funcionar mejor (ni lo contrario). Corremos el riesgo de “torturar” los datos hasta que nos digan lo que queremos oír, sea o no sea verdad.

 

 Hay que elegir bien cómo vamos a valorar el cambio.

No hay que basarse en valores absolutos (número de conversiones totales), sino en la tasa de conversión. Y ésta, segmentando las sesiones de modo que solo tengamos en cuenta aquellas que han llegado a ver el elemento que ha sufrido el cambio. Si no, estará entrando también en la ecuación el hecho de que pueda haber aumentado o disminuido el número de usuarios que llegan hasta la página en cuestión.

Por ejemplo, si estamos analizando el desempeño del nuevo botón “agregar al carrito” con respecto al viejo, y menos usuarios están llegando a las fichas de producto porque nuestra nueva colección no está gustando, evidentemente, si calculamos la tasa de conversión con respecto a todas las visitas, está bajará y no será por culpa del botón. Debemos aplicar un segmento que sólo tome en cuenta las sesiones que incluyeron la página de producto, en este caso.

 

Se debe buscar un cambio claro en el valor del indicador y  que coincida en el tiempo con el cambio en la web o en la app.

No hay que comparar el valor del indicador elegido en un periodo previo al cambio con el valor del mismo indicador en un periodo posterior. Eso nos puede llevar a engaño. Veamos un ejemplo:

test_4

 

A mediados de mes se cambió el elemento analizado. Si calculamos la tasa de conversión media de la primera quincena y la comparamos con la tasa de conversión media para la segunda, el resultado de la comparación nos dirá que antes del cambio la tasa de conversión era mayor. Es cierto, pero no es por culpa del nuevo botón/diseño de formulario/etc.  Lo único que se le podría echar en cara es que no fue capaz de frenar la caída. Pero no nos engañemos, una tendencia motivada por poderosas razones, como una estacionalidad natural y pronunciada, difícilmente la podrá enmendar (o estropear) un cambio de color en un botón.

Si hay estacionalidad, la eliminaríamos si comparamos el periodo con su equivalente en el año anterior. Pero seguirá habiendo otros factores que justifiquen un incremento o un descenso en el indicador.

¿Qué podríamos pensar si realizamos esa clase de análisis en esta otra situación?

 

test_5

 

Evidentemente, la tasa de conversión es superior tras el cambio, pero la tendencia venía de más atrás.

Podemos ampliar el periodo analizado lo que queramos, pero lo único que veremos será tendencias a más largo plazo debidas a causas totalmente ajenas al cambio que estamos valorando.

¿Qué nos podría indicar que el cambio introducido ha supuesto una mejora? Un cambio abrupto como éste:

 

test_6

 

Una vez confirmado que ese mismo día no hubiera otros factores que pudieran haber influido (otros cambios, el lanzamiento de un nuevo producto muy deseado y más añadido al carrito que la media…), podemos sentarnos a analizar lo que la gráfica nos muestra.

Es cierto, había una tendencia a la baja que se mantiene, pero el cambio analizado introdujo un incremento brusco del indicador, justo ese día,  a partir del cual la tendencia sigue su curso.

El nuevo formulario (o el nuevo botón, o lo que sea) parece funcionar mejor. La tasa de conversión fluctuará debido a la presencia de campañas o la falta de ellas, de cambios en nuestro catálogo, tendencias estacionales, etc. pero sobre un punto de partida un escalón por encima gracias a la optimización lograda por el cambio.

Este último ejemplo es muy claro y evidente, pero no siempre va a ser así. Insistimos en que el análisis de un cambio a posteriori es el último recurso y que siempre hay que tratar de realizar tests. Es más sencillo de lo que parece y sus resultados son siempre más fiables y concluyentes.

Y si os habéis quedado con ganas de saber más sobre cómo hacer un test en Google Analytics, cuando Google lanzó esta funcionalidad ya le dedicamos un artículo en el que explicábamos cómo usarla. Aunque la ubicación exacta y la interfaz mostrada en las capturas de pantalla han cambiado algo, la forma de crear el test es básicamente la misma. Para más detalles, te animamos a leerlo:

http://www.doctormetrics.com/2012/06/21/content-experiment/

También puedes dejarnos tus dudas sobre esta materia en los comentarios.

Importación de datos a Google Analytics sin usar API

14/05/2015 a las 16:59

Desde hace un tiempo en la interface de Google Analytics encontramos una nueva funcionalidad: el análisis de costes externos. Siempre hemos podido subir datos externos a Google Analytics pero nunca nos lo habían puesto tan fácil como con esta nueva actualización.

Captura de pantalla 2015-05-07 a las 10.35.34 a.m.

¿Qué significa esto? Que ya podemos, por ejemplo, subir datos de campañas que realicemos fuera de los productos de Google desde la misma interface de Google Analytics, sin utilizar otras herramientas como la API.

Por ejemplo, si estamos realizando una campaña de mailing podemos subir apertura de email, clics y costes. Con estos datos podemos analizar y comparar todos nuestros esfuerzos de marketing online en la misma herramienta.

¿Cómo subir datos de una campaña de Email marketing a Google Analytics?¿Qué pasos debemos seguir?

1. Etiquetar todas las campañas externas

(*Algo que debemos hacer siempre, no sólo en estos casos)

Para poder realizar esta subida de datos externos debemos etiquetar las url de nuestro mailing con los valores al menos de fuente, medio, campaña.

Por ejemplo:

www.doctormetrics.com/?utm_source=newsletter&utm_medium=email&utm_campaign=Universal_Analytics

 2. Creación base de datos

Queremos realizar el seguimiento de los clics, el coste y las aperturas de nuestra campaña de email marketing llamada “Universal_Analytics”.

¿Qué pasos debemos seguir?

  • Vamos a Google Analytics, Administrador y hacemos clic en la propiedad que deseemos, en la tabla seleccionamos importación de datos y lo asignamos a una o varias vistas.

Captura de pantalla 2015-04-20 a las 11.34.29 a.m.

  • Configuramos el tipo como “Datos de costes”
  • Captura de pantalla 2015-05-07 a las 10.08.17 a.m.Asignamos a los datos un nombre fácil de identificar por ejemplo, “Universal_Analytics”
  • Incluimos las dimensiones y las métricas que se desee  impresiones, clics y coste. En este caso, los clics serán las aperturas de email.

3. Exportar datos de nuestro proveedor

Hasta aquí todo lo hacemos desde la interface de Google Analytics, ahora nos toca la descarga de datos ¿Y esto, cómo lo hacemos?

Fácil, desde nuestro proveedor de Email marketing (mailchimp, master base…) descargamos los datos relativos a aperturas de email, clics y costes y los guardamos como un archivo csv.

Importante tener en cuenta:

  • Acepta codificación UTF-8
  • Tiene un límite de archivo de 5MB, pero no nos asustemos con el límite porque podemos subir un total de 50 conjuntos de datos por propiedad.

Es necesario realizar cambios en este archivo para adaptarlo a lo que Google Analytics necesita. Tranquilos Google nos facilita el trabajo, podemos descargar un archivo csv con los enunciados e instrucciones de cómo debemos subir los datos.

Cosas a tener en cuenta:

  • Los encabezados de columna debe corresponderse con los nombres que espera Google Analytics. Por ejemplo, él espera ga:source así que no seamos creativos y pongamos ga:fuente porque al subir el archivo nos va a dar error.
  • El formato de fecha debe tener el formato AAAAMMDD.

4. Subimos los datos a Google Analytics

Llegó el momento de la verdad, volvemos a la cuenta de Google Analytics y accedemos a la pestaña Administrar subidas .

  • Hacemos clic en “Administrador” en la barra de menús situada en la parte superior de cualquier página.
  • Hacemos clic en Importación de datos.
  • Hacemos clic en el enlace Administrar subidas correspondiente al conjunto de datos Universal_Analytics
  • Hacemos clic en el botón Subir archivo.

Si hay algún error  se ve reflejado en la columna Estado de la tabla de subidas.

5. Consulta los datos en los informes

Debemos tener en cuenta que los datos subidos deben procesar y combinar con los existentes, es probable que pasen hasta 24 horas antes de que podamos visualizar los datos en los informes.

Para ver los datos accedemos a nuestro Google Analytics y hacemos clic en el informe adquisición/campañas/análisis de costes.

importacion_datos_google

¿Ya habéis probado esta funcionalidad? Si tenéis dudas relacionada con este post o estáis trabajando con importación de costes podéis dejar vuestro comentario :-)

 

Cómo hacer consultas en Google BigQuery – guía básica de SQL

04/05/2015 a las 09:55

Como muchos sabréis, Google BigQuery es la solución Big Data de Google. Se trata de un servicio web que permite almacenar y consultar grandes volúmenes de datos en pocos segundos.

BigQuery

En el caso de la analítica web, se pueden importar todos nuestros datos de Google Analytics (sólo para cuentas Premium). Pero no los datos a los que estamos acostumbrados de GA, sino gigantescas tablas que contienen absolutamente toda la actividad registrada de cada sesión durante su paso por nuestro site: desde el identificador de la visita hasta el número de hit dentro de una sesión, pasando por todas las dimensiones y métricas ya disponibles en Analytics. Así pues, cualquier información que deseemos sobre nuestras visitas está a nuestro alcance haciendo la consulta (también llamada query) adecuada, que además se procesará en pocos segundos a pesar de las miles de filas que probablemente tendrá nuestra tabla de datos.

Pero, ¿cómo se hacen las consultas en BigQuery? Pues bien, con un lenguaje de programación basado en SQL, por lo que es muy importante entender y dominar este lenguaje para poder explotar al máximo esta herramienta. Teniendo en cuenta que las consecuencias pueden ser catastróficas si tomamos acciones a partir de datos erróneos, una query equivocada no es algo que nos podamos permitir.

En este post describiremos la estructura básica de las consultas en BigQuery e intentaremos entender las principales cláusulas del lenguaje SQL para ser capaces de realizar cualquier query que necesitemos.

La estructura básica de una consulta en BQ es la siguiente:


SELECT expr1 (AS alias1), expr2 (AS alias2), …

FROM [tabla1]

([INNER | CROSS | [LEFT | RIGHT | FULL] OUTER] JOIN [tabla2] ON condicionesJoin)

WHERE condiciones

GROUP BY expr1|alias1, expr2|alias2, …

ORDER BY expr1|alias1 [DESC|ASC], expr2|alias2 [DESC|ASC], …

LIMIT n;

*Los campos entre paréntesis son opcionales y la barra vertical | indica los distintos valores posibles.


Veamos con detalle cada una de sus partes:

 

SELECT (obligatorio)

Las dimensiones y métricas que queremos extraer. Cada una de ellas será una columna de la tabla resultante. Podéis encontrar los nombres de todas las variables que están disponibles en BigQuery (para datos de Google Analytics) aquí:

También pueden ser operaciones aritméticas entre métricas y funciones agregadas sobre variables. En este último caso necesitaremos la función GROUP BY, de la cual hablaremos más adelante.

Los nombres por defecto no son cómodos para trabajar ya que suelen ser muy largos (por ejemplo, la fuente de tráfico es trafficSource.source), por lo que se puede asignar un alias a las variables mediante la cláusula AS, con el cual podremos hacer referencia a esa variable en otras funciones de la query y además será el nombre con el que aparecerá en la tabla de datos resultante.

 

FROM (obligatorio)

Todas las variables que se incluyan en el SELECT se extraerán de una tabla, a la cual haremos referencia a través de la cláusula FROM. Por defecto, Bigquery guarda tablas diarias, es decir, tenemos una tabla para cada día en la que cada fila es una visita y cada columna una dimensión o métrica. Los usos más comunes de la cláusula FROM son:

  • Datos de un día:

FROM [<Dataset>.<Table Name>]

Los nombres del dataset y de la tabla los podemos encontrar en la interfície de BigQuery:

BQinterface

 

Como podéis ver, los nombres de las tablas con datos de GA tiene la forma: ga_sessions_ seguido por la fecha correspondiente en formato YYYYMMDD.

Para este ejemplo, FROM [99999999.ga_sessions_20150428] extraería los datos para el día 28 de abril de 2015 del Dataset 99999999.

  • Datos dentro de un rango de fechas:

FROM TABLE_DATE_RANGE([<Dataset>.ga_sessions_],TIMESTAMP(‘YYYY-MM-DD’),TIMESTAMP(‘YYYY-MM-DD’))

De esta forma podremos extraer datos dentro de un rango de fechas, cosa realmente importante ya que los análisis de datos no suelen (ni deben) hacerse con datos de un solo día.

Por ejemplo, para extraer datos del 10 al 20 de abril de 2015 utilizaríamos:

FROM TABLE_DATE_RANGE([99999999.ga_sessions_],TIMESTAMP(‘2015-04-10′),TIMESTAMP(‘2015-04-20′))

  • Tablas intermedias

También se puede utilizar como tabla una que resultaría de otra query. La estructura sería la siguiente:


SELECT expr3, expr4, …

FROM (        SELECT expr1, expr2, …

                    FROM [tabla]

                    WHERE condiciones1

                    GROUP BY expr1, expr2, …

                    ORDER BY expr1 [DESC|ASC], expr2 [DESC|ASC], …

                    LIMIT n)

WHERE condiciones2

GROUP BY expr3, expr4, …

ORDER BY expr3 [DESC|ASC], expr4 [DESC|ASC], …

LIMIT n;


Como os podéis imaginar, en el primer SELECT (será el que obtendremos con la consulta) solo podremos utilizar aquellas variables que estén definidas en la tabla intermedia. Este tipo de estructuras se pueden utilizar para obtener métricas que no están predefinidas y que requieren cálculos intermedios.

 

WHERE (opcional)

Condiciones sobre los datos que queremos extraer. No es necesario que sean dimensiones o métricas incluidas en el SELECT, pero sí en la tabla con la que estamos trabajando (la del FROM, aunque sea el resultado de una query o un JOIN). Se pueden utilizar condiciones múltiples usando AND y OR.

Notas:

  • La cláusula WHERE filtra los datos que pedimos, pero no reduce la cantidad de datos procesados.
  • Para datos de tipo INTEGER se suelen usar los operadores aritméticos para definir las condiciones. Algunos ejemplos son: = (igual a), != (no igual a), > (mayor que), < (menor que), >=(mayor o igual que)…
  • Para datos de tipo STRING también se pueden utilizar = o !=, pero en este caso si se comparan con una expresión fija se tienen que poner entre comillas (‘). Por ejemplo, trafficSource.medium = ‘referral’ exige que el medio sea referral. También es común utilizar IS NULL y IS NOT NULL para exigir que el valor sea o no, respectivamente, NULL, que es el valor que se asigna a las variables cuando no hay información disponible.

 

GROUP BY

Agrupa los distintos valores de las dimensiones especificadas. Se pueden hacer agrupaciones por varias dimensiones a la vez.

Se utiliza junto a funciones agregadas (en el SELECT). Vamos a entender qué hace exactamente el GROUP BY junto a las dos funciones agregadas más frecuentes: COUNT y SUM. Podéis encontrar el resto de funciones agregadas aquí:

Imaginemos que tenemos la  tabla siguiente (supongamos en este ejemplo que tiene como nombre “tabla”):

variable1 valor1
A 10
B 15
C 12
A 10
D 8
C 11
A 9
  • COUNT

Si queremos saber en cuántas filas aparece cada una de las distintas categorías de la variable1 utilizaremos la función COUNT, la cual se tiene que utilizar con GROUP BY.

Usando:


SELECT variable1, COUNT(variable1) AS count

FROM tabla

GROUP BY variable1

ORDER BY count DESC;


Obtendríamos:

variable1 count
A 3
C 2
B 1
D 1

 

Es decir, con COUNT estamos pidiendo contar las filas, y con GROUP BY estamos haciendo que acumule el número de filas si tienen la misma categoría de la variable1. Además, hemos pedido (con ORDER BY) que la tabla aparezca ordenada según los resultados de la cuenta de forma descendiente (utilizando el alias que le hemos dado a la cuenta: “count”).

  • SUM

Si queremos saber el valor total de valor1 asociado a cada categoría utilizaremos la función SUM, la cual se tiene que utilizar con GROUP BY.

Usando:


SELECT variable1, SUM(valor1) AS total

FROM tabla

GROUP BY variable1

ORDER BY total DESC;


Obtendríamos:

variable1 total
A 29(=10+10+9)
C 23(=12+11)
B 15
D 8

 

Es decir, con SUM haremos que se sumen valores, y con GROUP BY decidimos qué valores se tienen que sumar: aquéllos que tengan la misma categoría de la variable1. Además, hemos pedido (con ORDER BY) que la tabla aparezca ordenada según el resultado total de mayor a menor.

 

ORDER BY (opcional)

Ordena los datos de forma descendente (DESC) o ascendente (ASC). Por defecto se utiliza el orden ascendente.

 

LIMIT (opcional)

Número máximo de filas de la tabla de datos resultante.

 

Unión de tablas (JOIN)

En análisis avanzados puede que necesitemos hacer varias consultas por separado pero que nos interese tener todos los datos en una única tabla. En estos casos, ¿cómo podemos unir distintas tablas? La respuesta es con la función JOIN, con la cual podremos unificar dos tablas (o más, concatenando JOINs) en una si nuestras tablas comparten alguna de las variables.

En BQ hay hasta 5 tipos de JOIN, que son:

– INNER JOIN

– LEFT OUTER JOIN

– RIGHT OUTER JOIN

– FULL OUTER JOIN

– CROSS JOIN

Notas:

1) La tabla resultante del JOIN es sobre la cual trabajaremos, así que en el SELECT solo podremos pedir variables de alguna de las tablas unidas. Una forma abreviada para pedir todas las columnas de la tabla resultante del JOIN es utilizar * (es decir, SELECT *).

2) Para hacer referencia a cualquier variable primero tenemos que indicar a qué tabla pertenece seguido por el nombre (o el alias) de la variable en esa tabla (separados por un punto “.”). Veremos un ejemplo más adelante. Esto se aplica en todas las cláusulas: SELECT, ON, GROUP BY, ORDER BY…

3) La condición para unir las tablas puede ser sobre múltiples columnas (utilizando AND y OR).

Veamos en qué se diferencian los distintos tipos de JOIN mediante un ejemplo.

Supongamos que tenemos las siguientes tablas (de nombres “tabla1” y “tabla2”, respectivamente):

variable1 valor1 valor2
A 10 1500
B 15 1800
C 12 2100
A 11 3800

 

variable1 variable2 valor3
A X 250
B Y 300
D Y 100
E Z 175

 

INNER JOINInnerJoin

Dadas dos tablas de datos, con INNER JOIN la tabla resultante tendrá únicamente las filas que cumplan la/s condición/es.


SELECT *

FROM tabla1 (AS aliasTabla1)

INNER JOIN tabla2 (AS aliasTabla2)

ON tabla1.variable1 = tabla2.variable1;


Notad cómo se hace referencia a la variable1 en la cláusula ON, que es donde se especifica la condición de la unión (ver nota 2).

La tabla resultante sería:

tabla1.variable1 tabla1.valor1 tabla1.valor2 tabla2.variable1 tabla2.variable2 tabla2.valor3
A 10 1500 A X 250
A 11 3800 A X 250
B 15 1800 B Y 300

 

LEFT OUTER JOIN

LeftOuterJoin

Dadas dos tablas de datos, con LEFT OUTER JOIN obtendremos una tabla con el mismo número de filas que la primera tabla (la que esté a la izquierda de la función LEFT OUTER JOIN). En aquellas filas donde haya coincidencia (según la condición establecida) con la segunda tabla, se añadirán los valores de esta última, y para las filas donde no haya coincidencia, las entradas de las columnas de la segunda tabla se rellenarán con NULL.


SELECT *

FROM tabla1

LEFT OUTER JOIN tabla2

ON tabla1.variable1 = tabla2.variable1;


La tabla resultante sería:

tabla1.variable1 tabla1.valor1 tabla1.valor2 tabla2.variable1 tabla2.variable2 tabla2.valor3
A 10 1500 A X 250
A 11 3800 A X 250
B 15 1800 B Y 300
C 12 2100 NULL NULL NULL

 

Es decir, a las filas donde se cumple la condición (INNER JOIN) se les añade el resto de filas de la tabla1 (porque es la que está a la izquierda del JOIN) con valor NULL en las columnas que corresponden a variables de la tabla2.

RIGHT OUTER JOIN

RightOuterJoin

Equivalente a LEFT OUTER JOIN pero conservando la tabla2 entera (la de la derecha de RIGHT OUTER JOIN).

FULL OUTER JOIN

FullOuterJoin

 

Dadas dos tablas de datos, con FULL OUTER JOIN obtendremos una tabla con todas las filas de la primera y de la segunda tabla, haciendo el “match” donde se cumple la condición y rellenando con NULL donde no.


SELECT *

FROM tabla1

FULL OUTER JOIN tabla2

ON tabla1.variable1 = tabla2.variable1;


La tabla resultante sería:

tabla1.variable1 tabla1.valor1 tabla1.valor2 tabla2.variable1 tabla2.variable2 tabla2.valor3
A 10 1500 A X 250
A 11 3800 A X 250
B 15 1800 B Y 300
C 12 2100 NULL NULL NULL
NULL NULL NULL D Y 100
NULL NULL NULL E Z 175

 

Es decir, para las filas en las que se cumpla la condición habrá el “merge” entre las variables de la tabla1 y la tabla2, y para las filas en las que no se cumpla se asignará NULL a las variables de la tabla a la que no pertenecen.

CROSS JOIN

CrossJoin2

Dadas dos tablas de datos, con CROSS JOIN obtendremos una tabla en la que cada fila de la primera tabla se habrá juntado con todas las filas de la segunda tabla, por lo que no es necesario poner ninguna condición. Por lo tanto, si tenemos una tabla de 3 filas y otra de 5, la tabla resultante del CROSS JOIN tendrá 3*5=15 filas.

Se recomienda no usar este tipo de JOIN ya que es muy poco eficiente.


SELECT *

FROM tabla1

CROSS JOIN tabla2;


La tabla resultante sería:

tabla1.variable1 tabla1.valor1 tabla1.valor2 tabla2.variable1 tabla2.variable2 tabla2.valor3
A 10 1500 A X 250
B 15 1800 A X 250
C 12 2100 A X 250
A 11 3800 A X 250
A 10 1500 B Y 300
B 15 1800 B Y 300
C 12 2100 B Y 300
A 11 3800 B Y 300
A 10 1500 D Y 100
B 15 1800 D Y 100
C 12 2100 D Y 100
A 11 3800 D Y 100
A 10 1500 E Z 175
B 15 1800 E Z 175
C 12 2100 E Z 175
A 11 3800 E Z 175

 

Vemos que las filas 1-4 corresponden a unir cada fila de la tabla1 con la primera fila de la tabla2, las filas 5-8 corresponden a unir cada fila de la tabla1 con la segunda fila de la tabla2, y así sucesivamente.

 

Llegados a este punto ya tenemos los medios para realizar cualquier tipo de consulta (o como mínimo para entender que hace cualquiera que se nos ponga delante). Para terminar con el post, dejémonos de teoría y vayamos a la práctica con un ejemplo aplicado a la analítica web:

¿Cómo sería la query necesaria para obtener el número de transacciones asociadas a cada categoría de dispositivo (desktop, mobile, tablet)?

La respuesta es:


SELECT device.deviceCategory AS CategoriaDispositivo, SUM (totals.transactions) AS TotalTransacciones

FROM TABLE_DATE_RANGE([99999999.ga_sessions_],TIMESTAMP(‘2015-04-10′),TIMESTAMP(‘2015-04-29′))

GROUP BY CategoriaDispositivo

ORDER BY TotalTransacciones DESC;


1) En el SELECT pedimos la categoría del dispositivo (device.deviceCategory), al cual hemos renombrado como “CategoriaDispositivo”, y calculamos el número total de transacciones (totals.transactions), al cual llamamos “TotalTransacciones”.

2) En el FROM pondríamos la tabla de datos para la que querríamos hacer el cálculo. En este ejemplo, el cálculo se habría hecho para el periodo comprendido entre el 10/04/2015 y el 29/04/2015.

3) Como hemos usado la función SUM necesitamos el GROUP BY. En este caso, agrupamos por categoría de dispositivo (fíjate que hemos utilizado su alias, CategoriaDispositivo) de manera que se sumarán el número de transacciones de aquellas sesiones cuya categoría de dispositivo es la misma.

4) Con el ORDER BY ordenamos en función del número total de transacciones que hemos obtenido, de mayor a menor.

Con esta query obtendríamos una tabla con aspecto parecido a éste:

EjemploBQ

¿Habrías sido capaz de hacerla tú solo? Si es que sí, enhorabuena! 😀 Y si es que no, no te desanimes, es cuestión de práctica. 😉

Podéis encontrar muchos más ejemplos de consultas para GA en el “BigQuery Cookbook” (aunque en algunos de ellos los nombres de las dimensiones y métricas no están actualizados). Y mucha más información sobre las consultas en BigQuery en la documentación oficial de Google.

 

Espero que esta pequeña guía os haya servido para entender un poco más cómo funcionan las consultas en BigQuery (y en SQL en general). Para los que aun no hayáis tenido la posibilidad de utilizar esta herramienta, os animo a que la probéis ya que tiene un potencial enorme de cara a explotar nuestros datos de Google Analytics y conocer un poco más a nuestros usuarios. Y bueno, si tenéis alguna duda relacionada con este post o estáis trabajando en una query que no conseguís resolver, podéis dejar vuestro comentario y os intentaré ayudar en la medida de lo posible. :)

 

 

 

Creando evento de Scroll Depth en Google Tag Manager V2

17/04/2015 a las 17:55

¿Podemos medir el comportamiento de un usuario en un sitio de una página (one page)? ¿Cómo podemos saber cuánto contenido vio? ¿Podemos obtener más datos relacionados a lo qué está viendo este usuario en el sitio?

Para todas estas preguntas la respuesta es simple, si por casualidad tienen un blog con gran cantidad de posts en el home, tienen un sitio one page  de esos que son tan populares hoy o también puede ser que tengan un diario con toda la información desplegada en una sola página, la solución a sus problemas de medición ya es cosa del pasado. Ahora solo hay que medir el avance del scroll en el sitio web para saber qué porcentaje de la página o landing está viendo el usuario.

¿Y cómo hacemos eso?, con la buena ayuda de Don Google Analytics y su hermano Tag Manager.

A continuación, les presento una guía para crear un evento Scroll Depth en sus sitios webs, pero con la última versión de Tag manager. Me imagino que ya varios saben que hace algún tiempo Google Tag Manager  lanzó su nueva versión, este cambio significa tener que familiarizarse con la nueva interface y migrar aquellas cuentas que teníamos en nuestro antiguo Tag Manager.

Entonces, ¿qué necesitamos para crear este evento?

  • Google Tag Manager V2
  • Google Analytics (Universal Analytics a través de Tag Manager)
  • jQuery 1.7 o superior (necesario para el script Scroll Depth)wp7d03dd5e_05_06

¿Y qué es el Scroll Depth?

Es un script que nos permite medir los movimientos del scroll, o mejor dicho, el avance del scroll en la web cuando un usuario interactúa con el contenido. Cuando el usuario avanza un cierto porcentaje en el sitio, va marcando la longitud (Baseline o 0%, 25%, 75% y 100%). Pero eso no es todo, además mide otros eventos como avances de scroll en pixeles, tiempo de éstos, entre otros datos.

¿Dónde podemos conseguirlo?

Pues directamente en la web del creador, haciendo clic acá.

PASO1: creando una nueva etiqueta para el script Scroll Depth

Lo primero es ir a Tag Manager y crear una nueva etiqueta para el script, debemos seleccionar el producto “Etiqueta HTML personalizada” y pegar el código del script que les dejo más abajo.para agregar nueva etiqueta hoome

nueva etiqueta sin titulopegar codigo scrip

Debemos pegar el código del script, el cual lo pueden encontrar y copiar directamente haciendo clic acá. Pero antes de insertar el código, debemos escribir lo siguiente en el cuadro de HTML:

<script>  

ACÁ VA EL CÓDIGO

 jQuery.scrollDepth();

</script>

 

Y pegan el código donde les indico “ACÁ VA EL CÓDIGO”.

paso 3 activar en todas las paginas

Posterior a eso se debe elegir el activador de esta etiqueta, que puede ser “Todas las páginas” o “Algunas páginas”. Finalmente creamos la etiqueta y procedemos al PASO 2.

 PASO2: creando variables de capa de datos

Lo primero es crear una variable para “eventCategory” vía una capa de dato, por lo tanto vamos a ir al panel principal y le daremos clic a “Crear nueva variable”, una vez ahí elegimos el tipo “Capa de dato” y seguimos los pasos que se muestran en las siguientes imágenes.

2.1 Variable capa de dato

 

agregar variable capa de dato

 

2.2 Configurar variable con nombre eventCategory

variable event category

2.3 Crear variable y guardar con el mismo nombre.

event category creado

Repetimos lo mismo para eventAction y eventLabel, es decir, vamos a crear 2 variables más de “Capa de dato” para éstos. Luego revisamos en una vista previa de la web si están estas variables.

¿Cómo visualizar una vista previa?, es muy simple, solo tienen que darle al botón al costado derecho de “Publicar” y seleccionar “vista previa”, luego van al sitio web y refrescan, les saldrá una ventana en la parte inferior del sitio con información sobre el evento. En ella podremos ver los dataLayer y las variables que hemos creado.

generar vista previa

Entonces en la vista previa veremos lo siguiente.

Si se fijan, en “Data Layer Variable” aparecen eventCategory, eventAction y eventLabel, por lo que todo va de maravilla. Podemos seguir con el PASO3.

vista previa de variables

PASO3: creando la etiqueta del evento 

El último paso corresponde a crear la etiqueta del evento, la cual es de Google Analytics, por lo tanto vamos a seleccionar ese producto, luego la versión e ingresaremos el ID de seguimiento, luego seleccionaremos “Evento” en tipo de seguimiento y buscaremos las variables que creamos para colocarlas en categoría, acción y label, tal como se muestra en la imagen de más abajo.

crear la etiqueta del evento

Luego seleccionamos continuar y creamos un activador para esta etiqueta, un NUEVO activador.crear etiqueta de evento agregar activador

 

Creamos el nuevo activador que tiene que ser de tipo “Evento personalizado” y debe tener el nombre ScrollDistance, con un filtro donde indicaremos que se tiene que activar cuando el evento personalizado contenga ScrollDistance.

crear etiqueta de evento agregar activador 2 crear etiqueta de evento guardar activador

Ya tenemos todo listo, ahora solo queda guardar el activador y publicar. Pero si antes de publicar quieren ver que todo esté correcto, le dan nuevamente a visualizar una vista previa y van a la herramienta de “Google Analytics”, entran a la analítica en tiempo real y ven los eventos que ahí aparecen. Se debe ver el evento que hemos creado para poder medir el avance del scroll en el sitio.

 

evento listo verlo en ga 1evento listo verlo en google analytica

¿Adivinen qué?

Ya hemos terminado,  le damos a publicar y disfrutemos analizando nuestros nuevos  datos.

 

final y publicar

Ahora dispondremos de este interesante evento que nos aportara información valiosa relacionada con el comportamiento de los usuarios en el sitio y cuánto contenido visualizan en él. Este evento es sumamente útil para páginas que son únicas, así como para sitios que tienen una gran longitud, como los one page, diarios, una landing es especifica y blogs con una gran cantidad de información en sus sitios.

Y ahora mucho más fácil con nueva versión de Tag Manager.

scroll-depth-chart

 

¡Hasta la próxima!

Se advierte al usuario del uso de cookies propias y de terceros de personalización y de análisis al navegar por esta página web para mejorar nuestros servicios y recopilar información estrictamente estadística de la navegación en nuestro sitio web. Política de cookies Acepto