Analytics Premium ComScore ClickTale Analytics Certified Partner Klipfolio Coremetrics
Tags populares:

ROI, IOR y otras siglas para valorar las redes sociales

03/05/2016 a las 09:51
roi ior calcular valor redes sociales

aisletwentytwo / Flickr (cc)

El concepto básico del ROI (Retorno de la Inversión) es muy sencillo: cuánto beneficio obtengo tras realizar una inversión. Existen negocios, especialmente los comercios electrónicos, que gracias a herramientas como Google Analytics y sus embudos multicanal nos permiten conocer hasta qué punto cada canal contribuye a sus objetivos, ya sea de modo directo o como asistentes, incluidas las redes sociales.

En principio, la finalidad de estas redes debe ser mucho más que la venta. Los estímulos ofrecidos y las reacciones que busquemos tienen que ser principalmente para relacionarnos y ser uno más entre la comunidad, sin duda el mejor modo para fidelizar. Esta es la teoría, en la práctica la realidad suele ser diferente.

La escucha activa y el análisis de las métricas sociales permiten, entre otras muchas ventajas, tener insights para enfocar mejor las campañas futuras, saber con detalle qué hacer y cómo le funciona a la competencia sus estrategias o de qué temas hablan nuestros simpatizantes/detractores.  ¿Cuánto vale que te recomiende un usuario? ¿Y qué nos ayuden a mejor productos y servicios? ¿Qué precio tiene para nosotros todo este conocimiento? ¿Cómo intentar medirlo?

Analiza tus productos con todo lujo de detalle

29/03/2016 a las 11:06

Analiza tus productos con todo lujo de detalle

 

Google Analytics, y especialmente con el comercio electrónico mejorado que ya os ayudamos a saber implementar,  nos permite medir el desempeño de los productos o servicios individuales que ofrecemos en nuestra web.

En los informes estándar, podremos analizar cuánto hemos vendido de cada uno de ellos, por ejemplo. Y con el comercio electrónico mejorado, incluso el porcentaje de veces que un producto visto fue añadido al carrito o comprado.

 

POST_DR_METRICS_Dimensiones personalizadas de producto_2

 

Pero en muchas ocasiones, los análisis los haremos agrupando dichos productos en categorías u otra clase de agrupaciones con algo en común.

Podemos segmentar o filtrar en base a la información que recogemos de los productos:

  • Nombre
  • Identificador
  • Precio (usando como criterio que estén en una franja u otra, por ejemplo)
  • Marca
  • Categoría (en el comercio electrónico, la categoría puede estar compuesta de hasta 5 niveles).
  • Variante (colores, tallas, etc.)
  • Cantidad
  • Cupón (para cuantificar la influencia de ofrecer o no descuentos)

Pero, ¿y si esta información se nos quedara corta? ¿Y si nuestro producto es muy complejo y está definido por una gran cantidad de variables por las que podría interesarnos analizar su desempeño?

Imaginemos que nuestro negocio es una inmobiliaria, y nuestra transacción, la solicitud de visita a un inmueble. A la hora de buscar vivienda o local, se van a tener en cuenta factores como el número de habitaciones, la superficie útil, cercanía a ciertos servicios, si tiene ascensor o no, etc. Si disponemos de esa información y permitimos al usuario realizar búsquedas filtrando por ella, ¿por qué no recogerla también en las transacciones? Podríamos, de manera sencilla y sin salir de Google Anaytics, analizar la influencia en la tasa de conversión de todos y cada uno de los posibles valores para esas variables.

Aquí es donde entran en juego las dimensiones personalizadas, que tanta flexibilidad aportan a la herramienta. La aparición de las dimensiones y métricas personalizadas de ámbito “producto” facilitan mucho su uso en el ecommerce a la hora de la implementación.

 

POST_DR_METRICS_Dimensiones personalizadas de producto_3

 

¿Cómo pasamos sus valores a Google Analytics?

Si estamos implementando con Google Tag Manager (lo más recomendable), el código para un producto en el comercio electrónico mejorado o enhanced ecommerce tendría este aspecto:

‘products’: [{  

        ‘name’: ‘Nombre del producto’,

        ‘id’: ‘123456’,

        ‘price’: ‘1000.00’,

        ‘brand’: ‘Marca del producto’,

        ‘category’: ‘Textil/Hombre/Camisas/Manga larga/Algodón’, // categoría (hasta 4 posibles niveles de subcategoría)

        ‘variant’: ‘Blanca’, // variación que no implica un cambio de identificador de producto

        ‘quantity’: 1, // Cantidad del producto adquirida

        ‘coupon’: ” // Descuento a nivel de producto individual

       }]

Si quisiéramos “enriquecer” la información recogida mediante dimensiones personalizadas de ámbito “producto”, tan sólo tendríamos que añadirlas a la lista de variables estándar:

‘products’: [{  

        ‘name’: ‘Nombre del producto’,

        ‘id’: ‘123456’,

        ‘price’: ‘1000.00’,

        ‘brand’: ‘Marca del producto’,

        ‘category’: ‘Textil/Hombre/Camisas/Manga larga/Algodón’, // categoría (hasta 4 posibles niveles de subcategoría)

        ‘variant’: ‘Blanca’, // variación que no implica un cambio de identificador de producto

        ‘quantity’: 1, // Cantidad del producto adquirida

        ‘coupon’: ”, // Descuento a nivel de producto individual

        ‘dimension1’: ‘valor para la dimensión 1’,

        ‘dimension2’: ‘valor para la dimensión 2’,

        ‘dimension3’: ‘valor para la dimensión 3’

      //y así con todas las dimensiones que necesitemos (y de las que dispongamos).        

       }]

La correspondiente etiqueta de GTM, cuando detecte la transacción y la envíe a Google Analytics, enviará automáticamente y sin que tengamos que hacer nada, toda la información adicional que hemos asociado a los productos.

Es decir, no habrá que definir variables en GTM que recojan esa información adicional ni tendremos que especificar en la etiqueta de la transacción qué variable corresponde con cada dimensión personalizada. Es por esto que sea necesario referirnos en el datalayer a las dimensiones de esa manera (‘dimension1’ por ejemplo) y no por su nombre (‘Número de habitaciones’ en el ejemplo de la inmobiliaria).

Ahora solo quedaría analizar nuestros productos utilizando estas nuevas variables como dimensiones secundarias en los informes estándar o mediante informes personalizados.

Desde luego, si el producto tiene cierta complejidad y disponéis de dimensiones personalizadas libres, os animamos a “enriquecer” de esta manera tan sencilla pero potente vuestras implementaciones.

 

Google Analytics 360 Suite hoy su gran lanzamiento

15/03/2016 a las 20:28

Os adjunto la carta que Paul Muret, responsable  y creador de Google Analytics, nos ha enviado para presentarnos la evolución de la herramienta en su Suite 360.

Hola,

Hoy estoy encantado de compartir la próxima evolución de Google Analytics: Google Analytics 360 suite.

Una revolución en el marketing está en marcha – las empresas se enfrentan a una explosión de nuevos dispositivos, canales, audiencias fragmentadas y compra programática – que lleva a un aumento exponencial en el volumen de datos. Con un creciente número de señales a monitorizar, es más difícil que nunca manejar todo, encontrar información útil, y convertir esas ideas en acción.

Es por eso que hemos construido el Analytics 360 Suite. Un sistema que integra sus datos con herramientas de marketing análisis, diseñadas específicamente para cubrir las necesidades de responsables del marketing o análisis dentro de una empresa y ayudarles a:

  • Visibilidad completa de la conducta del consumidor. Los responsables de marketing necesitan la visión completa de los datos de forma inmediata para ver lo que está sucediendo con sus usuarios en todos los puntos de contacto, canales y dispositivos. Comprender el contexto completo del viaje de un usuario en lugar de medir solamente una sesión, un único dispositivo, o el último-clic.
  • Obtener información útil, no más datos. Los profesionales del marketing necesitan una enorme potencia de cálculo, data science y algoritmos inteligentes, todos trabajando juntos para ayudar a dar sentido a los datos. Esa inteligencia hace el trabajo pesado y entrega rápidamente hallazgos de valor para que el equipo se dedique su tiempo a actuar.
  • Compartir conocimientos y colaborar con todo el mundo. Poniendo los datos en manos de todos fortalece objetivos en común y potencia las sinergias para conducir a una toma de decisiones más inteligente. Reducir el tiempo invertido en informes para crear rápidamente bellas visualizaciones de los acontecimientos más significativos del negocio, y luego compartirlo con toda la organización.
  • Ofrecer experiencias atractivas a las personas adecuadas. Hacer que su marca sea útil para los consumidores. Con integraciones a través de múltiples tecnologías de Google, la suite de productos que no sólo funciona bien con éstas, sino también con otros productos, incluyendo AdWords, DoubleClick y plataformas de terceros. Esto permite a los marketers tomar acciones inmediatas y mejorar la relevancia de los anuncios y las experiencias en sus webs.

 

Analytics 360 suite

¿Qué significa esto para usted?
No habrá ningún cambio inmediato en su cuenta. La suite 360 ​​Analytics BETA se irá introduciendo en clientes GA Premium a lo largo de 2016.

Es sólo el comienzo – vamos a seguir invirtiendo fuertemente en nuevos productos, características y funcionalidades. Es un momento emocionante para los que nos dedicamos al análisis de marketing, y esperamos compartir más información con usted pronto.

Para más información acerca de todos los nuevos productos y la suite 360 ​​Analytics, visite nuestro sitio web.

Cordialmente,
Paul Muret
VP, Analytics, video & display products

Analítica en redes sociales para cumplir objetivos

01/03/2016 a las 17:11
medir redes sociales herramientas analitica

Camille Rose (cc) Flickr

Al margen de la escucha activa, la monitorización y el sentimiento del que hablamos recientemente, como analistas del social media también debemos prestar una exquisita atención a las métricas que ofrecen las redes sociales de nuestros clientes (y las de la competencia), pues es el único modo de comprobar si la marca está cumpliendo con sus expectativas.

Y ese es precisamente el camino que hay que seguir: definir objetivos, medirlos, analizarlos, actuar en consecuencia para mejorarlos y vuelta a empezar para transformar los resultados. Así una y otra vez. Toda empresa con presencia en redes sociales debería tener una estrategia y un cuadro de mando con los indicadores que determinen su estado de salud. De no ser así, si no hay ninguna finalidad explícita ni intención de dar valor a la comunidad y crecer con ella, conviene no estar.

Mejorar la relación con los usuarios y consumidores no es una tarea sencilla, y el único modo para conseguirlo es medir. Medir, medir y después seguir midiendo. Creemos que no se nos ha olvidado citar la importancia de medir. No nos importa repetir: hay que medir el trabajo de los gestores online de las marcas para identificar sus carencias (para superarlas) y virtudes (para potenciarlas).

Escucha activa (o cuando Internet lo cambió todo)

02/02/2016 a las 10:30
escucha activa

Rick&Brenda Beerhorst | Flickr (cc)

Monitorización, escucha activa o social listening son algunos términos con los que las empresas conviven desde hace algún tiempo, más concretamente desde que Internet cambió las reglas del juego. La aparición, expansión y evolución de la red de redes supuso el nacimiento de los prosumidores, personas que consumen lo que ellos mismos producen: noticias en blogs, comentarios en redes sociales, contribución en wikis, desarrollo de software libre, etc.

Esta nueva realidad ha democratizado todo, de manera que cualquiera dispone de un altavoz con el que hacerse oír y tiene a su alcance un hueco público en el que tener visibilidad para compartir sus creaciones, opiniones e inquietudes.  La universalización no ha hecho más que equilibrar, al menos en apariencia, un sistema que durante décadas ha estado dominado por los medios y la industria tradicional.

La información y el conocimiento ya no son exclusivos de los mismos y limitados emisores. Hoy podemos hablar de una relación sin jerarquías, de un trato de igual a igual.  La interactividad y la autonomía propias de la web 2.0 hace de cada uno de nosotros un prosumidor, ese término que Toffler acuñó en 1980 y que tan bien encaja para describir la situación actual.

Ahora es esta figura quien elige el qué, el cómo y el cuándo, por lo que las empresas deben cambiar sus enfoques para adaptarse a la convivencia en el entorno digital. Estés o no en la web la gente va a hablar de ti, es inevitable, así que lo más práctico es aceptar las transformadas normas, construir tu identidad digital y poner los medios necesarios para ser uno más.

Dentro esa masa ingente de información que se genera en Internet hay un enorme valor que las marcas no deben dejar escapar. Es más, supone una fantástica oportunidad para conocer el mercado.

Si gracias a los recursos existentes y la actitud de los usuarios se ha modificado el ciclo de vida del marketing, ¿por qué no aprovechar esos mismos mecanismos para conocerles mejor? 

Query plan explanation: el nuevo informe de BigQuery para optimizar consultas

22/12/2015 a las 11:45

Como hemos comentado en ocasiones anteriores en doctormetrics, Google Bigquery nos permite realizar consultas muy rápidas sobre grandes conjuntos de datos.

No es raro el caso en el que el resultado de nuestra consulta tiene millones de filas y se han necesitado complejas operaciones intermedias para obtener cada una de sus columnas. A pesar de su potencia, en estos casos nuestras consultas suelen tardar más tiempo del que nos tiene acostumbrados BigQuery, e incluso podemos alcanzar los límites internos de la herramienta y obtener errores a la hora de ejecutar la query, especialmente si la consulta no está optimizada.

Y precisamente una cosa que echábamos en falta los que usamos Google BigQuery con frecuencia era tener la posibilidad de saber qué partes u operaciones de nuestras consultas se podían optimizar para poder sacar el máximo rendimiento de la herramienta. Pero esto ya es pasado, Google BigQuery acaba de sacar un nuevo report llamado query plan explanation. En este post explicaremos dónde podemos encontrarlo, qué información nos proporciona y cómo podemos utilizarlo para optimizar nuestras consultas.

Dicho esto, empecemos!

¿Qué es?

Es un nuevo informe que nos ofrece información detallada sobre el query plan:  los tiempos invertidos, las transformaciones/operaciones realizadas y el número de filas con las que ha trabajado BigQuery en cada una de las etapas que han compuesto el procesamiento de nuestra consulta. Tiene el aspecto siguiente:

BQexplanation4

 

¿Dónde podemos encontrarlo?

Cuando obtenemos los resultados de una consulta en la interficie web de BigQuery, actualmente nos aparece una nueva pestaña llamada Explanation con este informe (antes únicamente teníamos la opción de ver los Results). También se puede conocer el detalle del query plan directamente desde la API.

BQexplanation1

 

¿Qué información nos ofrece?

La información que nos proporciona este nuevo report se puede separar en tres partes:

 

BQexplanation5.2

  1. Stage timing

Cada query se divide en varias etapas y cada una de ellas consiste en una serie de pasos que se pueden agrupar en cuatro categorías: Wait, Read, Compute, Write. Cada barra de color nos da una idea del tiempo medio que han necesitado los subprocesos de cada paso y, además, del tiempo máximo.

BQexplanation2.2

Sin embargo, estas barras no representan el tiempo propiamente dicho, sino que representan el ratio entre el tiempo de ese paso y el tiempo máximo de todos los subprocesos. Por ejemplo, en la imagen anterior, como el subproceso que ha necesitado el tiempo más grande (barra más larga) pertenecía al paso de leer (Read) de la etapa 1 (Stage 1), todos los demás tiempos se han dividido respecto a este valor para obtener el ratio que se muestra. Por lo tanto, cualquier otra barra representa qué proporción de ese tiempo máximo ha necesitado el paso concreto. Así pues, una barra que llena la mitad de la barra significa que ha necesitado la mitad del tiempo que se ha necesitado para leer en la etapa 1.

Aun así, la interpretación del gráfico no cambia: una barra más larga significa que se ha invertido más tiempo en ese paso mientras que una barra más corta significa que el proceso ha sido más rápido.

  1. Rows

Al hacer una query, consultamos los datos de una tabla inicial (input) y acabamos obteniendo una tabla con resultados (output). Sin embargo, en el proceso de pasar de input a ouput, es probable que BigQuery haya tenido que crear tablas intermedias para ir haciendo los distintos cálculos que le hemos pedido. Por este motivo, la consulta se divide en varias etapas (stages). Con la query plan explanation, además de los tiempos relativos que hemos visto en el punto anterior, tenemos el número de filas de la tabla input y de la tabla output correspondiente a cada etapa.

  1. Steps metadata

Por si fuera poco todo lo que hemos comentado hasta ahora, podemos desplegar cada etapa para obtener información completa sobre los pasos que se han hecho en ella: las columnas que se han leído y su correspondiente tabla de origen, las funciones agregadas y condiciones aplicadas, la tabla donde se han almacenado los resultados de ese paso intermedio, etc.

Los posibles pasos son: READ, WRITE, COMPUTE, FILTER, SORT, AGGREGATE, LIMIT, JOIN, ANALYTIC_FUNCTION, USER_DEFINED_FUNCTION.

¿Por qué es útil?

Este informe nos puede servir para optimizar nuestras consultas si combinamos la información que nos proporciona el gráfico de tiempos relativos (stage timing) con la de steps metadata. Con el primero, podemos detectar las partes críticas de nuestra consulta (las que tengan la barra más larga) que podrían estar ralentizando su ejecución, mientras que con el segundo podemos conocer los pasos concretos que se realizan en esa parte y así saber para qué operaciones de la query necesitamos pensar alternativas más eficientes que nos permitan obtener la misma tabla de resultados final.

Únicamente hay que tener en cuenta un pequeño pero importante detalle: siempre habrá un tiempo máximo de todos los subprocesos, que es el que se utilizará para calcular los demás ratios. Por lo tanto, siempre habrá algún paso que llenará toda la barra. Sin embargo, eso no significa que ese paso no sea eficiente! Incluso en las consultas perfectamente optimizadas veremos barras más largas que otras… Es importante tenerlo en cuenta para no sacar conclusiones erróneas.

 

Esto es todo por hoy! Espero que este post os haya sido útil para aprender a interpretar este nuevo informe y también ver la importancia que puede llegar a tener a la hora de optimizar consultas, algo imprescindible y que hasta ahora no era posible en la interficie de BQ. Como siempre, si tenéis alguna duda relacionada con el post o no encontráis la forma de optimizar una consulta, podéis dejar vuestro comentario y os intentaré ayudar en la medida de lo posible. Por último, si os interesa saber más sobre cómo hacer consultas en BigQuery, os invito a que leáis este post que escribí hace un tiempo sobre el tema, explicando su estructura básica y las funciones más importantes que se suelen utilizar.

Hasta la próxima! :)

 

 

Cuadro de mando social (II)

22/12/2015 a las 11:25
redes sociales cuadro de mando social

mkhmarketing (cc) Flickr

Como ya indicamos en la primera parte de este tema, para todas aquellas empresas que invierten en redes sociales para tener una relación más estrecha y de mayor interés con sus clientes es indispensable que introduzcan en sus protocolos de actuación la medición, tanto en las redes propias como en las de la industria de la formen parte. La recopilación de datos y el establecimiento de KPIs es el mejor sistema para mejorar la interacción con los usuarios.

Preocuparse en escuchar implica esforzarse en indagar qué significamos para nuestros seguidores y los ajenos, sintonizar con sus expectativas, determinar qué presencia tenemos en su vida, entender qué dicen, escrutar cuáles son los temas más relevantes dentro de la comunidad para poder formar parte de ella.

Sobre el engagement y cómo calcularlo a medida del cliente

21/12/2015 a las 10:23
como calcular engagement facebook twitter redes sociales

Charis Tsevis (cc) Flickr

¿Cómo calcular el engagement que generan las Redes Sociales de un cliente? ¿Cómo medir el impacto de sus acciones en dichas Redes? ¿Qué herramientas utilizar para medir la efectividad de sus iniciativas? Estas y otras muchas preguntas de índole similar son muy habituales a la hora de tratar con las marcas, especialmente aquellas que más invierten en medios sociales. Como es evidente no solo quieren conocer de qué y cómo hablan de ellos sus clientes para ser más eficaces a la hora de comunicar, sino que quieren obtener referencias para poder valorar el funcionamiento las propuestas que ejecutan.

En las formaciones de community manager siempre se citan diferentes cualidades muy a tener en cuenta para desarrollar correctamente el trabajo: paciencia, madurez, corrección, precisión, originalidad, empatía y, especialmente, sentido común. Es precisamente ese sentido común el que también hay que aplicar a la hora de medir.

Basta consultar Internet para conseguir centenares de referencias a herramientas de medición de redes sociales, fórmulas y procedimientos para tener datos sobre el alcance de los mensajes, la expansión de los mismos, el nivel de conversación generado, etc. Todo esto es importante, no cabe duda, pero antes de ponerse manos a la obra lo fundamental es definir cuáles son los objetivos del cliente y los conceptos que los rodean.

Efectivamente, puede parecer una perogrullada, pero pongamos por caso un cliente que quiere medir el engagement de sus redes sociales. Imaginemos que en una de las reuniones previas al inicio del trabajo están en la misma mesa el marketing manager, el digital manager, el content manager, el communication manager, el digital manager y toda la lista de manager que queramos agregar. Les pedimos que escriban qué es para ellos el engagement. Posteriormente leemos las respuestas. Así es, 5 personas, 5 percepciones distintas, 5 maneras de medir.

Insistimos, si no hay consenso en la definición del objetivo es, imposible medirlo. Al hablar de términos sociales no es difícil encontrarnos en esta situación. Estamos ante etiquetas recientemente acuñadas que se forman y deforman tan rápido como actúan los propios medios sociales, así que actuar en un primer momento en busca de un acuerdo lingüístico, por así decirlo, no solo nos ayudará a contextualizar sino que también nos ahorrará futuras rectificaciones.

La importancia del modelo de datos en una implementación de Google Analytics

15/12/2015 a las 17:31

En el ámbito de la analítica digital  es importante seguir una metodología de trabajo que permita crear sistemas de medición estables, completos y relevantes al negocio. Por este motivo, cada modelo será único y personalizado.

Esta metodología consiste en trabajar distintas fases:

  1. Conocer e interiorizar los objetivos de negocio. Es decir, entender la estrategia y plan de acción que va a realizar la organización, sus hitos y metas; además de definir cuáles van a ser los indicadores clave de rendimiento.
  2. Definir el modelo de datos. Consiste en definir la estructura lógica de los datos y determina el modo de almacenar, organizar y manipular los datos:
    1. Por un lado, se trata de elaborar una lista de todos los elementos que se quieren recoger i especificar la información asociada a dichos elementos, como sus nomenclaturas y conceptos relacionados.
    2. Por otro, se trata de mapear cada uno de estos conceptos y/o elementos con su variable dentro del sistema de medición. En el supuesto caso que nuestra herramienta de medición sea Google Analyics, habrá que mapearlo con su correspondiente Google Analytics Tracking Code (GATC). Por ejemplo, mediremos el buscador con una etiqueta de ‘evento’, y especificaremos dicha acción en la dimensión ‘categoría’ del evento.

 

  1. Implementación. Consiste en la inclusión de los códigos necesarios en el sitio que queremos monitorizar. Los cuales nos servirán para conseguir la estructura diseñada en la fase anterior.
  2. Depuración y validación. Consiste en la validación de los datos recibidos, depuración y refinamiento hasta conseguir el resultado definido en el modelo de datos.

1

 

En este post nos vamos a centrar en la fase del modelo de datos, ya que se trata de la fase más importante a la hora de crear un sistema de medición robusto.

Vamos a imaginarnos que queremos monitorizar la navegación de un portal de turismo rural. En la imagen vemos la ficha de una casa con la opción de clickar a distintos tabs (general, opiniones, fechas libres, fotos y vídeos, mapa). En este caso, se está enviando para cada tab seleccionado una etiqueta de evento de Google Analytics:

 

Variable Valor Tipo
Category New pdp Valor fijo
Action tabs Valor fijo
Label {{nombre de la pestaña clickada}} Valor dinámico

2

¿Creemos de verdad que esta es la información que más aporta al negocio? Dicha acción se está produciendo en una ficha de producto que:

  1. Se llama Maria Ca l’Agustinet
  2. Pertenece a la población de Vallcebre
  3. Pertenece a la provincia de Barcelona
  4. Pertenece a la comunidad autónoma de Cataluña
  5. Pertenece al país España
  6. Tiene un precio de 30,71€ por persona
  7. ….entre otras características más

¿No sería más rico si enviáramos información sobre categoría del producto en vez de enviar por duplicado la acción que realiza el usuario? Este tipo de tracking muestra una ausencia clara de un modelo de datos que articule nuestro sistema de medición.

 

Vamos a ver otro ejemplo de un sector totalmente distinto. Se trata de un ecommerce, en este caso el usuario está añadiendo un producto a la cesta. Para recoger esta acción se envía un hit de página vista con la siguiente información:

 

Variable Valor Tipo
url física Ecommerce/checkout/basket.cfm Valor predeterminado
dp – reescritura Cesta/validar Valor fijo

3

¿No sería más rico si enviáramos información adicional sobre el tipo de producto que se está añadiendo a la cesta para poder calcular luego el porcentaje de conversión de cada categoría, subcategoría y producto, en vez de tener únicamente el dato agregado?

Siguiendo en el mismo sitio, en este caso vamos a realizar un filtro por marca en el listado de productos. La información que se recoge es la siguiente

Variable Valor Tipo
Category {{categoría}}/{{Subcategoría}} Valor dinámico
Action Filtros Valor fijo
Label {{tipo de filtro}} Valor dinámico

4

¿No sería más rico recoger también la selección que ha hecho el usuario? Por ejemplo, podríamos definir la acción así:

Variable Valor Tipo
Category {{categoría}}/{{Subcategoría}} Valor dinámico
Action Filtros – {{tipo de filtro}} Valor dinámico
Label {{selección}} Valor dinámico

No es que el caso anterior esté mal resuelto, es probable que no interese recoger un nivel de detalle tan alto. En cualquier caso es importante plantearse si queremos prescindir de esta información o no.

 

Vamos a ver otro ejemplo, en este caso se trata de pedir una cita por teléfono. Esta acción solo está disponible en la página de formulario de ‘Pedir cita’. La información que se envía es la siguiente:

Variable Valor Tipo
Category Cita telefónica Valor fijo
Action Click/touch Valor fijo
Label formulario Valor fijo

5

¿No creéis que la información enviada es redundante? Simplemente con el uso de una sola variable es suficiente para definir la acción, podemos utilizar las otras dos para añadir información adicional sobre el usuario o el tipo de producto sobre el que se está solicitando más información.

Como estos ejemplos hay millones, espero que estos ejemplos os hayan hecho reflexionar sobre la importancia de definir un buen modelo de datos que permita recoger aquella información clave y pueda garantizar un sistema de medición completo que responda a los requerimientos del negocio.

Usando el Tag Assistant Recording para depurar una implementación de Analytics

10/12/2015 a las 11:24

Google Tag Assistant es una de las herramientas que más uso en mi día a día como analista web. Esta extensión de Google Chrome funciona perfectamente para detectar de manera rápida si una implementación de Google Analytics con Google Tag Manager está hecha adecuadamente.

 

Si lo instalamos nos encontraríamos el botón de Tag Assistant al lado de la barra de direcciones de Chrome , haciendo click en el nos permite ver de manera rápida los tags de Google implementados en la web (Google Analytics, Adwords conversion, remarketing, Foodlight…), y si hubiera alguno mal implementado o hubiera algún problema nos indicaría que puede ser y como solucionarlo.

 

Lo primero que veríamos sería algo así:

Tag Assistant

Además si hacemos click dentro del tag de Analytics podemos ver que tags hay relacionados con GA, como pageviews o eventos.

Tag Assistant

Por lo que nos sirve para ver de forma clara y rápida que la implementación está ok, ahora a través de otra herramienta podríamos ver ya si se está lanzando cuando toca o si se están enviando los datos que queremos, pero para una visión rápida nos sirve.

Tag Assistant

Ahora, hace relativamente poco, se anunciaron nuevas funcionalidades para el Tag Assistant, por lo que ya no solamente nos servirá como ayuda para ver si la base de la implementación es correcta, si no que podremos sacarle mucho más partido a esta herramienta con la nueva funcionalidad de “recordings” o grabaciones.

 

Esta nueva funcionalidad nos sirve para validar implementaciones de Google Analytics en real time con más detalle, encontrar diferentes tipos de problemas con ayudas para solucionarlos y volverlos a revisar.

 

Las grabaciones a través de Tag Assistant funcionan con todo tipo de hits de analytics: pageviews, events, enhanced ecommerce … así que podemos analizar los datos de un proceso de compra y si se están recogiendo correctamente. Es especialmente útil para validar implementaciones, cuando se han hecho cambios en analytics, datalayer, updates en la web, etc

 

Pero no solo sirve para Analytics, también te indica posibles errores con otros tags como los de Adwords, por ejemplo nos puede mostrar si hay posibles errores a la hora de pasar el gclid a Analytics (dato que atribuye el tráfico a la campaña de Adwords que toca), entre otros.

 

Pero vamos a ver como funciona, especialmente para una implementación de GA. Lo primero es descargarnos el plugin de Google Tag Assistant Chrome Extension. Una vez instalada el uso es sencillo, abre la extensión (tal como hemos indicado anteriormente) y dale al botón “Record”, graba el user flow que te interese y una vez hecho esto simplemente visualiza el “full report”. Veríamos algo como esto:

 

Informe de Google Tag Manager

Nos muestra de cada página que hemos visto en la sesión grabada las URLs de estas,  los tag que han saltado, los errores o alertas, el tiempo de carga…  En este caso el tag de GTM y el de Google Analytics:

tag assistant recording

 

Aquí vemos los datos que nos muestra sobre GA

Tag Assistant

Y aquí los datos sobre GTM

Donde podemos ver hasta el dataLayer.

Tag Assistant

 

Informe de Google Analytics

El segundo informe que encontramos es el de Google Analytics, que nos va a ayudar a ver como se estén enviando los datos y los errores que hay o incluso que pudiera haber.

 

Cosas que nos muestra la página principal:

Tag Assistant

  • Alerts: Cualquier tipo de alerta de que algo no está funcionando como debiera. En este caso nos indica que el código de GA se está lanzando bastante tarde y que puede que el usuario se haya ido o cambiado de página antes de haber recogido esta pageview.
  • Audience: Aquí nos muestra el navegador con el que hemos entrado, el sistema operativo, idioma y número de sesiones.
  • Location: Localización
  • Acquisition: Este es interesante para mi, ya que en Universal Analytics no podemos ver la fuente de tráfico cuando hacemos la depuración, lo que hace muy incómodas algunas validaciones.  Pero a través del Tag Assistant Recording si que podemos ver las fuentes de tráfico y podemos ver si se pierden en algún momento de la navegación, lo que es de gran utilidad.

Tag Assistant

  • Behavior: En este mini informe vemos la página por la que hemos entrado, por la que hemos salido, las que hemos visitado y los eventos que se han lanzado.
  • Conversions: En el caso que se hubiera completado algún tipo de conversión nos aparecería en este informe.

Tag Assistant

  • Flow:  flujo de hits en cada página. Aquí también vemos las alertas en cualquiera de los pasos, y sus posibles causas y recomendaciones para solucionarlas, así como las dimensiones personalizadas de cada una de las páginas.

Tag Assistant

Hay que decir que estos datos los podemos ver siempre que hagamos el recording “logueados” con la cuenta de Google que tenga acceso a la cuenta de analytics de la web de la cual estamos haciendo la grabación, no podemos hacerlo tal cual con cualquier web, bueno, si se puede hacer, pero no daría este detalle de información.

 

Se advierte al usuario del uso de cookies propias y de terceros de personalización y de análisis al navegar por esta página web para mejorar nuestros servicios y recopilar información estrictamente estadística de la navegación en nuestro sitio web. Política de cookies Acepto