Analytics Premium ComScore ClickTale Analytics Certified Partner Klipfolio Coremetrics
Tags populares:

Consultas a la API de Google Analytics con fechas actualizadas automáticamente

20/07/2016 a las 10:25

Al seleccionar las fechas de inicio o fin en nuestras consultas, en el Query Explorer, podemos utilizar today, yesterday o el patrón NdaysAgo además del patrón básico YYYY-MM-DD. Pero, ¿qué pasa si necesitamos datos de las últimas N semanas o los últimos N meses? La cosa se complica y no tenemos muchas mejores opciones que introducir a mano las fechas que necesitamos. Parece una tontería, pero es algo poco práctico cuando queremos usar la misma consulta para distintas fechas, o incluso peor cuando queremos hacerla de forma periódica para hacer informes semanales o mensuales, por ejemplo.

Con la conexión entre R y Google Analytics (de la cual hablamos anteriormente aquí) parecería que no tenemos mejor suerte ya que ni siquiera acepta today, yesterday o NdaysAgo, sino que únicamente acepta el patrón YYYY-MM-DD. Pero, en realidad, ‘jugando‘ un poco con las funciones de tiempo de R sí que podemos consultar estas fechas relativas y, de hecho, cualquier otra que nos propongamos.

En este post veremos la forma de hacer consultas de algunos de los periodos dinámicos más comunes: los últimos N días, las últimas N semanas (de lunes a domingo) y los últimos N meses. A partir de aquí, se podrían modificar fácilmente para consultar otras fechas relativas que se necesiten en cada caso concreto.

Para conseguirlo, lo único que necesitaremos será modificar adecuadamente los parámetros que corresponden a la fecha de inicio (start.date) y de fin (end.date) de la función Init del package RGoogleAnalytics, que es mediante la cual creamos la consulta a hacer a la API de Google Analytics. Sin embargo, para poder hacerlo necesitaremos:

1) Tener instaladas y cargadas las librerías RGoogleAnalytics y lubridate. Esta segunda la necesitamos para usar ciertas funciones de tiempo que nos ayudarán a obtener las fechas relativas que queremos. En principio se carga automáticamente al cargar la librería RGoogleAnalytics, pero si no fuera el caso también habría que cargarla para utilizar el código.

install.packages("RGoogleAnalytics")
install.packages("lubridate")
library(RGoogleAnalytics)

2) Autenticarse con nuestras credenciales para poder hacer la conexión entre R y Google Analytics. Para más detalles, seguir los pasos del post mencionado anteriormente.

#Credenciales para la cuenta de Google Analytics seleccionada
client.id<-"xxxxxxxxxxxxxxxxxxxxxxxx"
client.secret<-"xxxxxxxxxxxxxxxxxxxx"

#Creación y llamada del token (la conexión en sí)
token<-Auth(client.id,client.secret)
ValidateToken(token)

3) Comprobar que tenemos configurados el día y la hora correctos. Para hacerlo se puede ejecutar el comando Sys.time(), que devuelve la fecha y la hora del momento en que se ejecuta.

Últimos N días

query.list<-Init(
 start.date=as.character(Sys.Date()-N), #Sustituir N por un número
 end.date=as.character(Sys.Date()-1)
 dimension="<dimensiones>",
  metrics="<métricas>",
  max.results=10000,
  table.id="ga:XXXXXXX"
)
ga.query<-QueryBuilder(query.list)
ga.data<-GetReportData(ga.query,token)
La fecha inicial tiene que ser la de hace N días. Como Sys.Date() devuelve la fecha actual, simplemente le restamos el número de días que queremos.
La fecha final tiene que ser ayer, así que usamos la misma idea y le restamos 1 día a hoy.
Finalmente, con as.character() convertimos los valores obtenidos en un string o cadena de caracteres, que es el formato que necesitan los parámetros start.date y end.date.

Últimas N semanas (de lunes a domingo)

query.list<-Init(
  start.date=as.character(seq(Sys.Date()-wday(Sys.Date())+2,
               by="-1 week",length.out = N+1)[N+1]), #Sustituir N por un número
  end.date=as.character(Sys.Date()-wday(Sys.Date())+1),
  dimension="<dimensiones>",
  metrics="<métricas>",
  max.results=10000,
  table.id="ga:XXXXXXX"
)
ga.query<-QueryBuilder(query.list)
ga.data<-GetReportData(ga.query,token)
La fecha inicial tiene que ser el lunes de hace N semanas. Para ello, primero recuperamos el lunes de la semana actual mediante Sys.Date()-wday(Sys.Date())+2 y luego retrocedemos N* semanas para obtener el lunes que necesitamos con seq(…,by=”-1 week”,length.out = N+1)[N+1]).
La fecha final, considerando que queremos semanas cerradas, es el domingo de la semana anterior a la actual. Lo obtenemos mediante Sys.Date()-wday(Sys.Date())+1 (no es más que el mismo código con el que obtenemos el lunes de la semana actual pero restando un día para que sea el domingo anterior).
Finalmente, usamos as.character() como en el caso anterior.
*Se utiliza N+1 porque la primera fecha que considera es la de la semana actual.

Últimos N meses

query.list<-Init(
  start.date=as.character(seq(Sys.Date()-day(Sys.Date())+1,
               by="-1 month",length.out = N+1)[N+1]), #Sustituir N por un número
 
  end.date=as.character(Sys.Date()-day(Sys.Date())),
  dimension="<dimensiones>",
  metrics="<métricas>",
  max.results=10000,
  table.id="ga:XXXXXXX"
)
ga.query<-QueryBuilder(query.list)
ga.data<-GetReportData(ga.query,token)
La fecha inicial tiene que ser el primer día del mes correspondiente. Para obtenerlo, primero recuperamos el día 1 del mes actual con Sys.Date()-day(Sys.Date())+1 y después retrocedemos N* meses para tener el día 1 que necesitamos con seq(…,by=”-1 month”,length.out = N+1)[N+1])
La fecha final del periodo, considerando que queremos meses cerrados, es el último día del mes anterior al actual. Lo podemos obtener con Sys.Date()-day(Sys.Date()), que no es más que el mismo código con el que obtenemos el día 1 del mes actual pero restando un día para que sea el último del mes anterior (independientemente de si tiene 30, 31 o 28 días).
Finalmente, como en los casos anteriores, usamos as.character() para convertir los valores en un string o cadena de caracteres, que es el formato que necesitan los parámetros start.date y end.date.
*Se utiliza N+1 porque el primer mes que considera es el actual.
Y ya está! Poniendo nuestro id de la vista de Google Analytics correspondiente más las dimensiones y métricas que se quieren extraer, ya podríamos tener una consulta que siempre devuelva los datos de los últimos N días, de las últimas N semanas o de los últimos N meses. Además, podríamos combinar estos códigos para automatizar consultas con fechas relativas personalizadas, como por ejemplo “los últimos 2 meses hasta el domingo pasado” o cosas por el estilo. De esta forma, podremos repetir nuestros análisis y/o visualizaciones hechos con R periódicamente para generar informes sin tener que modificar ni una línea del código inicial, así que ya tienes una razón más para animarte a usar R para analizar tus datos de Google Analytics. 😉
Espero que este post os pueda facilitar un poco la vida y de cara a próximos análisis sólo tengáis que centraros en la explotación de los datos, que es lo realmente importante. Y si tenéis alguna duda relacionada con el tema o tenéis algún problema al automatizar algunas fechas, no dudéis en dejar vuestro comentario. 🙂

Midiendo conversiones que ocurren fuera de nuestro sitio

29/06/2016 a las 16:57

Seguramente, muchas veces han querido contabilizar conversiones que ocurren fuera de nuestro sitio como por ejemplo, en una web de generación de lead donde la venta ocurre por teléfono y no en el propio sitio.

Hace poco, trabajando para un cliente, me encontré precisamente en esta situación y quiero contarles en este post cómo lo resolví por si les puede ayudar o servir de ejemplo.

No significa por supuesto que sea la única manera de hacerlo, pero los resultados han quedado bastante bien y escribir un post siempre sirve para que otras personas aporten ideas de mejora o diferentes puntos de vista.

El sitio

Llamaré de manera ficticia a mi cliente como ACME FX. Esta empresa ofrece a sus clientes realizar pagos a empresas en el extranjero que impliquen cambio de moneda con unas comisiones sensiblemente inferiores a las que ofrecen los bancos o brokers.

Para convertirse en cliente de ACME FX, una persona debe pasar una serie de “pasos” , el primero de estos es dejar sus datos a través de la web y posteriormente responder a un cuestionario que lo clasifica como Qualified para seguir en el proceso de “conversión” a cliente o no.

 

El reto

Era precisamente este objetivo el que ACME FX quería tener en Analytics es decir, las conversiones serían cuántos de los usuarios que llegan al sitio y envían un contacto, acaban siendo marcados como Qualified. El reto de este proyecto por tanto, era el de conseguir que una acción que ocurre fuera de la sesión del usuario (un check en una casilla por parte del evaluador) acabase en Analytics como una conversión de objetivo asignado al usuario.

Y por si esto fuese poco, queríamos también que las conversiones se asignase al origen, medio y campañas de la sesión online.

 

El proceso para medir las conversiones

En esencia, los pasos que necesitamos seguir para poder realizar este proyecto o cualquier otro que requiera medir conversiones offline/online pero fuera de la sesión del usuario es:

  1. Necesitamos capturar el client id del usuario, el client id es un identificador único que le da Google Analytics a cada usuario que entra en el sitio y recomendamos recogerlo y guardarlo en una custom dimensión (aunque para este caso, guardarlo en una custom dimension no es estrictamente necesario)
  2. Una vez capturado, necesitamos enviar ese client id junto con los datos que envía el usuario en el formulario
  3. Una vez enviado, necesitamos almacenarlo, normalmente en nuestro CRM (o BBDD)
  4. Cuando el usuario realiza la conversión, enviamos un hit de evento mediante el measurement protocol indicando la acción de conversión, en ese hit incluiremos el client id que teníamos almacenado para que pueda ser asignado a ese usuario concreto.
  5. En Google Analytics, damos de alta un objetivo que se cumpla cuando llega un evento del tipo definido en el punto 4.

Eso es todo ;), realmente es tan fácil como parece.  Vamos a ver en detalle cada punto tal y como lo apliqué con mi cliente.

Punto 1

Dado que mi cliente tenía Google Tag Manager instalado, capturar su client id fue realmente sencillo, basta con definir una variable como “custom javascript” (podemos llamarla UA client ID por ejemplo) con el siguiente código:

function() {
 try {
 var cookie = {{ga cookie}}.split(".");
 return cookie[2] + "." + cookie[3];
 } catch(e) {
 console.log("No Universal Analytics cookie found");
 return "n/a";
 }
}

Realmente lo interesante es el JavaScript, esta función devolverá el valor del client id almacenado en la cookie de Google Analytics (el mérito es de Simo Ahava y su excelente post sobre 4 custom dimensión que debes capturar para mejorar tu implementación)

Una vez lo tengas, lo puedes almacenar en una variable para mandarlo junto a los datos del usuario. Adicionalmente nosotros solemos guardarlo en una custom dimension. Hacerlo en  GTM es tan sencillo como modificar la etiqueta de seguimiento de página para que la variable sea enviada como custom dimension.

custom-dimension-userid

Envío del client id como custom dimension

 

Punto 2 y 3:

Una vez capturado el client ID, lo siguiente es mandarlo a la herramienta que gestiona nuestros leads junto con los datos del cliente, dado que hay muchas formas de mandarlo,  me centraré en mi cliente. En su caso su CRM es SalesForce y lo que hicimos fue enviar el client id como campo oculto en el formulario de contacto (o cuando se pedía una demo del producto o se dejaban los datos para solicitar un informe)

Realmente enviar el client id como campo oculto es la manera más común de mandar el dato para almacenarlo.

En SalesForce (o nuestro CRM o BBDD), creamos un campo para guardar el client id y almacenamos este valor junto con el resto de información del usuario.

proceso de guardado

Proceso de guardado del cliend ID en SalesForce

Punto 4:

Ahora viene la parte entretenida. Cuando un usuario ha enviado sus datos, interviene un evaluador que decide si este usuario pasa de Lead a Lead Qualified. Es en este punto cuando queremos considerar en Analytics una conversión . Hasta hace poco, solo podíamos mandar información a Google Analytics si nos encontrábamos en una página web. Esto ha cambiado con el measurement protocol. Este protocolo, nos ofrece una vía para mandar información a Google Analytics desde cualquier dispositivo que disponga conexión a internet, en este caso nuestro CRM.

Cuando el evaluador marca la casilla de Lead Qualified lanzamos un “hit” de Google Analytics de tipo evento, en nuestro caso este hit tiene la siguiente forma:

www.google-analytics.com?v=1&t=event&tid=UA-XXXXXX-X&cid=884b4995-dd01-45c1-9dd8-f7ef158abdc3&dp=%2FsalesForce&ec=Offline%20interaction&ea=Lead%20status&el=qualified&ni=1&cd3=884b4995-dd01-45c1-9dd8-f7ef158abdc3

La explicación de los parámetros sería la siguiente:

 

Parámetro Valor Descripción
v 1 Versión de measurement protocol
t event Tipo de hit
tid <cuenta> Cuenta a la que se manda los datos
cid <Client ID> Client ID, permite relacionar los datos del CRM con los de Google Analytics
dp /salesForce Página asociada al evento, permite que filtrando la página salesForce se eliminen todos los eventos
ec Offline interaction Categoría del evento que se manda
ea Lead Status En el event action indicaremos la acción que se realiza sobre el usuario en sales force.
el Qualified Indica que el lead tiene el status de Qualified (objetivo)
ni 1 Se pone a 1 para indicar que el evento es siempre “no interactivo” con lo cual no generamos sesión con los hits del measurement protocol y no engordamos las estadísticas (dado además que los usuarios son existentes porque uso el client ID, no creo tampoco usuarios nuevos)
cd3 <Client ID> Almacena el client ID como custom dimensión

Un detalle importante es que no debemos indicar nunca ni el source ni el medium (parámetros cs y cm) en el hit de evento.

Al no indicarlos, este hit se considerará como tráfico directo con lo cual, a efectos de la conversión, aplicará el funcionamiento normal de Google Analytics que es el de tomar como fuente y medio aquellos que tenía el usuario en su última sesión online (es decir, la sesión en la que el usuario envió el lead) .

Un problema que puede aparecer es que el usuario entre de nuevo al sitio en el intervalo de tiempo que pasa desde que manda el formulario y se le clasifica como Lead Qualified, en ese caso, la fuente/medio que se asignaría a la conversión sería esta última (siempre que no sea directa) y no aquella que generó el envío del contacto.

Punto 5:

Lo que nos queda ahora es dar de alta en Analytics un nuevo objetivo, este objetivo se “disparará” cuando en Analytics se reciba un hit con el evento definido para clasificación de lead.

Objetivo

Definición del objetivo de generación de lead válido

Resultado

El resultado de todo este proceso es el que pueden ver a continuación.

Fuente y medios que generan la conversión

Informe de resultado de conversiones en Sales Force

Como podemos ver, se contabilizan las conversiones del objetivo y estas se asigna a la fuente y medio de la sesión previa online que es lo que queríamos.

Espero que el post es haya resultado útil y se animen a medir todo aquello que el usuario hace “fuera” de la sesión online.

Si tienen cualquier duda o sugerencia no duden en plantearla en los comentarios

Fernando

Como empezar a usar R statistics

15/06/2016 a las 10:51

Muchos ya habréis notado, por anteriores posts, que nosotros estamos acostumbrados a usar R. Pero ello no hace que nos olvidemos de nuestros inicios y de la notable curva de aprendizaje que conlleva empezar a usar R de cero.

Pero si os encontráis en vuestros inicios con R no os preocupéis, la comunidad de usuarios/desarrolladores de packages de R ha pensado una buena ayuda para empezar a usar R haciendo más amena la primera toma de contacto con la herramienta, y nosotros estamos aquí para contároslo.

La solución que os queremos presentar hoy es el package/tutorial Swirl. Se trata de un package del mismo R que consta de un tutorial interactivo de dicha herramienta.

Para acceder al tutorial debemos:

  1. Tener R instalado y abrirlo.
  2. Instalar y cargar el package “Swilr” usando los siguientes comandos:
                          install.packages(“swirl”)
                          library(swirl)
  3. Llamar la función correspondiente para iniciar el tutorial:
                           swirl()

Llegados a este punto, ya habremos empezado.

img R swirl 1

A partir de aquí, las diferentes explicaciones y actividades nos irán apareciendo en la consola de R mediante texto en inglés. En cada bloque explicativo o ejercicio se esperará nuestra interacción mediante la respuesta de dicho ejercicio propuesto, pulsando “enter” para saltar a la siguiente explicación o utilizando comandos específicos para guardar la progresión o abandonar el tutorial, por ejemplo.

El programa consta de los siguientes puntos:

img R swirl 2

Se pueden seguir los diferentes steps uno a uno en orden, realizar solo aquel que nos interese, ir haciendo poco a poco guardando el progreso y recuperándolo en otro momento… vamos, toda la flexibilidad que tanto nos gusta que tengan este tipo de tutoriales.

Además, cada uno de estos bloques consta de diferentes apartados. Por ejemplo, este es el contenido correspondiente al bloque de análisis exploratorio de datos (bloque 4):

img R swirl 3

Como podéis ver se trata de un completo tutorial interactivo que os animamos a probar y a compartir vuestra experiencia con todos en los comentarios.

Good luck and Statistics 😉

El algorítmico y absorbente mundo de Facebook

09/06/2016 a las 13:29

Algoritmo de Facebook como funciona que es EdgeRank

El tiempo de media, según The New York Times, que se invierte entre Facebook, Messenger e Instagram es de 50 minutos al día. Las plataformas de Zuckerberg (no tiene en cuenta WhatsApp pese a ser de su propiedad) superan con creces las cifras de YouTube (17 minutos), LinkedIn (2 minutos) o Twitter (1 minuto).

Más allá de su precisión, suban o bajen, los números marcan una explícita tendencia que sonríe claramente a Facebook. Aún así, la empresa quiere más. Más tiempo entre sus algodones implica obtener más datos sobre el comportamiento de los usuarios, más control y al mismo tiempo más engagement y por tanto más alicientes para atraer a la publicidad.

Estamos hablando que de 24 horas que tiene el día, si descartamos el promedio de 8,8 horas que se consumen durmiendo, invertimos un dieciseisavo en Facebook y sus aliados, prácticamente lo mismo que a comer (1 hora). De la lectura o practicar deporte mejor ni hablar. Nadie nos obliga a ello, estar en Facebook es una elección libre que si se realiza es porque nos satisface. Y Zuckerberg lo sabe, por lo que no duda en ofrecer más y más opciones para atraparnos con sus hechizos (y los que podrían están por llegar, como un nuevo navegador dentro de la app, las imágenes en 360º o la categorización del feed).

Dimensiones personalizadas Tiempo y Temperatura en Tealium

09/06/2016 a las 12:35

¿Tienes un ecommerce o tienes a tu cargo el análisis de los datos de alguno?

Seguro que más de una vez has escuchado algo como que los días de lluvia son una bendición para el comercio electrónico ya que la gente suele quedarse en casa y realizar sus compras a través de la red.
Pues bien, el gran Simo Ahava nos daba una idea en este post para poder comprobar si realmente se cumplía dicha teoría mediante una implementación en GTM.

Nosotros hemos comprobado que su implementación funciona perfectamente en Google Tag Manager, sin embargo teníamos la duda de cómo realizar esta misma implementación en Tealium.

¿Qué es Tealium?

Para los que no sepáis qué es Tealium os diré de manera rápida que se trata de otro gestor de etiquetas, similar a GTM pero con diferentes características. Tealium utiliza el objeto utag_data para proporcionar información desde el site, además una de sus mayores fuerzas es la integración con un gran número de herramientas de terceros, lo que facilita mucho el trabajo con este gestor de etiquetas.

La Suite Analytics 360 por fin para todos los Premiums

24/05/2016 a las 09:58

Para los que aún no se hayan enterado, hoy 24 de mayo se hace oficial el lanzamiento de la nueva suite de analítica digital de Google. Con el nombre de Analytics 360 esta nueva suite incluye 6 productos, algunos nuevos y otros ya conocidos, que deberían servirnos entre otras cosas para entender a nuestros usuarios, mejorar el rendimiento de las campañas, visualizar la información de manera gráfica o realizar pruebas de contenido para mejorar la experiencia de uso.

Todas las empresas que actualmente tienen una licencia de Google Analytics Premium, pasarán automáticamente a partir de hoy (es posible que el proceso se demore unos días)  a tener una licencia de Analytics 360 y TagManager 360,  siendo opcional el uso del resto de productos (opcionalmente puede contratarlos 😉

El esquema o papel que cada uno de los productos tiene dentro de la suite queda explicado en esta imagen, que nos servirá además para ir introduciendo los diferentes productos:

Google Tag Manager 360

Como podemos ver en la imagen, el Tag manager 360 se encuentra en la “base” de la suite. Este producto, al igual que ocurre con el actual Google Tag Manager, nos servirá para “desplegar” o implementar el resto de productos de la suite con poca o ninguna dependencia de IT (con la excepción, por el momento, de Optimize 360 y el Audience Center 360 que no necesita tag) con lo que será el compañero ideal para el Analytics 360.

A día de hoy, el Tag Manager 360 no supondrá más que un cambio de nombre del actual Google Tag Manager (seguirá existiendo una versión gratuita), aunque a medida que avance el año se le irán incorporando nuevas funcionalidades.

Todos los clientes de Google Analytics Premium actuales tendrán incluido el Tagmanager 360 cuando la licencia de Premium pase a ser una licencia de Analytics 360.

Google Analytics 360

Lo que se conocía antes como Google Analytics Premium. En el momento del lanzamiento, solo se se espera un cambio de nombre, aunque a medida que avance el año se le irán añadiendo nuevas funcionalidades.

En esencia será donde “comience todo”, es decir, donde recogeremos la información de nuestros usuarios que luego integraremos en el resto de productos de la suite.

Para los que no recuerden las diferencia entre el Analytics “normal” y el analytics 360, les dejo una tabla comparativa.

GA Standard

Analytics 360

Procesamiento de datos y límites
  • Muestreo de datos en la UI
  • 24-48 horas en mostrar datos actualizados
  • Límite 10M de hits/mes
  • Datos sin muestrear en la interfaz
  • Actualización en 4h máximo
  • 2B hits/mes (se puede pedir hasta 20B) *
Integración con otros productos de Google
  • AdWords, AdSense
  • AdWords, AdSense, DBM/DCM, DFP
  • Exportación a BigQuery
Herramientas de análisis avanzado
  • Modelo de atribución standard.
  • Data-Driven Attribution
Soporte/Servicio
  • Sin soporte de entrada, salvo que se contacte con un partner para contratar el mismo.
  • Soporte por parte del vendedor de la licencia o bien, en el caso de compra directa a Google, por sus técnicos según las condiciones de la SLA

Google Optimize 360

Por fin Google saca una herramienta de testing y personalización profesional (¡y con editor integrado!). La idea de esta nueva herramienta es la de no solo ofrecer la posibilidad de crear test sobre nuestros contenidos sino ser capaz de, en base a las audiencias que podamos crear, personalizar los contenidos que visualizan los usuarios para que tengan una mejor experiencia de uso.

Además, siguiendo la filosofía de integración entre los distintos elementos de la suite, los datos de esta herramienta provienen directamente de Analytics 360. Con lo cual se acabaron las discrepancias que actualmente aparecen entre los datos de content experiment y Analytics. También implica que podremos lanzar experimento sobre audiencias que hayamos creado en Analytics.

Lo contrario también será posible, es decir, aparecerán en Analytics 360 las dimensiones que indican el experimento y la variante que ha visto un usuario por si queremos realizar estudios en profundidad.

En definitiva, el “flow” ideado por google para su 360 es que mediante el Analytics 360 identifiquemos las páginas con problemas y las necesidades de audiencias concretas. Una vez hecho esto, usaremos el Optimize 360 para crear test que corrijan los problemas o preparar contenidos que se adapten a las necesidades de los visitantes.

Google Data Studio 360

Este es el nuevo producto de visualización de datos de Google, el objetivo es conseguir mostrar los datos de manera visual de forma que sean más fáciles de interpretar y leer. La ventaja es que es completamente personalizable con lo que podremos olvidarnos de crear cuadros de mando usando el spreadsheets (al menos para aquellos que puedan pagar la herramienta 😉

Con el Data Studio se persigue solventar la “dificultad” que, de entrada, supone utilizar Google Analytics para los menos expertos. Gracias a la capacidad de convertir la información relevante en gráficos, podemos hacer llegar los datos a un mayor número de personas en la organización y ayudarles tanto a interpretar como a tomar decisiones basadas en estos mismos datos.

Actualmente el Google Data Studio tiene conectores tanto para Analytics 360 como para el Audience 360 así como BigQuery y Google Spreadsheets (se esperan más a lo largo del año), de forma que podemos importar, combinar y visualizar los datos de estos productos en Data Studio.

Google Attribution 360

Llegamos a uno de los pesos pesados de la nueva suite, este nuevo producto se llamaba anteriormente Adometry. Para los que no lo conozcan el objetivo de Adometric es ayudar a los responsables de marketing o anunciantes a evaluar correctamente el rendimiento de diferentes medios y campañas tanto online como offline.

La potencia de este producto es que además de analizar el rendimiento a través de diferentes canales es capaz de hacerlo también a través de diferentes dispositivos y sistemas (TV, radio, web etc.) de forma que podremos tener no solo un embudo multicanal sino también un embudo multidispositivo.

Entrando en detalle, el producto tendrá 3 componentes:

  • Digital Core (Digital Attribution): Versión mejorada de los actuales modelos de atribución de Google Analytics orientado a campañas online
  • TV: Nos servirá para medir el impacto de las campañas o apariciones en televisión a la hora de atraer tráfico a nuestro negocio
  • MMM (Marketing Mix Model): Nos permite identificar el impacto tanto de las acciones online como offline a la hora de generar ventas por ejemplo (ver imagen)

Google Audience Center 360

El Audience 360 es el DMP de Google o data management platform. La idea “traer” datos de diferentes fuentes como Analytics, DCM, AdWords, Youtube, información demográfica y de afinidad etc. Una vez que los datos están en la herramienta, podemos analizar nuestras audiencias para identificar las más valiosas y usar estos datos para crear otras audiencias similares. Estas audiencia podrán ser usadas en otras herramientas de Google como por ejemplo toda la suite de DoubleClick.

Si aún te quedan dudas o preguntas, no dudes en dejarlas en los comentarios!

ROI, IOR y otras siglas para valorar las redes sociales

03/05/2016 a las 09:51
roi ior calcular valor redes sociales

aisletwentytwo / Flickr (cc)

El concepto básico del ROI (Retorno de la Inversión) es muy sencillo: cuánto beneficio obtengo tras realizar una inversión. Existen negocios, especialmente los comercios electrónicos, que gracias a herramientas como Google Analytics y sus embudos multicanal nos permiten conocer hasta qué punto cada canal contribuye a sus objetivos, ya sea de modo directo o como asistentes, incluidas las redes sociales.

En principio, la finalidad de estas redes debe ser mucho más que la venta. Los estímulos ofrecidos y las reacciones que busquemos tienen que ser principalmente para relacionarnos y ser uno más entre la comunidad, sin duda el mejor modo para fidelizar. Esta es la teoría, en la práctica la realidad suele ser diferente.

La escucha activa y el análisis de las métricas sociales permiten, entre otras muchas ventajas, tener insights para enfocar mejor las campañas futuras, saber con detalle qué hacer y cómo le funciona a la competencia sus estrategias o de qué temas hablan nuestros simpatizantes/detractores.  ¿Cuánto vale que te recomiende un usuario? ¿Y qué nos ayuden a mejor productos y servicios? ¿Qué precio tiene para nosotros todo este conocimiento? ¿Cómo intentar medirlo?

Analiza tus productos con todo lujo de detalle

29/03/2016 a las 11:06

Analiza tus productos con todo lujo de detalle

 

Google Analytics, y especialmente con el comercio electrónico mejorado que ya os ayudamos a saber implementar,  nos permite medir el desempeño de los productos o servicios individuales que ofrecemos en nuestra web.

En los informes estándar, podremos analizar cuánto hemos vendido de cada uno de ellos, por ejemplo. Y con el comercio electrónico mejorado, incluso el porcentaje de veces que un producto visto fue añadido al carrito o comprado.

 

POST_DR_METRICS_Dimensiones personalizadas de producto_2

 

Pero en muchas ocasiones, los análisis los haremos agrupando dichos productos en categorías u otra clase de agrupaciones con algo en común.

Podemos segmentar o filtrar en base a la información que recogemos de los productos:

  • Nombre
  • Identificador
  • Precio (usando como criterio que estén en una franja u otra, por ejemplo)
  • Marca
  • Categoría (en el comercio electrónico, la categoría puede estar compuesta de hasta 5 niveles).
  • Variante (colores, tallas, etc.)
  • Cantidad
  • Cupón (para cuantificar la influencia de ofrecer o no descuentos)

Pero, ¿y si esta información se nos quedara corta? ¿Y si nuestro producto es muy complejo y está definido por una gran cantidad de variables por las que podría interesarnos analizar su desempeño?

Imaginemos que nuestro negocio es una inmobiliaria, y nuestra transacción, la solicitud de visita a un inmueble. A la hora de buscar vivienda o local, se van a tener en cuenta factores como el número de habitaciones, la superficie útil, cercanía a ciertos servicios, si tiene ascensor o no, etc. Si disponemos de esa información y permitimos al usuario realizar búsquedas filtrando por ella, ¿por qué no recogerla también en las transacciones? Podríamos, de manera sencilla y sin salir de Google Anaytics, analizar la influencia en la tasa de conversión de todos y cada uno de los posibles valores para esas variables.

Aquí es donde entran en juego las dimensiones personalizadas, que tanta flexibilidad aportan a la herramienta. La aparición de las dimensiones y métricas personalizadas de ámbito “producto” facilitan mucho su uso en el ecommerce a la hora de la implementación.

 

POST_DR_METRICS_Dimensiones personalizadas de producto_3

 

¿Cómo pasamos sus valores a Google Analytics?

Si estamos implementando con Google Tag Manager (lo más recomendable), el código para un producto en el comercio electrónico mejorado o enhanced ecommerce tendría este aspecto:

‘products’: [{  

        ‘name’: ‘Nombre del producto’,

        ‘id’: ‘123456’,

        ‘price’: ‘1000.00’,

        ‘brand’: ‘Marca del producto’,

        ‘category’: ‘Textil/Hombre/Camisas/Manga larga/Algodón’, // categoría (hasta 4 posibles niveles de subcategoría)

        ‘variant’: ‘Blanca’, // variación que no implica un cambio de identificador de producto

        ‘quantity’: 1, // Cantidad del producto adquirida

        ‘coupon’: ” // Descuento a nivel de producto individual

       }]

Si quisiéramos “enriquecer” la información recogida mediante dimensiones personalizadas de ámbito “producto”, tan sólo tendríamos que añadirlas a la lista de variables estándar:

‘products’: [{  

        ‘name’: ‘Nombre del producto’,

        ‘id’: ‘123456’,

        ‘price’: ‘1000.00’,

        ‘brand’: ‘Marca del producto’,

        ‘category’: ‘Textil/Hombre/Camisas/Manga larga/Algodón’, // categoría (hasta 4 posibles niveles de subcategoría)

        ‘variant’: ‘Blanca’, // variación que no implica un cambio de identificador de producto

        ‘quantity’: 1, // Cantidad del producto adquirida

        ‘coupon’: ”, // Descuento a nivel de producto individual

        ‘dimension1’: ‘valor para la dimensión 1’,

        ‘dimension2’: ‘valor para la dimensión 2’,

        ‘dimension3’: ‘valor para la dimensión 3’

      //y así con todas las dimensiones que necesitemos (y de las que dispongamos).        

       }]

La correspondiente etiqueta de GTM, cuando detecte la transacción y la envíe a Google Analytics, enviará automáticamente y sin que tengamos que hacer nada, toda la información adicional que hemos asociado a los productos.

Es decir, no habrá que definir variables en GTM que recojan esa información adicional ni tendremos que especificar en la etiqueta de la transacción qué variable corresponde con cada dimensión personalizada. Es por esto que sea necesario referirnos en el datalayer a las dimensiones de esa manera (‘dimension1’ por ejemplo) y no por su nombre (‘Número de habitaciones’ en el ejemplo de la inmobiliaria).

Ahora solo quedaría analizar nuestros productos utilizando estas nuevas variables como dimensiones secundarias en los informes estándar o mediante informes personalizados.

Desde luego, si el producto tiene cierta complejidad y disponéis de dimensiones personalizadas libres, os animamos a “enriquecer” de esta manera tan sencilla pero potente vuestras implementaciones.

 

Google Analytics 360 Suite hoy su gran lanzamiento

15/03/2016 a las 20:28

Os adjunto la carta que Paul Muret, responsable  y creador de Google Analytics, nos ha enviado para presentarnos la evolución de la herramienta en su Suite 360.

Hola,

Hoy estoy encantado de compartir la próxima evolución de Google Analytics: Google Analytics 360 suite.

Una revolución en el marketing está en marcha – las empresas se enfrentan a una explosión de nuevos dispositivos, canales, audiencias fragmentadas y compra programática – que lleva a un aumento exponencial en el volumen de datos. Con un creciente número de señales a monitorizar, es más difícil que nunca manejar todo, encontrar información útil, y convertir esas ideas en acción.

Es por eso que hemos construido el Analytics 360 Suite. Un sistema que integra sus datos con herramientas de marketing análisis, diseñadas específicamente para cubrir las necesidades de responsables del marketing o análisis dentro de una empresa y ayudarles a:

  • Visibilidad completa de la conducta del consumidor. Los responsables de marketing necesitan la visión completa de los datos de forma inmediata para ver lo que está sucediendo con sus usuarios en todos los puntos de contacto, canales y dispositivos. Comprender el contexto completo del viaje de un usuario en lugar de medir solamente una sesión, un único dispositivo, o el último-clic.
  • Obtener información útil, no más datos. Los profesionales del marketing necesitan una enorme potencia de cálculo, data science y algoritmos inteligentes, todos trabajando juntos para ayudar a dar sentido a los datos. Esa inteligencia hace el trabajo pesado y entrega rápidamente hallazgos de valor para que el equipo se dedique su tiempo a actuar.
  • Compartir conocimientos y colaborar con todo el mundo. Poniendo los datos en manos de todos fortalece objetivos en común y potencia las sinergias para conducir a una toma de decisiones más inteligente. Reducir el tiempo invertido en informes para crear rápidamente bellas visualizaciones de los acontecimientos más significativos del negocio, y luego compartirlo con toda la organización.
  • Ofrecer experiencias atractivas a las personas adecuadas. Hacer que su marca sea útil para los consumidores. Con integraciones a través de múltiples tecnologías de Google, la suite de productos que no sólo funciona bien con éstas, sino también con otros productos, incluyendo AdWords, DoubleClick y plataformas de terceros. Esto permite a los marketers tomar acciones inmediatas y mejorar la relevancia de los anuncios y las experiencias en sus webs.

 

Analytics 360 suite

¿Qué significa esto para usted?
No habrá ningún cambio inmediato en su cuenta. La suite 360 ​​Analytics BETA se irá introduciendo en clientes GA Premium a lo largo de 2016.

Es sólo el comienzo – vamos a seguir invirtiendo fuertemente en nuevos productos, características y funcionalidades. Es un momento emocionante para los que nos dedicamos al análisis de marketing, y esperamos compartir más información con usted pronto.

Para más información acerca de todos los nuevos productos y la suite 360 ​​Analytics, visite nuestro sitio web.

Cordialmente,
Paul Muret
VP, Analytics, video & display products

Analítica en redes sociales para cumplir objetivos

01/03/2016 a las 17:11
medir redes sociales herramientas analitica

Camille Rose (cc) Flickr

Al margen de la escucha activa, la monitorización y el sentimiento del que hablamos recientemente, como analistas del social media también debemos prestar una exquisita atención a las métricas que ofrecen las redes sociales de nuestros clientes (y las de la competencia), pues es el único modo de comprobar si la marca está cumpliendo con sus expectativas.

Y ese es precisamente el camino que hay que seguir: definir objetivos, medirlos, analizarlos, actuar en consecuencia para mejorarlos y vuelta a empezar para transformar los resultados. Así una y otra vez. Toda empresa con presencia en redes sociales debería tener una estrategia y un cuadro de mando con los indicadores que determinen su estado de salud. De no ser así, si no hay ninguna finalidad explícita ni intención de dar valor a la comunidad y crecer con ella, conviene no estar.

Mejorar la relación con los usuarios y consumidores no es una tarea sencilla, y el único modo para conseguirlo es medir. Medir, medir y después seguir midiendo. Creemos que no se nos ha olvidado citar la importancia de medir. No nos importa repetir: hay que medir el trabajo de los gestores online de las marcas para identificar sus carencias (para superarlas) y virtudes (para potenciarlas).

Se advierte al usuario del uso de cookies propias y de terceros de personalización y de análisis al navegar por esta página web para mejorar nuestros servicios y recopilar información estrictamente estadística de la navegación en nuestro sitio web. Política de cookies Acepto