Analytics Premium ComScore ClickTale Analytics Certified Partner Klipfolio Coremetrics

Google Data Studio: adiós al límite de 5 informes

02/02/2017 a las 19:32

A partir de hoy, la versión gratuita de Data Studio, la solución de Google para la creación de cuadros de mando e informes que os presentamos en su día,  ya no nos va a limitar a 5 informes o reports por cuenta.

Y como esa era la única diferencia entre esta versión y la de pago (Data Studio 360), Google dejará de cobrar por la segunda durante el resto de 2017 a los clientes que la tuvieran contratada.

Data Studio: ejemplo de cuadro de mando (Fuente: Google)

Un ejemplo de cuadro de mando realizado con Data Studio (Fuente: Google)

 

Entendemos la decisión de Google porque conocemos bien la herramenta. Estamos certificados, trabajamos con ella y seguimos de cerca los avances y novedades que se van incorporando. Es sólida y su amigable interfaz permite crear cuadros de mando muy completos en poco tiempo. Pero es una beta y se nota: se echan de menos conectores con más fuentes de datos dsitintas, por ejemplo. Y también había algunas carencias de partida difíciles de explicar, como la ausencia de semanas ISO en los selectores de periodo. Esta en concreto, fue subsanada hace unos días y ya es posible, al fin, seleccionar semanas comenzando por el lunes.

data studio beta logo

Google está mejorando Data Studio rápidamente y teniendo en cuenta las sugerencias de los usuarios. La propia herramienta nos enlaza con el foro oficial desde la ayuda, animándonos a participar. A mejoras como las nuevas opciones en los selectores de fechas, se van a ir uniendo otras muy demandadas como los segmentos avanzados en el conector con Google Analytics.  Cuando la palabra “beta” desaparezca de su nombre, si el ritmo de mejora no decae, podemos llegar a tener una herramienta bastante completa y potente.

Para terminar, es importante remarcar que está previsto que algunas de las características que están por llegar no estén pensadas para ofrecerse en una herramienta gratuita, lo que justificará volver a comercializar una versión 360 de pago en un futuro.

Podéis leer el comunicado oficial de Google aquí.

Y si no conocéis todavía Data Studio, un buen comienzo puede ser este video:

Power BI como herramienta de Analítica Web

17/01/2017 a las 10:01

Cada día se generan toneladas y toneladas de datos en el mundo empresarial ya sea en un entorno online como en un entorno off-line y cada vez son más el número de herramientas o software que utilizamos. Surge la necesidad de tener todos esos datos en un mismo lugar.

En el análisis de los datos debemos crear un plan de proyecto de análisis, mejorar los problemas de calidad de los datos y trabajar con un equipo multifuncional (consultor analítico, Técnico IT, desarrollo BI). En definitiva, debemos transformar estos datos en valor para la empresa.

Microsoft Power BI tiene 4 productos:

  • Power BI Desktop. Es la instalación en local, su uso es el entorno de trabajo donde posteriormente publicaremos en Power BI (online)
  • Power BI Online, es el entorno donde se comparte y publican los paneles y los informes.
  • Power BI Mobile para acceder en cualquier lugar y en cualquier momento
  • Power BI Embedded. Si tienes una aplicación o intranet y quieres integrarla con Power BI lo puedes hacer mediante la API de Power BI. Ver ejemplo de Power BI Embedded

Basket Market Analysis

17/08/2016 a las 14:18

Probablemente os habréis preguntado muchas veces qué combinación ganadora de productos genera más ventas en su tienda física o en el catálogo de su tienda online.

1

Esta información puede ser aprovechada para numerosos fines. Entre otros:

  • Cross-selling de productos.
  • Redistribución del catálogo o del escaparate (en caso de tratarse de una tienda física): colocar los artículos que puedan co-ocurrir juntos uno cerca del otro.
  • Campañas de email marketing: ofrecer promociones/descuentos/sugerencias de productos relacionados con el que ya sabemos que han comprado.

Pero, ¿y si además pudiéramos conocer la probabilidad de que, habiendo comprado cierto(s) producto(s), el cliente termine comprando otro(s)?

Existe una metodología llamada Market Basket Analysis que nos ayudará en la búsqueda de estos insights.

Market Basket Analysis

En el mundo online acumulamos una enorme base de datos de las transacciones de compra. Cada transacción consiste en una serie de productos que se han comprado de manera conjunta.

Pero, ¿qué productos se compran conjuntamente con más frecuencia? Mediante la metodología del Basket Market Analysis podemos responder preguntas tales como: ¿Existen relaciones entre ciertos productos, que al comprarlos influyen significativamente en la compra de otros productos? Esto lo entendemos como reglas de asociación entre productos.

Podemos entender estas reglas de asociación como “Si compras A y B, entonces es probable que compres C”.

Una medida de la bondad de estas relaciones son los estadísticos Support, Confidence y Lift:

  • Support: proporción del total de compras en las que X e Y se han comprado conjuntamente.

4

  • Confidence: proporción de compras con X donde también se compró Y. En términos estadísticos, se trata de una probabilidad condicional.

5

  • Lift: Un valor de Lift > 1 indica que los productos X e Y se compran conjuntamente más veces de lo esperado. Por tanto, estamos interesados en aquellas relaciones con un valor de Lift>1.

6

Un ejemplo ficticio de los resultados que podríamos obtener de un análisis de este tipo nos lo proporciona la siguiente tabla:

3

La manera de leer la tabla anterior es, por ejemplo, para la primera entrada: “Los productos A y B se han comprado conjuntamente en el 0.23% del total de las transacciones, y además, en el 95% de las transacciones que contienen el producto B también se ha comprado A”. A priori, puede parecer poco un valor para Support del 0.23%: ¡Solamente esta proporción del total de las transacciones contienen A y B!. Pero suponed que tenemos registradas 12K transacciones, ¡se darían 2760 con los productos A y B!

Implementación en R

Utilizamos el algoritmo apriori para encontrar las reglas de asociación que comentábamos anteriormente. Únicamente se ha de instalar en R el paquete arules y ¡manos a la obra!

Todas las funciones necesarias para el análisis las podemos encontrar cargando dicha librería. En caso de obtener numerosas reglas de asociación (todo depende del tipo de estudio que se realice y de la cantidad de transacciones con las que se trabaje), es de gran ayuda el paquete arulesViz. Este añade características adicionales al paquete arules: se apoya en gráficos muy curiosos de las reglas de asociación, permitiéndonos estudiarlas de una manera más cómoda.

Como curiosidad, y para hacernos una ligera idea de cómo trabaja el algoritmo apriori, primero encuentra las transacciones unitarias (es decir, transacciones que contienen un único producto) más frecuentes. A continuación, estudia todas las combinaciones posibles (dos a dos) de las transacciones unitarias, y se queda con las transacciones que contengan dichas combinaciones y que se dan con más frecuencia. Así, iterativamente, el algoritmo continúa hasta que hallan sido generados todos los conjuntos de ítems más frecuentes con k productos y no se obtengan más conjuntos frecuentes dentro de las transacciones.

Si os encontráis en vuestros inicios con R, que no cunda el pánico. Se ha desarrollado un package interactivo de R que os enseñará a sacarle partido a la herramienta. Para más información: Como empezar a usar R statistics, de mi compañera Anna Fernández.

Los pasos a seguir para llevar a cabo el Basket Market Analysis en R son:

    1. Leemos el Dataset. Únicamente necesitamos una tabla en la que cada fila contenga el ID de transacción y el nombre del producto.7
    2. Agregar por ID de transacción todos los productos comprados. Existe una función de la librería data.table (llamada del mismo modo) que hace las agregaciones de manera muy eficaz:8Otra alternativa para hacer la agregación, mediante la función split:9
    3. Convertir los datos agregados en tipo de objeto “transacción”:10
    4.  Arrancamos el algoritmo mediante la función a priori de la librería arules.11Notad que los campos de los parámetros para Support y Confidence están vacíos. La definición de estos umbrales mínimos depende de la cantidad de transacciones que manejemos. Para definir el umbral mínimo para Support nos podemos apoyar en el siguiente gráfico: frecuencia del producto en las transacciones.13El código de R para obtener el gráfico anterior:

      12

      Nótese como aparece el artículo más frecuente en menos del 0.3% de las transacciones. La línea roja indica donde hemos decidido fijar el umbral mínimo para Support. Este umbral debe ser lo suficientemente pequeño para que entren en juego varios productos en el análisis (en caso de proporcionar un valor muy grande para Support, es posible que el algoritmo no sea capaz de encontrar association rules).

    5.  Finalmente, visualizaremos las reglas de asociación de productos mediante el siguiente código: inspect(rules).  Así, obtendremos una tabla análoga a la del ejemplo. En el caso de no disponer de reglas de asociación, siempre se puede jugar “relajando” los umbrales mínimos de los parámetros Support y Confidence.

Consideraciones

Resulta muy interesante también estudiar las relaciones entre productos más débiles.

Si el análisis muestra que dos artículos no están relacionados fuertemente, y sin embargo, se encuentran muy próximos en el catálogo online (porque puedan pertenecer a la misma categoría de producto, por ejemplo) cabría replantearse una re-estructuración del catálogo.


¡Y listo!

Indagando en estos resultados, ¡podríamos llevarnos muchas sorpresas analizando únicamente las transacciones!.

¿No has probado este tipo de análisis? ¡Anímate!

Y cualquier pregunta que se os presente, no dudéis en comentar 🙂

 

Google Analytics 360 Suite hoy su gran lanzamiento

15/03/2016 a las 20:28

Os adjunto la carta que Paul Muret, responsable  y creador de Google Analytics, nos ha enviado para presentarnos la evolución de la herramienta en su Suite 360.

Hola,

Hoy estoy encantado de compartir la próxima evolución de Google Analytics: Google Analytics 360 suite.

Una revolución en el marketing está en marcha – las empresas se enfrentan a una explosión de nuevos dispositivos, canales, audiencias fragmentadas y compra programática – que lleva a un aumento exponencial en el volumen de datos. Con un creciente número de señales a monitorizar, es más difícil que nunca manejar todo, encontrar información útil, y convertir esas ideas en acción.

Es por eso que hemos construido el Analytics 360 Suite. Un sistema que integra sus datos con herramientas de marketing análisis, diseñadas específicamente para cubrir las necesidades de responsables del marketing o análisis dentro de una empresa y ayudarles a:

  • Visibilidad completa de la conducta del consumidor. Los responsables de marketing necesitan la visión completa de los datos de forma inmediata para ver lo que está sucediendo con sus usuarios en todos los puntos de contacto, canales y dispositivos. Comprender el contexto completo del viaje de un usuario en lugar de medir solamente una sesión, un único dispositivo, o el último-clic.
  • Obtener información útil, no más datos. Los profesionales del marketing necesitan una enorme potencia de cálculo, data science y algoritmos inteligentes, todos trabajando juntos para ayudar a dar sentido a los datos. Esa inteligencia hace el trabajo pesado y entrega rápidamente hallazgos de valor para que el equipo se dedique su tiempo a actuar.
  • Compartir conocimientos y colaborar con todo el mundo. Poniendo los datos en manos de todos fortalece objetivos en común y potencia las sinergias para conducir a una toma de decisiones más inteligente. Reducir el tiempo invertido en informes para crear rápidamente bellas visualizaciones de los acontecimientos más significativos del negocio, y luego compartirlo con toda la organización.
  • Ofrecer experiencias atractivas a las personas adecuadas. Hacer que su marca sea útil para los consumidores. Con integraciones a través de múltiples tecnologías de Google, la suite de productos que no sólo funciona bien con éstas, sino también con otros productos, incluyendo AdWords, DoubleClick y plataformas de terceros. Esto permite a los marketers tomar acciones inmediatas y mejorar la relevancia de los anuncios y las experiencias en sus webs.

 

Analytics 360 suite

¿Qué significa esto para usted?
No habrá ningún cambio inmediato en su cuenta. La suite 360 ​​Analytics BETA se irá introduciendo en clientes GA Premium a lo largo de 2016.

Es sólo el comienzo – vamos a seguir invirtiendo fuertemente en nuevos productos, características y funcionalidades. Es un momento emocionante para los que nos dedicamos al análisis de marketing, y esperamos compartir más información con usted pronto.

Para más información acerca de todos los nuevos productos y la suite 360 ​​Analytics, visite nuestro sitio web.

Cordialmente,
Paul Muret
VP, Analytics, video & display products

Diseño de cuadros de mando

02/11/2015 a las 14:38

Ejemplo de Cuadro de Mandos

Cuando nos enfrentamos al desarrollo de cuadros de mando, es fácil empezar la casa por el tejado. La tendencia es buscar alguna solución tecnológica que nos permita extraer los datos de diversas fuentes, y luego montar los cuadros utilizando los recursos gráficos que la herramienta nos ofrece.

De esta forma, y en muchas ocasiones, el desarrollo de un cuadro de mando se convierte más en un reto técnico, que un ejercicio de diseño. Y cuando digo “diseño” no me refiero solo a elección de colores y a la disposición adecuada de los elementos (que también), si no a un trabajo previo de selección de KPIs y un estudio serio de cómo representar los datos.

Todo el mundo sabe lo que es un cuadro mando (y todos los responsables quieren uno, convencidos de que solucionará sus vidas), pero a la hora de la verdad pocos son capaces de llevar el concepto a la práctica con elegancia. Para comprobar esto último, basta con hacer una búsqueda en Google del término “Dashboards”, y bucear por las imágenes que se ofrecen como resultados.

No vamos a poner aquí ninguna imagen para ejemplificar lo que es un mal cuadro de mandos (no tenemos los derechos de autor, y no creo que a nadie le siente bien ver su cuadro como ejemplo de lo que no debe hacerse). En lugar de eso, os invitamos a repasar los resultados de Google, haciendo click en el enlace del párrafo anterior. Juzgad por vosotros mismos.

El modelo de atribución basado en datos

20/05/2014 a las 09:56

data-driven-hero-v2

Fuente: http://analytics.blogspot.com.es/

 

Una funcionalidad de Google Analytics de la que no habíamos hablado todavía es Data-Driven Attribution o el modelo de atribución basado en datos.

Establecer un modelo de atribución multicanal realista es complejo y, normalmente, algo que hacemos utilizando criterios bastante subjetivos. Sabemos las combinaciones de canales que mejores resultados nos están dando, pero es difícil valorar el mérito de cada integrante de esas secuencias de contacto. Con esta funcionalidad, Google Analytics nos ahorra ese trabajo. Y, además, lo hace de una manera algorítmica.

Utiliza como base la información de rutas de conversión del embudo multicanal, así como los datos de flujo de comportamiento de aquellos usuarios que no convierten.  Para ser más concretos, además de los datos del tráfico procedente de búsquedas orgánicas, del directo y del de referencia, el método Data-Driven Attribution analiza los datos de todos los productos de Google que hayamos enlazado con Analytics, como AdWords, la red de display de Google o DoubleClick for Advertisers. También incorpora la información de costes que hayamos podido importar. Necesitaremos, como es natural, tener activo el seguimiento de comercio electrónico y definidos los objetivos.

Con toda esta información, detecta cómo la presencia de un punto de contacto comercial en particular (definida por el tipo de canal y su posición relativa a otros puntos de contacto) se relaciona con cambios en la tasa de conversión.

 

Ejemplo de modelo

Informe del explorador del modelo. (Fuente: http://analytics.blogspot.com.es/)

Es decir, los modelos probabilísticos resultantes muestran la probabilidad de que un usuario realice una conversión en un punto determinado de la ruta, dada una secuencia particular de eventos. Es importante destacar que el algoritmo tiene en cuenta el orden en el que un determinado punto de contacto entra en juego. Por ejemplo, “Display precediendo a Búsqueda de Pago” se modela por separado de “Búsqueda de Pago precediendo a Display”.

Vemos un ejemplo (simplificando un poco): Tenemos una combinación de Búsqueda Orgánica, Display e Email (en ese orden) que arroja un 3% de probabilidades de conversión. Cuando eliminamos Display, la probabilidad baja a un 2%. El incremento del 50% observado cuando Display está presente sirve de base para el cálculo de atribución.

data-driven-how-it-works

Fuente: http://analytics.blogspot.com.es/

No solo es una manera mucho más avanzada de establecer el modelo sino que, así como la información en la que se basa es cambiante en el tiempo, también lo es el modelo, que se autoajusta en función esas posibles variaciones. Una vez habilitada esta funcionalidad, comienza inmediatamente a recoger datos. Tendremos el primer modelo a los 7 días, actualizándose éste con una frecuencia semanal.

Aunque el algoritmo utilizado es el que desarrolló el premio Nobel de economía Lloyd S. Shapley para la justa distribución de los resultados de un equipo entre sus miembros, el analista no tiene por qué abandonar su actual modelo de atribución para abrazar “a ciegas” el nuevo que nos presenta Google. Éste está disponible junto a los tradicionales en la herramienta de comparación de modelos de atribución y en el informe de análisis del ROI.

Desde este último, si vemos que ciertos canales tienen un éxito mucho mayor que el resto (mejores valores para el ROAS o el CPA, por ejemplo) según los cálculos obtenidos por el modelo de atribución basado en datos, podemos plantearnos incrementar nuestra inversión en dichos canales. En la misma línea, si detectamos canales que no funcionan bien bajo el prisma de este modelo, deberíamos revisar nuestra estrategia de marketing al respecto y optimizar nuestros  esfuerzos en ellos.

Podemos, y así lo recomiendan desde Google, ir adquiriendo confianza en el modelo gradualmente, poniéndolo a prueba de manera controlada. Se trataría de trabajar sobre combinaciones concretas de canal y tipo de objetivo que éste nos destaque (por el lado positivo o todo lo contrario) y verificar después si el resultado es el previsto. Llegados a un punto, podríamos dejar de lado las comparaciones con anteriores modelos y trabajar en exclusiva con éste.

De hecho, si nuestro negocio online está arrancando, no tendremos más remedio que comenzar a trabajar con uno de los modelos basados en reglas hasta alcanzar el volumen de datos de entrada mínimo a partir del cual puede realizar sus cálculos el nuevo: 10,000 rutas y 400 conversiones por tipo al mes.

En resumen, el modelo de atribución basado en datos es una estupenda funcionalidad. Con los modelos actuales ya vemos qué secuencias de canales funcionan mejor. Con el que estamos tratando, vamos un paso más allá y obtenemos una medida de la efectividad de cada canal en cada posición de esas secuencias. Es más, combinando esos valores con los datos de e-commerce y de costes de campaña, obtenemos un cálculo adecuadamente ponderado de su rentabilidad.

Por último,hay que señalar que se trata de algo concebido para la versión Premium de Google Analytics, sin previsión de incorporarlo también a la versión gratuita. Casi un año después, sigue estando solo disponible para la herramienta de pago y sin visos de que esto cambie. Un aliciente más (y no pequeño) para que todos aquellos a los que nos preocupa la precisión a la hora de evaluar la rentabilidad de nuestras campañas de marketing, demos el paso hacia la “hermana mayor” de esta herramienta de analítica web.

 

Google Summit 2013: Reflexiones finales

05/10/2013 a las 06:10

Como es costumbre, el Google Summit de este año, (GOOMMIT, para abreviar), ha estado lleno de sorpresas. Las más importantes las resumimos en este blog pocas horas después de ser comunicadas por Babak Pahlavan, Director of Product Management, Google Analytics, al inicio del evento (fue la segunda ponencia).

Se han  lanzado tantos anuncios (15 para ser exactos), y es tal el interés que despiertan que todo el mundo twittea y bloguea lo más rápido que puede, con la intención de “ser el primero”. El lanzamiento de Analytics Academy se ha convertido en trending topic en twitter, por lo menos entre la gente del sector… Es evidentemente un tema importante. Así como todos los demás.

Sin embargo, y tras unos días descanso y reflexión (el Goommit finalizó el miércoles pasado), se gana perspectiva y uno comienza a reflexionar seriamente sobre lo que nos contaron en Mountain View este año. Ya no es necesario escribir rápido y con jet lag para ser el primero en publicar nada. Ahora es posible pensar (y redactar bien el post).

De todo lo que se ha mencionado (y que se puede contar públicamente), lo que queda a flote, una vez pasada la tormenta, es el tema de los modelos de atribución y lo que rodea a este gran reto de la analítica actual.

El TaggingBox en el GAUC 2013: la revolución de la medición offline

30/05/2013 a las 11:28

GAUC 2013

El 28 de mayo se celebró la 4ª edición del GAUC en España, en el Cibernarium de Barcelona, a la que asistieron cerca de 120 usuarios de la herramienta de Google Analytics.

En esta edición, organizada como siempre por los partners de Google en España, participaron Paul Muret, director de Ingeniería de Google Analytics; Pere Rovira, de Webanalytics; Alfonso Duro, de DoubleClick; Enric Quintero, de Metriplica; Ander Jáuregui, de The Cocktail; Jaume Clotet, de WATT y Guillermo Vilarroig, de Overalia.

La variabiliad en las métricas: El usuario medio no existe

29/04/2013 a las 08:41

VariabilidadEstamos muy acostumbrados a trabajar con los valores puntuales de las métricas y, cuando nos hablan de intervalos de confianza o rangos, a menudo no sabemos muy bien qué son o no acabamos de encontrar el modo adecuado de usarlos. Sin embargo, al quedar con los amigos no se nos hace extraño decir: “me paso por tu casa entre las 17:00 y las 17:30”. Entonces, ¿Por qué no usar esta información en nuestros cuadros de mando y/o en nuestros informes?

Nota: Al final de post os adjuntamos una plantilla de Excel para que podáis calcular la variabilidad de vuestras métricas. 

De echo al trabajar con los rangos o los intervalos de confianza (o algunas herramientas gráficas, como veremos en este post) estamos teniendo en cuenta la variabilidad, medida de dispersión imprescindible en estadística que nos aporta esta información tan importante sobre la métrica estudiada.

Las mejores herramientas de visualización de datos gratuitas

29/08/2012 a las 09:00

Partimos de la idea de que “los datos son el nuevo petróleo” y que somos una sociedad con abundancia de datos (más bien diría de saturación de datos), y éstos, a menos que se transformen en información comprensible, no van a permitir acceder al conocimiento. Si a ésto le sumamos que nuestro tiempo es limitado y nuestra capacidad para asimilar la información es aún menor (la mayor parte de los cerebros sólo pueden prestar atención durante aproximadamente 45 minutos), necesitamos de algo que nos sintetice la información.

“El exceso de información conlleva una pérdida de interés en las audiencias que se traduce, en muchos casos, en una falta de comprensión de la información expuesta.”

-David McCandless-

De esto se encarga la visualización de datos que no es otra cosa que el “diseño de la comprensión”.

Cuando se trata de hacer una visualización de muchos datos las cosas no son tan sencillas. A parte de analizar los datos, saber interpretarlos, contrastarlos con otros datos y estudiarlos, hay que saber comunicarlos. Y sobre todo es fundamental poner los datos dentro de un contexto y compararlos con algo (algo que la mayoría de personas se olvida).

Se advierte al usuario del uso de cookies propias y de terceros de personalización y de análisis al navegar por esta página web para mejorar nuestros servicios y recopilar información estrictamente estadística de la navegación en nuestro sitio web. Política de cookies Acepto