Analytics Premium ComScore ClickTale Analytics Certified Partner Klipfolio Coremetrics
Tags populares:

R Statistics: Presentando insights con Shiny

21/11/2016 a las 18:44

 

Existen diversas fases en el desarrollo y presentación de un informe de analítica digital. En Metriplica nos involucramos mucho en la presentación de los resultados y siempre buscamos aquellas herramientas que nos ofrezcan elegantes soluciones gráficas.

  • Google Analytics como herramienta para el análisis de datos.
  • KlipFolio, entre otras, como herramienta de elaboración de dashboards.
  • Pirendo para analítica social.


Lo ideal sería disponer de una herramienta diseñada por el usuario a su gusto y disposición que le permita reunir en ella todos los aspectos anteriores: volcado de datos, explotación de los mismos, creación de informes y cuadros de mando, analítica social, analítica predictiva, etc.

Shiny

En R disponemos de una solución muy elegante: Shinyapps.

Shiny es un paquete de R que nos permite crear aplicaciones web interactivas. De esta forma, los usuarios de R podemos “automatizar” los scripts y realizar presentaciones interactivas con los datos a través de una aplicación web que el usuario puede manipular sin necesidad de adentrarse

en programación. Esto es una una clara ventaja para los usuarios no familiarizados con R. 

Aplicaciones con Shiny

Posibles aplicaciones interesantes que podemos realizar con Shiny. Entre otras:
  • Creación de cuadros de mando para ilustrar interactivamente los resultados de rendimiento del site.
 gadashboard
 Muestra el estado actual de algunas métricas clave de la web, permitiendo realizar segmentos por dispositivo. El rendimiento web se puede supervisar de forma muy cómoda y rápida.

Se podría monitorizar de manera periódica sincronizando los datos que recogemos en Google Analytics a R vía RGoogleAnalytics.  

Para los usuarios Premium, también es posible realizar la conexión de Google Bigquery con R y explotarlos en la APP.  Una aplicación para hacer simultáneamente consultas y visualizaciones de los datos de Google Bigquery la podemos encontrar en el siguiente enlace.

  • Creación de modelos predictivos. El usuario puede interactuar en la aplicación introduciendo un nuevo valor del cual está interesado en conocer su predicción a futuro. Es interesante la combinación de los modelos predictivos con datos offline: mapas sobre borrascas,tormentas, tornados… en determinadas zonas, obteniendo así predicciones más precisas.

 

offline

 


Valoración

En definitiva, Shiny nos gusta por ofrecer múltiples opciones. Nosotros destacamos las siguientes:

  • Implementación de widgets en las aplicaciones que permiten crear rápidas interfaces de usuarios.
  • Sencillas técnicas de programación reactiva que permite al usuario realizar modificaciones en la aplicación.
  • Integración de JavaScript y jQuery para agregar contenidos extra e interacciones diversas.
  • Integración de HTML y CSS que ayudan a un mejor diseño de la app.
  • Flexibilidad a la hora de realizar análisis y gráficos avanzados a partir de fuentes externas de datos. También es posible añadir a la interfaz widgets para la descarga de los ficheros resultantes de dichos análisis.

 

¡Anímate!

Untagged 2016

18/11/2016 a las 13:07

La semana pasada,  tuve la oportunidad de asistir al evento untagged IO en Madrid, una oportunidad que realmente había que aprovechar por los ponentes que asistían

Lo primero, agradecer y felicitar a los organizadores, eventos como este en España hay pocos desgraciadamente.

Sobre el evento en sí, hubo varias charlas más o menos técnicas en las que se hablo de lo siguiente:

Brian Clifton

Una de las mejores charlas del día, al menos desde mi punto de vista. Se basó sobre todo en la importancia de los datos a la hora de tomar decisiones y en la explicación del proceso de auditado que él usa para comprobar si implementación es correcta.

También tuvo el detalle de regalar una copia de su último libro 

Brian Clifton explicando el proceso de auditar un sitio

 

Kristoffer Ewald

Ponente inesperado debido a que Craig Sullivan no pudo venir al evento. De la empresa Netbooster nos habló de cómo ir más allá de las métricas y KPIs clásicos para medir el rendimiento de campañas de marketing hablando de indicadores como:

  • Annual Opportunity
  • Predicted future total value
  • User Velocity
  • Core consumer fit score
  • Loyalty propensity

Simo Ahava

Poco hay que decir sobre Simo. Como alguien lo definió es el hombre que más ha hecho por difundir el Google Tag manager, incluso más que Google. Su blog es la biblia de uso del GTM.

En su charla habló de técnicas y trucos para la recogida de datos. Recoger en blogs la longitud del post o número de imágenes en el mismo, el uso de content grouping para medir el rendimiento de un autor o si los post de mayor longitud funcionan mejor que los de menor longitud etc.

También puso un ejemplo de cómo adaptar un enhanced ecommerce a un sitio no ecommerce como un blog y la utilidad de los informes que se generan.

Para mi, la mejor charla de la jornada.

 

Simo explicando algunos trucos para recoger información de la página

Ani Lopez

En su charla habló sobre los pasos que deben realizarse para explotar datos de Big Query (o un Big Data en general), desde cómo almacenarlos a cómo procesarlos, almacenar el resultado del procesamiento en tablas intermedias y finalmente mostrarlo a través de herramientas de visualización.

De su charla me gustó el detalle final de que nos tenemos que educar no solo en el procesamiento de los datos sino en cómo mostrarlos de manera estética, evitando cuadros de mando que contienen muchos datos pero apenas resultan útiles.

 

Virginia Relea y Nicolás Lozano

Nos explicaron la potencia de los DMPs a la hora de personalizar y automatizar la experiencia tanto de uso como de generación  acciones comerciales para un usuario.

Enseñaron una demo bastante interesante en la que en base al comportamiento de un usuario en un sitio, se adaptaba tanto el contenido como los mailings hacia el usuario con el objetivo de maximizar la experiencia de uso del usuario en el sitio y el rendimiento de las campañas de marketing.

Yehoshua Coren

Fue la charla más divertida de la jornada, un auténtico showman. Habló sobre cómo sacar el máximo partido a las herramientas de analítica web, el uso de una estrategia a la hora de plantear una implementación y la necesidad de adaptar el analytics (o cualquier otra herramienta) a los objetivos y métricas que el cliente entienda para realmente explotar la misma.

Marie Loridan

En esta charla se habló sobre la plataforma para la construcción de apps Firebase y el módulo de analytis que viene incorporado y que actualmente se puede usar de manera independiente para la medición del rendimiento de apps.

Dado que no estoy muy puesto en la creación de apps, fue la más “dura” a la hora de seguirla. La parte del Firebase Analytics muy interesante y con ganas de probarla.

 

Y esta fue la última charla a la que pude asistir ya que me tuve que ir a coger el AVE, espero que sigan montando más eventos como este, ayudan mucho a abrir la mente a nuevas  formas de trabajar y plantear proyectos.

Conectando BigQuery y R Statistics

16/11/2016 a las 17:01

En anteriores posts hemos comentado el potencial de la herramienta de análisis estadístico R (véase Cómo empezar a usar R Statistics, Visualización de datos de Google Analytics con R o Una conexión de titanes: Google Analytics y R Statistics).

Hoy retomaremos el tema de las conexiones, en concreto con BigQuery, un almacén de datos que la plataforma Google Cloud pone a nuestra disposición para realizar consultas SQL de manera rápida, eficaz y con un coste reducido.

Los clientes de Google Analytics 360 (antes Premium) pueden acceder a sus datos crudos, asociando una vista de Google Analytics a un proyecto de BigQuery.

Actualmente BigQuery usa por defecto su lenguaje propio, Legacy SQL, aunque con el lanzamiento de BigQuery 2.0 se recomienda la migración a Standard SQL.

Podemos ver más en detalle cómo plantear una consulta en BigQuery.

A continuación se detallan los pasos a seguir para realizar una consulta en BigQuery desde R:

 
1. Accediendo a BigQuery.

Para acceder a la interfaz de BigQuery, iniciamos sesión con nuestra cuenta Google.

En este caso práctico queremos establecer una conexión desde R con el dataset ‘LondonCycleHelmet’, perteneciente al proyecto ‘google.com:analytics-bigquery’. En él encontramos la tabla ‘ga_sessions_20130910’, con los datos de navegación de una web ficticia en dicha fecha.

Al no tener permisos de edición en este proyecto, haremos una copia de dicha tabla para almacenarla en ‘My Project’, sobre el que sí tenemos permisos. En él creamos un nuevo dataset llamado ‘bigrquery’, del que colgará la tabla ‘ga_sessions_20130910_copy’.

0_r-bq

La notación para hacer referencia a una tabla es la que sigue:

proyecto:dataset.tabla
1_r-bq

Para saber el nombre del proyecto pasaremos el cursor sobre ‘My Project’:

2_r-bq
 
2. Iniciando R.

Iniciamos sesión en R y ejecutamos el siguiente código, asignando los valores que corresponda:

3_r-bq
 
3. En la consola de R nos aparecerá el siguiente mensaje:
4_r-bq

Al seleccionar la opción 1 y permitir el acceso a la actual cuenta de Google, se creará un archivo ‘.httr-oauth’ en el directorio de trabajo de R, en el que se almacenan las credenciales entre sesiones de R.

 
4. Con el paso anterior se realiza la conexión entre R y BigQuery, almacenando el resultado de la consulta en el data.frame ‘datos’:
5_r-bq
 

En este ejemplo nuestra consulta es simple y calcula valores agregados. El verdadero potencial de esta conexión reside en importar los datos de navegación y luego trabajar con ellos en R.

Keep trying and enjoy R!!!

Depuración de los datos enviados a GA utilizando la consola de Chrome

14/11/2016 a las 14:44

Una de las tareas esenciales de nuestro trabajo es la depuración de los datos. En concreto comprobar que toda la información que debe enviarse a las herramientas de Analítica se está lanzando correctamente.

Para esto, uno de los pasos primordiales en la depuración es revisar cada uno de los hits que llevan esta información, en cada caso concreto.

Existen una gran variedad de plugins para los navegadores que te facilitan esta tarea, WASP, ObservePoint y DatasLayer, por nombrar unos pocos, pero la pestaña network de la consola del navegador Chrome es una herramienta perfecta para realizar este tipo de comprobaciones.

Por medio de esta pestaña podemos comprobar que los hits que se lanzan a Google Analyitcs son correctos y llevan la información deseada.

Desde hace algún tiempo Google Analytics ha comenzado a redirigir aquellos hits que no lleguen por protocolo seguro, de manera que cuando visitamos una página y accedemos a la pestaña Network de la consola nos podemos encontrar con dos hits de página vista.
Si nos fijamos en la columna “Status”, podemos apreciar claramente que el primero devuelve el código de estado 307, indicando que se trata de una redirección interna de servidor.

depuracion_01
A estas alturas no vamos a confundir esto con el temido doble hit, pero no está de más estar alerta.

El problema es que esto podría dificultar las tareas de depuración cuando nos encontramos con una página en la que se lanza un número considerable de hits

depuracion_02

Por suerte contamos con el filtro de la pestaña Network para evitar estas inconveniencias y simplificar nuestro trabajo.

En este filtro podemos indicar los valores de dominio, estado, incluso el tipo objeto (entre otros), que queremos localizar, además de excluir aquellos que necesitemos para acotar los hits que queremos ver.

La exclusión se define con un signo menos (-). Colocando el signo menos delante de una de las opciones de filtrado y dando un valor a esta opción, estaremos indicando que no queremos que aparezcan los hits con ese valor.
Ejemplo: -domain: google.com -> no saldrán peticiones al dominio google.com.

Cuando insertamos el signo menos en el filtro, se nos muestra todos los posibles valores que podemos utilizar, aunque en la sección de developers de Google se pueden consultar con más detalle.

Opciones de filtrado

Una posible opción de filtrado para revisar correctamente los hits de Google Analytics podría ser:

domain:*.google-analytics.com -status-code:307 -status-code:302 mime-type:image/gif

Con esto estamos indicando a la consola que solo muestre aquellas peticiones del dominio google-analytics.com, que descarte las peticiones con los estados 307 y 302 y que solo muestre aquellas peticiones de tipo gif.

Por supuesto podríamos forzar que el estado sea 200, que es la respuesta del servidor a una petición correcta, pero eso es a gusto de cada uno.

Esta opción de filtrado también permite mostrar las peticiones que se lanzan por POST, estas tienen lugar cuando el contenido de datos que lleva la petición supera la capacidad de una petición GET.

Petición POST

En estos casos se nos presenta cierta dificultad para realizar una revisión de los datos, la manera más sencilla es apoyándonos en alguna aplicación de parseo de datos.
Un posible opción online Freeformatter: http://www.freeformatter.com/url-parser-query-string-splitter.html

Sobre el cuadro de texto añadimos una URL ficticia y el interrogante para indicar el inicio de los parámetros, a continuación, pegamos todo el contenido del hit que tenemos en Request Payload.

Ej. www.test.com?v=1&_v=j47&a=636919066&t=pageview&_s=1&dl=http%3A%2F%2Flocalhost%2Ftealium%2Flistado.html&ul=es&de=windows-1252&dt=Listado&sd=24-bit&sr=1366×768&vp=1349×307&je=0&fl=23.0%20r0&_u=SCCACIIJJ~&jid=241405600&cid=235060360.1476718094&tid=UA-55429541-1&_r=1&cd8=event_test

Y pulsamos sobre el botón PARSE

Parseo de datos

Si hacemos scroll hasta el apartado Query String Splitter encontramos, desglosadas y con sus datos, todas las variables enviadas en la petición.
De manera que podemos revisar que se lanza lo que esperamos de manera sencilla.

Listado de parámetros en la petición

Por supuesto no hay que olvidarse de revisar la pestaña “Console”, nunca está de más comprobar si existen errores Javascript, los valores del dataLayer e incluso lanzar eventos de prueba para comprobar que nuestras etiquetas en GTM funcionan correctamente.

Analytic Day Barcelona con Qlik

10/11/2016 a las 14:16

qlik_analyticday

 

Qlik ha mejorado la personalización de aplicaciones analíticas en la actualización de Qlik Sense version 3.1,. Conocimos las nuevas funcionalidades de embedded y custom analitics en el Analytic Day Barcelona organizado el pasado 3 de noviembre.

Cuando en Qlik se habla de análisis integrados, hacen referencia a la incorporación de analíticos, cuadros de mando y  visualizaciones en un sitio web interno, externo, una intranet, extranet u otra aplicación empresarial, a menudo para un público específico o alineados con un proceso empresarial específico que admite la aplicación empresarial.

En la presentación vimos cómo diferenciar un productos de forma estratégica, integrando elementos clave de Qlik Sense y la plataforma analítica de Qlik, para crear funcionalidades a medida que permitan compartir la información e ideas entre aplicaciones de negocio de forma inmediata y práctica.

Conocimos las nuevas funcionalidad de:

Qlik DataMarket que ahora incluye una herramienta de búsqueda que permite a los usuarios buscar términos y frases en paquetes, categorías y conjuntos de datos.

 Qlik Management Console: La consola QMC posee ahora un parámetro de motor: Crear índice de búsqueda durante la recarga, que mejora la primera experiencia de búsqueda de un usuario. Para todas las fuentes de datos, los administradores pueden decidir si indexar los datos en la recarga, para una mejor experiencia de búsqueda .

Los conectores de bases de datos en el paquete de conectores ODBC Connectors Package de Qlik instalados junto con Qlik Sense permiten seleccionar subconjuntos de datos mediante el filtrado de datos específicos en los registros de bases de datos.Ahora puede filtrar los datos en el conector de bases de datos para conexiones ODBC

Reconocimiento de ciudades y países al cargar datos:  Los datos geográficos (puntos y polígonos de área) ahora se crean automáticamente al cargar los datos que contienen los nombres de ciudades y países reconocidos. Esto le permite crear rápidamente una visualización de mapa de sus datos sin tener que cargar los datos geográficos por separado.

Plantilla predefinida de app Ahora puede cambiar la plantilla de una app por defecto. La nueva plantilla de Qlik – Estándar ajusta el relleno y espaciado entre objetos y también asigna los espacios designados para los títulos. Las apps anteriores y nuevas utilizan la plantilla Qlik- Clásica por defecto.

A lo largo de la jornada se presentaron algunos de los casos de éxito en la implementación de Qlik, como el grupo Celsa o Ulabox. Las tres empresas explicaron cómo han convertido sus empresas en organizaciones ágiles, impulsadas por datos, cómo han superado los retos en el análisis de la información de su negocio y han hecho del análisis de sus datos una pieza clave para el éxito de la compañía.

Mi conclusión tras el evento: Ningún análisis es igual a otro. Algunos son rutinarios, automatizables, otros son inusuales, impredecibles. Las herramientas de análisis y visualización de datos nos ayudan a los analistas a simplificar lo simple y a hacer lo complicado sin complicaciones, así podemos dedicar nuestro tiempo a lo que realmente aporta valor al negocio: aportar soluciones basadas en datos y no en una mera intuición.

 

Análisis de aplicaciones móviles con Firebase Analytics

03/11/2016 a las 14:00
Hace unos días tuve la oportunidad de asistir a una sesión sobre Firebase Analytics, la funcionalidad de análisis de Firebase, en las oficinas de Google en Madrid.
Firebase es una herramienta adquirida por Google en 2014 para formar parte de su plataforma en la nube. Desde entonces ha evolucionado con rapidez.

¿Qué es Firebase?

Firebase

Firebase

  • Es una plataforma de desarrollo de aplicaciones (centrada en apps móviles).
  • Es un servicio de computación en la nube, que facilita a los desarrolladores de  aplicaciones la utilización de un backend, ahorrando trabajo y dejando más tiempo para el desarrollo del frontend (el lado del cliente).
  • Proporciona sincronización de los datos en tiempo real (con los usuarios conectados a la fuente), facilitando la actualización de la app sin intervención del programador.
  • Su utilización es gratuita en su versión básica o bien a elegir con el plan de pago que más se adapte a nuestras necesidades.

¿Qué ventajas ofrece?

  • Ahorra tiempo de desarrollo en programación (facilita el sistema de autenticación del usuario, gestión del almacenamiento de imágenes o archivos con Google Cloud Storage, entorno de validación, hosting… )
  • Aporta herramientas de retención y adquisición de clientes (notificaciones y mensajería en la nube sin coste, links dinámicos de descarga, integración con Adwords..)
  • Sistema de monetización de aplicaciones, a través de Admob (su plataforma publicitaria, incluyendo Doubleclick).
  • Unifica los SDK(software development kits) existentes (IOS y Android)
  • Tutoriales, documentación de ayuda (un ejemplo son los codlabs) y soporte, tanto para clientes free como premium.

¿Hacia dónde va?

Avanza no sólo en el aspecto del desarrollo técnico de la aplicación sino también en áreas de negocio, como la adquisición y retención del cliente,  la monetización de las aplicaciones o el análisis. Y en éste último aspecto es en el que me voy a centrar en esta entrada:

Firebase Analytics

Firebase analytics

Firebase analytics

 

Es la herramienta de análisis de Firebase y lo primero que necesitamos saber es si nos conviene su uso, para nuestro caso concreto.

Si tenemos apps pero también necesitamos medir web, entonces es mejor que escojamos Google Analytics.

 

Su consola se asemeja a la de Google Analytics aunque su funcionalidad es básica si la comparamos con su hermana mayor. Es gratuita, eso si, los clientes de la Suite 360 tienen algunas ventajas adicionales.

Firebase Analytics está pensada para el análisis de aplicaciones móviles centrado en el usuario.

¿Que tenemos disponible en Firebase Analytics?

Eventos

Dispone de una serie de eventos automáticos, no será necesario hacer nada para que funcionen. La integración será suficiente. Algunos ejemplos: first_open, app_update  o app_remove.
Podremos implementar una serie de eventos generales (recomendados para todas las aplicaciones)
Eventos por vertical (retail/comercio electrónico, viajes, inmobiliaria, gamificación..)

firebase retail ecommerce events

Eventos firebase para retail y comercio electrónico

También nos permite crear eventos personalizados.

Los eventos en Firebase analytics pueden ser definidos como “de conversión” y cuando ésta se produce, podemos enviar una comunicación al partner publicitario de que la conversión ha ocurrido (postback) a modo de tracker.

Tenemos un límite de 500 eventos, sin límite de hits.
Los eventos se pueden enriquecer con parámetros predeterminados con nomenclatura reservada para firebase o bien podemos crear parámetros a medida como “custom value pairs” con un límite de 25 tuplas clave:valor (este límite no aplica a clientes de la Suite 360)
Se pueden crear embudos de conversión en base a estos eventos.

Propiedades de usuario  o “User properties”

Consiste en la asignación de atributos a nuestros usuarios con el fin de utilizar posteriormente estas propiedades como filtros en los informes o en la creación de audiencias.
De nuevo, tenemos una serie de “user properties” predefinidas (demográficos, geo, idioma, dispositivo.. ) cuyo funcionamiento no requiere código adicional o bien podremos crearlas a medida, con un límite total de 25.

Audiencias

Permite crear segmentos de audiencia en base a eventos y  user properties.
Podremos usar estos segmentos para hacer remarketing o para enviar notificaciones y mensajes
Tal y como ocurre en Google Analytics, estas audiencias se irán llenando tras crearlas, no tienen efecto retroactivo.

Atribución

Utiliza el modelo de atribución last click, sin embargo, si ha habido intervención de Adwords en algún punto se lo atribuirá directamente y descartará el resto de fuentes. En pocas palabras: “tira para casa”.
Tenemos la posibilidad de utilizar las conversiones predeterminadas (primera apertura, compra dentro de la app, compra de ecommerce) para el cálculo de la atribución o asignar el valor de conversión a otros eventos.
Hay unas 20 redes disponibles que se pueden añadir en la sección de atribución para medir su rendimiento individual.

Cohortes

Informe de cohortes disponible en función de la fecha de adquisición sin opciones de segmentación.

¿Y qué más? Las integraciones

Adwords. Es posible compartir allí los segmentos de audiencias creados en Firebase Analytics
Google Tag Manager. La recomendación es hacer la implementación con GTM, integrando ésta en dentro de Firebase.
Hay algunas carencias, por ejemplo, debemos subir el contenedor al código de la app, ya que aun no es capaz de recoger el identificador del mismo automáticamente. Esto implica que si actualizamos la versión del contenedor tendremos que hacer la misma operación para aplicar los cambios.
BigQuery. Esta integración más que recomendable, es necesaria, tanto para análisis avanzados como para el reporting. Un ejemplo: si queremos extraer datos de nuestras “user properties” a nivel de eventos habrá que utilizar la integración con bigQuery ya que no están disponibles en consola.
Su uso es compatible con Google Analytics.
firebase

¿Qué le falta?

Carece de dimensiones personalizadas. La recomendación es la utilización en su lugar de filtros a nivel de usuario (utilizando las “user properties”)
De momento no es posible la implementación del Comercio Electrónico Mejorado. La utilización de eventos personalizados parametrizados y atributos de usuario en combinación con bigQuery puede ser una opción para sustituirlo. Sin embargo, esto frena las implementaciones en  aplicaciones transaccionales.
Le falta rapidez de actualización. Los datos en la consola de análisis se actualizan una vez al día.
Hay una buena noticia en este apartado. No hay sampling.
En definitiva, es una herramienta con algunas carencias y mucho futuro por delante, ya que Google está apostando fuerte por ella.
Estaremos atentos a su evolución.

Sumamos una nueva herramienta a nuestro “repertorio”: Webtrekk

14/10/2016 a las 13:50

Webtrekk

Cuanto más nos sumergimos en la completa plataforma que la compañía alemana Webtrekk nos ofrece, más nos gusta. Sin ánimo de entrar en mucho detalle, sí queremos mostrárosla por encima y daros nuestras primeras impresiones sobre ella tras habernos certificado y haber realizado nuestra primera implementación.

En estos momentos, se encuentran en plena migración de interfaz. El nuevo, más limpio y minimalista, puede dar la falsa impresión de que no estamos ante una herramienta demasiado completa, pero nada más lejos de la realidad.

Como ejemplo, y para hacerse una idea de la liga en la que juega, una mezcla de roles, categorías y filtros nos permiten realizar una gestión de permisos de usuario que puede llegar a un nivel de detalle como pocas veces hemos visto.

Webtrekk

Uno de los múltiples informes que una implementación básica en Webtrekk nos ofrece.

Pero vamos a ello. Demos un repaso a vista de pájaro de los principales componentes de la plataforma.

 

TAG INTEGRATION

Aunque no compite (ni lo pretende) con gigantes en éste área como Google Tag Manager o Tealium, es una herramienta que facilita mucho la implementación de Webtrekk. Arrastrando y soltando lo que ella denomina plugins, y con una configuración mínima de los mismos, podemos comenzar inmediatamente a recoger una gran cantidad de datos de un sitio web donde previamente hayamos insertado el script correspondiente.

Nos llamó la atención la inclusión de un plugin para detectar si el usuario utiliza Ablock y otro para medir el scroll en página. Muy útiles, como también lo es el que nos permite crear encuestas para nuestros visitantes. Y, por supuesto, incluye también plugins personalizados donde podemos insertar el código javascript que necesitemos (para píxeles de remarketing, por ejemplo).

Webtrekk

Configuración de la etiqueta o plugin básico de Webtrekk

 

DIGITAL ANALYTICS

Es la herramienta de análisis propiamente dicha. Además de disponer de una gran variedad de informes, permite la creación de informes personalizados (bookmarks) a partir de éstos, gracias al alto grado de personalización que ofrece. Podemos añadir y quitar dimensiones y métricas, añadir modos de visualización, cambiar el tipo de gráfico asociado a la tabla y la métrica mostrada, etc.

Webtrekk

Tres modos de visualización de datos, configurables: mapa de calor, barras y semáforos.

Cómo no, contamos con la posibilidad de construir filtros y segmentos todo lo complejos que sea necesario. Tan sólo echamos en falta un mejor soporte a las expresiones regulares en este área. Trabaja con una versión muy simplificada de éstas.

Webtrekk

Google Analytics

Arriba: informe “Page detail” de Webtrekk. Abajo: informe “Resumen de navegación” de Google Analytics, del que os hablamos hace poco. Aunque muy similares, nos ha gustado mucho que el primero aporte gráficas de tendencia para las páginas previas y posteriores.

Aunque herramientas de pago como ésta no necesitan recurrir al muestreo o sampling, hay que tener en cuenta que los informes, por defecto, se nos presentan basados en una muestra del 20% para agilizar la carga, pudiendo nosotros, después, cambiar al 100% el tamaño. Los tiempos de respuesta no nos han parecido excesivos en ningún momento, por lo que nos hubiera gustado que el tamaño por defecto de la muestra fuera algo que se nos permitiera definir a nivel global en la configuración.

Y en cuanto a cuadros de mando, Webtrekk nos facilita mucho el crearlos. Los llama “reports”.

Webtrekk

Ejemplo de report en Webtrekk

Nos ha parecido lo suficientemente potente en este aspecto como para cubrir esta necesidad en la mayoría de los casos, sin tener que salir de la plataforma.

DMP

En el DMP jugamos con las variables recogidas por el User Relationship Management para construir segmentos diferenciados a los que poder “atacar” de manera diferente. Por ejemplo, tenemos el Profile Macro Status que, de manera configurable, nos permite saber el grado de “madurez” de un visitante. Podríamos clasificarlo como mero visitante, como alguien que se ha interesado por los productos, como alguien que llegó a comprar, como un comprador recurrente…

DMP

Lista de visitantes  en detalle, sobre la que podemos crear segmentos

Las últimas dos columnas de la captura de pantalla nos muestran unas métricas realmente interesantes y fruto de análisis avanzados incluídos en este módulo.

La primera es la probabilidad de que ese usuario no regrese nunca más al site o no vuelva a usar nunca más la app. La segunda, una estimación de la probabilidad de que el usuario termine realizando una conversión.

En la captura de pantalla figuran a cero porque en ese caso todavía no hay datos suficientes como para que el análisis arroje resultados significativos.

 

MARKETING AUTOMATION

Webtrekk

Configuración de una campaña

El último elemento del que vamos a hablar es el Marketing Automation. Basándose en segmentos (actividad en sesiones previas) o en el comportamiento en la sesión actual (tiempo real), podemos personalizar los contenidos mostrados, presentando al visitante banners con ofertas más susceptibles de interesarle, capas con invitaciones a suscribirse o productos recomendados, entre otros tipos de personalización. Potente, fácil de usar y completamente integrado en la plataforma.

 

EN RESUMEN

Webtrekk constituye una plataforma muy completa, con grandes ideas bien implementadas. Y su potente herramienta de analítica digital es digna de ser tenida en cuenta en todos aquellos casos en los que las soluciones gratuitas se nos hayan quedado cortas y nos estemos planteando dar el salto a algo más “serio”.

Aunque nos proponemos seguir hablando de Webtrekk en futuras entradas del blog, os animamos a que nos digáis en los comentarios si hay algún aspecto en particular sobre el que os gustaría saber más.

¿Trabajas en el sector del Turismo?, este evento seguro que te interesa

11/10/2016 a las 10:10

5 claves para capturar el valor de tus usuarios

Este es el título del evento que celebraremos el próximo día 20 de Octubre en Barcelona.

Con el mundo del turismo como foco, hablaremos del impacto de tus campañas online en la generación de reservas en el hotel, es decir, cómo el mundo online afecta al mundo offline y cómo podemos medirlo.

También hablaremos de cómo ir más allá del nombre de un cliente, cómo podemos extraer datos sobre sus gustos y preferencias a partir de algo tan simple como el uso de su teléfono móvil.

Otro tema del que hablaremos es de cómo podemos vincular acciones online con acciones offline, es decir, entender el comportamiento del usuario al completo y no en nichos separados.

Por último, examinaremos las últimas tendencias en el sector para darte ideas inspiradoras para tu negocio y veremos cómo sacar partido al feedback que te proporcionan los clientes tras una estancia.

En definitiva un evento pensado para darte ideas con las que mejorar experiencia de tus clientes y el rendimiento de tus hoteles.

Si te interesa, en este enlace encontrarás todo lo necesario para apuntarte.

Presentación de la Suite Google Analytics 360

28/09/2016 a las 11:09

Torre Picasso - Madrid

Torre Picasso

El pasado jueves 22 de septiembre estuvimos en la presentación oficial de la nueva Suite Google Analytics 360 en Madrid. Esta herramienta es la evolución de Google Analytics Premium, versión de pago para grandes clientes presentada  por Google en 2011.

Si te interesa,  aquí tienes un interesante artículo sobre la historia de Google Analytics que se remonta al siglo pasado.

 

Si tuviera que sacar conclusiones de lo que vimos en la presentación, destacaría la solidez que aporta la integración de los diferentes módulos de la herramienta, pensada para sacar el máximo partido de las cookies propias, en combinación con la potente plataforma publicitaria de Google. Esto supone que si compramos todo el “kit” (que no es barato y cuyo precio varía según volumen y módulo) tendremos una herramienta sin discrepancia en los datos a nivel de cookies, ya que todos los módulos se sincronizan con la integración en este aspecto.

El objetivo, según Google, es conseguir un “círculo virtuoso”. Dan Florin, Global Product Lead fue el encargado de presentar la Suite y destacó sus puntos clave: Identificar a nuestros usuarios de valor, entendiendo su ciclo de vida. Personalizar y optimizar su experiencia con la marca. Hacer campañas consistentes en diferentes canales y dispositivos, poder medirlas correctamente a través de su integración compartiendo los resultados con los distintos equipos y evitar los silos.

 

Presentación Google Analytics 360 -Madrid

Presentación Google Analytics 360 -Madrid

No es el propósito de esta entrada hacer un repaso en profundidad de sus componentes, tan sólo pretendo destacar los aspectos que, desde mi punto de vista, mejoran la versión Premium.

Cada uno de los módulos se centra en un área concreta:

Attribution 360

Attribution es, en pocas palabras, la encargada de ayudarnos a decidir quién se lleva la comisión por la venta. Nos invita a encontrar cual es el Marketing Mix adecuado para nuestra marca. Ofrece una visión global, holística, gracias a su integración nativa con Analytics 360, lo que permite analizar los datos de nuestras campañas de marketing, con la máxima granularidad,  y confrontarlos con el resto de nuestros canales (online y ahora también offline). Dave Barney, Product Manager, fue el encargado de contarnos las novedades:

¿Qué nos permite hacer?

  • Marketing Modeling: Orientado a mejorar la distribución del presupuesto de marketing y su impacto en los resultados y ayudarnos a definir la estrategia en este área. Como novedad, su modelo de atribución basado en datos tiene en cuenta todos los puntos de contacto del usuario. Este modelo, en Analytics 360 seguirá teniendo el límite de cuatro puntos si no se ha comprado este módulo.
    • Informe de rendimiento de campañas
    • Simulador: Para saber qué hubiera ocurrido si hubiéramos actuado de otro modo.
    • Análisis predictivo para un rango de fechas (cuya precisión mejora en corto plazo, p.e. tres meses) y que tiene en cuenta diversos factores (estacionales, de clima..) y se puede segmentar por canal.
    • Optimizador de presupuesto: permite la asignación de prespuestos por canal a distintos escenarios para hacer previsiones.
  • TV Attribution: Análisis de impacto de nuestros anuncios en Radio y Televisión. La evolución de Adometry. Utiliza patrones observados en el histórico de datos. Si incorporamos los datos de campañas (p.e. semanalmente) a través de Data Import, superpone el plan de medios off line (TV y radio) sobre nuestros datos online para conocer su impacto.
    • Informe de rendimiento: se puede segmentar por canal televisivo, por coste o por audiencia.
    • TV Insights: Consiste en un gráfico de bolas (tipo DAFO), que muestra en un eje el volumen y en el otro su efectividad, con cuadrantes, lo que ofrece una imagen clara, en un vistazo del rendimiento, evitando la confusión que nos puede provocar pensar que más tráfico es siempre mejor.
    • Nos permite contrastar la emisión de nuestras campañas con datos de búsqueda de palabras clave en tiempo real (con su buscador).

Optimize 360

Es el módulo de testing y personalización. Facilita la publicación de otras versiones de nuestras páginas, contenidos, llamadas a la acción.. etc para medir si éstas rinden mejor que lo que ya teníamos, manejando una única fuente de datos, la propia. Utiliza el análisis estadístico Bayesiano (basándose en la consistencia de nuestra tasa de conversión), se integra con Big Query y aplica la corrección Bonferroni (que tiene en cuenta aquellas circunstancias que se producen debido al azar)

¿Qué nos permite hacer?

  • Utilizar objetivos, métricas o nuestros segmentos de audiencia creados en Google Analytics para enriquecer los tests.
  • Dirigir los tests a usuarios que hayan realizado (o no) determinadas acciones en el nuestro site
  • Segmentar los resultados con nuestros segmentos avanzados de Google Analytics.
  • Seleccionar manualmente las métricas que creamos convenientes en los informes.

Parece que pronto se podrá probar la versión gratuita de esta herramienta, de momento se puede solicitar la prueba a esta versión de Google Optimize según anuncian en el blog de Google

Audience Center 360

Carl Fernandes, Product Lead, fue el encargado de introducir el módulo. Audience Center realiza las funciones de un DMP (Data Management Platform), recopilando y organizando los datos de nuestros usuarios. Desde aquí podremos, en la misma plataforma tecnológica, integrar nuestra publicidad en Search, RTB, Display, adserving etc. con consistencia e integración con los data sets de Google (demográficos, geográficos, de intereses.. etc.).. Esto quiere decir que no tendremos que exportar nuestras audiencias a otros proveedores.

¿Qué nos permite hacer?

  • Utilizar las audiencias de cookies de primera parte en el ecosistema publicitario de Google (DBM, Adwords, red de Display, Adsense..)
  • La novedad. Podremos contectar nuestras audiencias con proveedores fuera del ecosistema de Google, con cookies de tercera parte. Ofrece un informe de “similitud”, en donde podemos buscar aquellas audiencias que trabajan con 3ª parte y que sean similares a nuestras audiencias de 1ª parte.
  • Incluir o excluir nuestros segmentos de Analytics para construir las audiencias (por ejemplo, excluir un segmento que no convierte nunca en cualquiera de las inserciones, o apuntar a audiencias que presentan ciertos atributos en todos los canales)
  • Dispone de un informe de frecuencia de impactos y otro con el número de impresiones idóneo para una mejor conversión
  • Podemos definir paquetes y sub-paquetes de cookies para lanzar en diferentes DSPs con el objetivo de testear su rendimiento
  • Prometen una activación en 24 horas y la publicación en un click en otras plataformas publicitarias no-google.

Data Studio 360

Alicia Escribá nos contó cómo funciona el módulo de reporting de la Suite. Ofrece integraciones nativas con Analytics, diversos CRM y algunos servicios de Google.

¿Qué nos permite hacer?

  • Trabajar de manera cómoda si se está habituado a utilizar spreadsheets, con una interfaz muy parecida
  • Widgets con métricas contrastadas
  • Construcción de campos personalizados en base a fórmulas
  • Manejar tablas con datos importados de nuestro CRM construyendo gráficos que funcionan en tiempo real.

Habrá una versión gratuita de esta herramienta, que permite la creación de cinco informes, pero de momento está disponible sólo para los Estados Unidos.

 

Vistas Google Torre Picasso

Vistas Google Torre Picasso

Otras novedades, de las que ya teníamos noticia como partners:

  • Objetivos inteligentes en Google Analytics (basados en nuevos atributos de la visita),.
  • Integración con Firebase para aplicaciones móviles.
  • Nuevos workspaces o entornos de trabajo en Google Tag Manager.
  • Simplificación de los procesos de integración de los módulos.

 

 

La sesión terminó con un caso de uso que contó con la presencia de Marcos Ortega, Director de Marketing de PSA (Peugeot, Citrôen, DS), pionero en el uso de los datos para tomar decisiones, a pesar de formar parte de una marca que no tiene su core en la venta online. Fue una intervención amena sobre el proceso de integración con la plataforma Doubleclick llevado a cabo por PSA en los últimos meses.

Muchas novedades, queda mucho camino por recorrer hasta que en nuestro país veamos todo esto funcionando a tope, hay que ser optimista. Lo que está claro es que hará falta mucha masa gris para sacar rendimiento a tanta funcionalidad.

¿Te apuntas al reto?

El Report “Resumen de Navegación”

26/09/2016 a las 18:23

Hoy, en mi estreno en DoctorMetrics, voy a hablaros de uno de los reports más desconocidos que podemos encontrar dentro de Google Analytics, pero no por ello menos útil…Para empezar, veamos donde encontrarlo, que no es inmediato…

Navigation Summary 1

 

Como vemos, lo encontraremos dentro del Menú Comportamiento –> Todas las páginas, y luego pestaña “Resumen de Navegación”.

Una vez clickamos en la pestaña “Resumen de navegación” nos encontraremos con la siguiente información:

post_de_ns_3

 

Comentemos los campos que podemos configurar en este Report:

1 – En este desplegable, que por defecto viene con la opción de “Número de visitas a páginas” podemos seleccionar también estas otras métricas:

post_de_ns_4

 

2 – Lo mismo en el caso que queramos comparar métricas:

post_de_ns_5

 

3 – Podemos agrupar las páginas por Contenido (previamente definido en la sección de “Agrupación de Contenido”) si estamos más interesados en el tipo de contenido que en el contenido individual.

post_de_ns_6

 

4 – Podemos seleccionar la página que queramos analizar (por defecto nos aparecerá la que tiene más páginas vistas del site)

post_de_ns_7

 

5. En este report podemos segmentar, lo cual es algo realmente muy potente, ya que, por ejemplo, nos podría interesar comparar distintos tipos de tráfico. Imaginad que queremos evaluar el comportamiento de un usuario que entra por la página x en el site en función de si viene por tráfico orgánico o de pago….mola, no? 🙂

Bueno, hasta ahora sólo hemos visto como encontrar el Report y qué posibilidades de configuración nos ofrece. Pero, ¿qué podemos hacer con él realmente? ¿Para qué sirve?

Veámoslo con un ejemplo:

post_de_ns_9

 

Vamos a comentar toda la información que nos está dando el Report. Recordemos que estamos analizando la página “index” en el periodo 1 al 15 de Septiembre de 2016.

Si nos fijamos en los datos, de izquierda a derecha y de arriba a bajo, vemos que nuestra página es el 70.91% de las entradas al site, es decir, de todas las entradas al site, el 70.91% de las veces entran por nuestra página. En este caso, tiene cierta coherencia al ser la homepage….

El 29.09% de las entradas a nuestra página vienen de páginas de nuestro site, las cuales se detallan a continuación, en la columna “Ruta de la Página Anterior”. Vemos por ejemplo, que la página que lleva más tráfico a nuestra página es “/Google+Redesign/Apparel/Men++s/Men++s+T+Shirts” con 560 visitas a página, el 9.23%.

Si miramos la parte derecha del Report, vemos que el 49.08% de las visitas a la página se van del site. Y el resto, es decir el 50.92% van a las páginas que se detallan en “Rutas de la página siguiente”.

Como acabamos de ver, el Resumen de Navegación nos proporciona una información muy interesante, simple y visual al mismo tiempo. Si queremos optimizar una página en particular de nuestro site, por ejemplo una landing, una página de producto, etc., la información que nos proporciona este report nos facilita una mayor comprensión de como nuestros usuarios están interactuando con nuestra página.

Espero que os haya gustado….y si compartes, pues mejor! 🙂 Nos seguimos leyendo!

 

 

 

 

 

 

 

 

Se advierte al usuario del uso de cookies propias y de terceros de personalización y de análisis al navegar por esta página web para mejorar nuestros servicios y recopilar información estrictamente estadística de la navegación en nuestro sitio web. Política de cookies Acepto