Analytics Premium ComScore ClickTale Analytics Certified Partner Klipfolio Coremetrics

Google Data Studio: adiós al límite de 5 informes

02/02/2017 a las 19:32

A partir de hoy, la versión gratuita de Data Studio, la solución de Google para la creación de cuadros de mando e informes que os presentamos en su día,  ya no nos va a limitar a 5 informes o reports por cuenta.

Y como esa era la única diferencia entre esta versión y la de pago (Data Studio 360), Google dejará de cobrar por la segunda durante el resto de 2017 a los clientes que la tuvieran contratada.

Data Studio: ejemplo de cuadro de mando (Fuente: Google)

Un ejemplo de cuadro de mando realizado con Data Studio (Fuente: Google)

 

Entendemos la decisión de Google porque conocemos bien la herramenta. Estamos certificados, trabajamos con ella y seguimos de cerca los avances y novedades que se van incorporando. Es sólida y su amigable interfaz permite crear cuadros de mando muy completos en poco tiempo. Pero es una beta y se nota: se echan de menos conectores con más fuentes de datos dsitintas, por ejemplo. Y también había algunas carencias de partida difíciles de explicar, como la ausencia de semanas ISO en los selectores de periodo. Esta en concreto, fue subsanada hace unos días y ya es posible, al fin, seleccionar semanas comenzando por el lunes.

data studio beta logo

Google está mejorando Data Studio rápidamente y teniendo en cuenta las sugerencias de los usuarios. La propia herramienta nos enlaza con el foro oficial desde la ayuda, animándonos a participar. A mejoras como las nuevas opciones en los selectores de fechas, se van a ir uniendo otras muy demandadas como los segmentos avanzados en el conector con Google Analytics.  Cuando la palabra “beta” desaparezca de su nombre, si el ritmo de mejora no decae, podemos llegar a tener una herramienta bastante completa y potente.

Para terminar, es importante remarcar que está previsto que algunas de las características que están por llegar no estén pensadas para ofrecerse en una herramienta gratuita, lo que justificará volver a comercializar una versión 360 de pago en un futuro.

Podéis leer el comunicado oficial de Google aquí.

Y si no conocéis todavía Data Studio, un buen comienzo puede ser este video:

Alternative analytics tracking for IFrames

23/01/2017 a las 17:06

Be it for basic form submission, third party content, or even behind-the-scenes logging, IFrames often play important roles in online user behavior. An IFrame (Inline Frame) is an HTML document embedded inside another HTML document on a website, but despite IFrames grant us a lot of flexibility in our sites. They make our analytic tracking code quite harder to implement. Some examples would be cross-domain problems or third party IFrames in which we cannot insert our analytics code. In this post we are going to explain how to treat most of the common issues that IFrames provoques.

IFrames schema

 

The main idea for this implementation, is that the parent page will always send the hits to analytics. Even the interactions that are coming from the IFrame

Nueva versión de la API de Google Analytics + R statistics

03/01/2017 a las 15:30

Con motivo del lanzamiento de la versión 4 de la API de Google Analytics, mostramos las nuevas funcionalidades que ofrece. Para información sobre migraciones de la API de Google Analytics pincha en el enlace anterior.

Nosotros destacamos las siguientes funcionalidades que respectan a la presentación de informes:

  • Combinación de métricas mediante expresiones matemáticas de cara a las consultas de datos. 
  • Solicitud de dos o más períodos simultáneos en una misma consulta.
  • Solicitud de datos de varios segmentos avanzados en la misma consulta. Podría llegar a ser complicado formularlos en Google Analytics, para ello se ha creado un User Interface con Shiny de gran ayuda. Para acceder a la herramienta, pincha en el siguiente enlace.

¿Cómo empezar a sacarle partido a la nueva versión de la API de Google Analytics? Para cantidades masivas de datos, un fichero Excel nos limitaría los análisis, por lo que un recurso de 10 es, ni más ni menos, que trabajar con la herramienta R statistics.

Cómo convertir un formulario en un embudo

21/12/2016 a las 12:06

Hace algunos meses, escribí un post sobre cómo estudiar el rendimiento de tus formularios mediante el uso de eventos y páginas virtuales

La semana pasada expliqué cómo usar los eventos para medir las interacciones de un usuario con los campos de un formulario, en esta ocasión voy a explicar la segunda parte del post original, es decir cómo crear un embudo con los campos de un formulario (siendo el objetivo enviar el mismo).

Usar el embudo para representar el uso del formulario, nos permite identificar de manera visual en qué campo/os tenemos problemas y por tanto qué hay que cambiar.

Para contextualizar el post, de nuevo imaginemos que voy a trabajar sobre un formulario como el de la imagen.

Usaremos, como en el post anterior, el GTM para implementar el proceso de seguimiento.

Ejemplo de un posible formulario a seguir

Ejemplo de un posible formulario a seguir

Qué necesitas para seguir el formulario

Para poder implementar la solución que voy a describir en el post necesitarás lo siguiente:

Cómo medir el uso de los formularios mediante eventos

15/12/2016 a las 10:36

Hace algunos meses, escribí un post sobre cómo estudiar el rendimiento de tus formularios mediante el uso de eventos y páginas virtuales

Prometí que algún día explicaría cómo hacerlo así que como lo prometido es deuda, aquí está la explicación del primer punto. (Aviso: requiere ciertos conocimientos de cómo funciona GTM y cómo enviar valores al mismo desde una página)

En este primer post, comenzaba explicando cómo usar los eventos para simular un embudo  y medir así el uso de los diferentes campos del formulario, vamos a ver ahora cómo podemos activar esto en nuestros formularios mediante el uso de GTM.

Para contextualizar el post, imaginemos que voy a trabajar sobre un formulario como el de la imagen

Ejemplo de un posible formulario a seguir

Ejemplo de un posible formulario a seguir

Qué necesitas

Para poder implementar la solución que voy a describir en el post necesitarás lo siguiente:

Presentación de la Suite Google Analytics 360

28/09/2016 a las 11:09

Torre Picasso - Madrid

Torre Picasso

El pasado jueves 22 de septiembre estuvimos en la presentación oficial de la nueva Suite Google Analytics 360 en Madrid. Esta herramienta es la evolución de Google Analytics Premium, versión de pago para grandes clientes presentada  por Google en 2011.

Si te interesa,  aquí tienes un interesante artículo sobre la historia de Google Analytics que se remonta al siglo pasado.

 

Si tuviera que sacar conclusiones de lo que vimos en la presentación, destacaría la solidez que aporta la integración de los diferentes módulos de la herramienta, pensada para sacar el máximo partido de las cookies propias, en combinación con la potente plataforma publicitaria de Google. Esto supone que si compramos todo el “kit” (que no es barato y cuyo precio varía según volumen y módulo) tendremos una herramienta sin discrepancia en los datos a nivel de cookies, ya que todos los módulos se sincronizan con la integración en este aspecto.

El objetivo, según Google, es conseguir un “círculo virtuoso”. Dan Florin, Global Product Lead fue el encargado de presentar la Suite y destacó sus puntos clave: Identificar a nuestros usuarios de valor, entendiendo su ciclo de vida. Personalizar y optimizar su experiencia con la marca. Hacer campañas consistentes en diferentes canales y dispositivos, poder medirlas correctamente a través de su integración compartiendo los resultados con los distintos equipos y evitar los silos.

 

Presentación Google Analytics 360 -Madrid

Presentación Google Analytics 360 -Madrid

No es el propósito de esta entrada hacer un repaso en profundidad de sus componentes, tan sólo pretendo destacar los aspectos que, desde mi punto de vista, mejoran la versión Premium.

Cada uno de los módulos se centra en un área concreta:

Attribution 360

Attribution es, en pocas palabras, la encargada de ayudarnos a decidir quién se lleva la comisión por la venta. Nos invita a encontrar cual es el Marketing Mix adecuado para nuestra marca. Ofrece una visión global, holística, gracias a su integración nativa con Analytics 360, lo que permite analizar los datos de nuestras campañas de marketing, con la máxima granularidad,  y confrontarlos con el resto de nuestros canales (online y ahora también offline). Dave Barney, Product Manager, fue el encargado de contarnos las novedades:

¿Qué nos permite hacer?

  • Marketing Modeling: Orientado a mejorar la distribución del presupuesto de marketing y su impacto en los resultados y ayudarnos a definir la estrategia en este área. Como novedad, su modelo de atribución basado en datos tiene en cuenta todos los puntos de contacto del usuario. Este modelo, en Analytics 360 seguirá teniendo el límite de cuatro puntos si no se ha comprado este módulo.
    • Informe de rendimiento de campañas
    • Simulador: Para saber qué hubiera ocurrido si hubiéramos actuado de otro modo.
    • Análisis predictivo para un rango de fechas (cuya precisión mejora en corto plazo, p.e. tres meses) y que tiene en cuenta diversos factores (estacionales, de clima..) y se puede segmentar por canal.
    • Optimizador de presupuesto: permite la asignación de prespuestos por canal a distintos escenarios para hacer previsiones.
  • TV Attribution: Análisis de impacto de nuestros anuncios en Radio y Televisión. La evolución de Adometry. Utiliza patrones observados en el histórico de datos. Si incorporamos los datos de campañas (p.e. semanalmente) a través de Data Import, superpone el plan de medios off line (TV y radio) sobre nuestros datos online para conocer su impacto.
    • Informe de rendimiento: se puede segmentar por canal televisivo, por coste o por audiencia.
    • TV Insights: Consiste en un gráfico de bolas (tipo DAFO), que muestra en un eje el volumen y en el otro su efectividad, con cuadrantes, lo que ofrece una imagen clara, en un vistazo del rendimiento, evitando la confusión que nos puede provocar pensar que más tráfico es siempre mejor.
    • Nos permite contrastar la emisión de nuestras campañas con datos de búsqueda de palabras clave en tiempo real (con su buscador).

Optimize 360

Es el módulo de testing y personalización. Facilita la publicación de otras versiones de nuestras páginas, contenidos, llamadas a la acción.. etc para medir si éstas rinden mejor que lo que ya teníamos, manejando una única fuente de datos, la propia. Utiliza el análisis estadístico Bayesiano (basándose en la consistencia de nuestra tasa de conversión), se integra con Big Query y aplica la corrección Bonferroni (que tiene en cuenta aquellas circunstancias que se producen debido al azar)

¿Qué nos permite hacer?

  • Utilizar objetivos, métricas o nuestros segmentos de audiencia creados en Google Analytics para enriquecer los tests.
  • Dirigir los tests a usuarios que hayan realizado (o no) determinadas acciones en el nuestro site
  • Segmentar los resultados con nuestros segmentos avanzados de Google Analytics.
  • Seleccionar manualmente las métricas que creamos convenientes en los informes.

Parece que pronto se podrá probar la versión gratuita de esta herramienta, de momento se puede solicitar la prueba a esta versión de Google Optimize según anuncian en el blog de Google

Audience Center 360

Carl Fernandes, Product Lead, fue el encargado de introducir el módulo. Audience Center realiza las funciones de un DMP (Data Management Platform), recopilando y organizando los datos de nuestros usuarios. Desde aquí podremos, en la misma plataforma tecnológica, integrar nuestra publicidad en Search, RTB, Display, adserving etc. con consistencia e integración con los data sets de Google (demográficos, geográficos, de intereses.. etc.).. Esto quiere decir que no tendremos que exportar nuestras audiencias a otros proveedores.

¿Qué nos permite hacer?

  • Utilizar las audiencias de cookies de primera parte en el ecosistema publicitario de Google (DBM, Adwords, red de Display, Adsense..)
  • La novedad. Podremos contectar nuestras audiencias con proveedores fuera del ecosistema de Google, con cookies de tercera parte. Ofrece un informe de “similitud”, en donde podemos buscar aquellas audiencias que trabajan con 3ª parte y que sean similares a nuestras audiencias de 1ª parte.
  • Incluir o excluir nuestros segmentos de Analytics para construir las audiencias (por ejemplo, excluir un segmento que no convierte nunca en cualquiera de las inserciones, o apuntar a audiencias que presentan ciertos atributos en todos los canales)
  • Dispone de un informe de frecuencia de impactos y otro con el número de impresiones idóneo para una mejor conversión
  • Podemos definir paquetes y sub-paquetes de cookies para lanzar en diferentes DSPs con el objetivo de testear su rendimiento
  • Prometen una activación en 24 horas y la publicación en un click en otras plataformas publicitarias no-google.

Data Studio 360

Alicia Escribá nos contó cómo funciona el módulo de reporting de la Suite. Ofrece integraciones nativas con Analytics, diversos CRM y algunos servicios de Google.

¿Qué nos permite hacer?

  • Trabajar de manera cómoda si se está habituado a utilizar spreadsheets, con una interfaz muy parecida
  • Widgets con métricas contrastadas
  • Construcción de campos personalizados en base a fórmulas
  • Manejar tablas con datos importados de nuestro CRM construyendo gráficos que funcionan en tiempo real.

Habrá una versión gratuita de esta herramienta, que permite la creación de cinco informes, pero de momento está disponible sólo para los Estados Unidos.

 

Vistas Google Torre Picasso

Vistas Google Torre Picasso

Otras novedades, de las que ya teníamos noticia como partners:

  • Objetivos inteligentes en Google Analytics (basados en nuevos atributos de la visita),.
  • Integración con Firebase para aplicaciones móviles.
  • Nuevos workspaces o entornos de trabajo en Google Tag Manager.
  • Simplificación de los procesos de integración de los módulos.

 

 

La sesión terminó con un caso de uso que contó con la presencia de Marcos Ortega, Director de Marketing de PSA (Peugeot, Citrôen, DS), pionero en el uso de los datos para tomar decisiones, a pesar de formar parte de una marca que no tiene su core en la venta online. Fue una intervención amena sobre el proceso de integración con la plataforma Doubleclick llevado a cabo por PSA en los últimos meses.

Muchas novedades, queda mucho camino por recorrer hasta que en nuestro país veamos todo esto funcionando a tope, hay que ser optimista. Lo que está claro es que hará falta mucha masa gris para sacar rendimiento a tanta funcionalidad.

¿Te apuntas al reto?

El Report “Resumen de Navegación”

26/09/2016 a las 18:23

Hoy, en mi estreno en DoctorMetrics, voy a hablaros de uno de los reports más desconocidos que podemos encontrar dentro de Google Analytics, pero no por ello menos útil…Para empezar, veamos donde encontrarlo, que no es inmediato…

Navigation Summary 1

 

Como vemos, lo encontraremos dentro del Menú Comportamiento –> Todas las páginas, y luego pestaña “Resumen de Navegación”.

Una vez clickamos en la pestaña “Resumen de navegación” nos encontraremos con la siguiente información:

post_de_ns_3

 

Comentemos los campos que podemos configurar en este Report:

1 – En este desplegable, que por defecto viene con la opción de “Número de visitas a páginas” podemos seleccionar también estas otras métricas:

post_de_ns_4

 

2 – Lo mismo en el caso que queramos comparar métricas:

post_de_ns_5

 

3 – Podemos agrupar las páginas por Contenido (previamente definido en la sección de “Agrupación de Contenido”) si estamos más interesados en el tipo de contenido que en el contenido individual.

post_de_ns_6

 

4 – Podemos seleccionar la página que queramos analizar (por defecto nos aparecerá la que tiene más páginas vistas del site)

post_de_ns_7

 

5. En este report podemos segmentar, lo cual es algo realmente muy potente, ya que, por ejemplo, nos podría interesar comparar distintos tipos de tráfico. Imaginad que queremos evaluar el comportamiento de un usuario que entra por la página x en el site en función de si viene por tráfico orgánico o de pago….mola, no? 🙂

Bueno, hasta ahora sólo hemos visto como encontrar el Report y qué posibilidades de configuración nos ofrece. Pero, ¿qué podemos hacer con él realmente? ¿Para qué sirve?

Veámoslo con un ejemplo:

post_de_ns_9

 

Vamos a comentar toda la información que nos está dando el Report. Recordemos que estamos analizando la página “index” en el periodo 1 al 15 de Septiembre de 2016.

Si nos fijamos en los datos, de izquierda a derecha y de arriba a bajo, vemos que nuestra página es el 70.91% de las entradas al site, es decir, de todas las entradas al site, el 70.91% de las veces entran por nuestra página. En este caso, tiene cierta coherencia al ser la homepage….

El 29.09% de las entradas a nuestra página vienen de páginas de nuestro site, las cuales se detallan a continuación, en la columna “Ruta de la Página Anterior”. Vemos por ejemplo, que la página que lleva más tráfico a nuestra página es “/Google+Redesign/Apparel/Men++s/Men++s+T+Shirts” con 560 visitas a página, el 9.23%.

Si miramos la parte derecha del Report, vemos que el 49.08% de las visitas a la página se van del site. Y el resto, es decir el 50.92% van a las páginas que se detallan en “Rutas de la página siguiente”.

Como acabamos de ver, el Resumen de Navegación nos proporciona una información muy interesante, simple y visual al mismo tiempo. Si queremos optimizar una página en particular de nuestro site, por ejemplo una landing, una página de producto, etc., la información que nos proporciona este report nos facilita una mayor comprensión de como nuestros usuarios están interactuando con nuestra página.

Espero que os haya gustado….y si compartes, pues mejor! 🙂 Nos seguimos leyendo!

 

 

 

 

 

 

 

 

Nos hemos certificado en Optimize 360

19/09/2016 a las 15:33

Uno de los productos que más atención ha creado de la nueva suite 360 es el Optimize 360, este producto nos permite probar cambios en nuestro sitio y personalizar sus contenidos para segmentos de usuarios con el fin de maximizar el rendimiento del mismo.

360-certified-logo

Metriplica optiene la certificación de Optimize 360

Desde el principio tuvimos claro que queríamos usar esta herramienta como parte de nuestra estrategia de mejora continua que ofrecemos a nuestros clientes y el primer paso que teníamos que hacer era certificarnos en la misma.

La certificación consiste en un examen,  y un caso de estudio que demuestre que sabemos usar la herramienta. Buscar un caso de estudio puede parece sencillo pero ¿saben lo difícil que es encontrar un cliente que quiera testear su sitio en verano?

Por coincidencias del destino, justo en Julio Metriplica lanzó su nueva web y había un elemento que no nos acaba de convencer a varios en la empresa. Se trataba del nuevo menú de navegación en formato “hamburguesa”, si bien en móvil este formato es común en ordenadores de escritorio pensábamos que penalizaba la navegación más que la mejoraba. Y aquí teníamos nuestro caso de estudio 🙂

El proceso de certificación para Optimize 360

Para certificarnos en Optimize 360, planteamos como caso de estudio un test en el que, “enfrentamos” el menú de navegación en formato hamburguesa con el menú de navegación en formato clásico.

Los resultados, como pueden ver en la imagen, reflejan que el hecho de poner el menú en formato clásico mejora en casi un 50% la navegación a través del mismo, es decir provoca un consumo de contenido mayor y por tanto mayores probabilidades de contacto y de visualizar nuestros servicios como empresa.

Mejora del 50% en navegación del menú clásico vs hamburguesa

Con un menú clásico, la navegación aumenta un 50% sobre el menú hamburguesa

Y ahora ¿qué?…

Pues los siguientes pasos que vamos a tomar obviamente  es cambiar nuestro menú por un formato clásico visible y comenzar a ofrecer Optimize 360 a todos nuestros clientes 🙂

Agradecer a todos los miembros del equipo que han hecho posible la certificación en Optimize 360  y espero que podamos sacarle partido lo antes posibles

Consultas a la API de Google Analytics con fechas actualizadas automáticamente

20/07/2016 a las 10:25

Al seleccionar las fechas de inicio o fin en nuestras consultas, en el Query Explorer, podemos utilizar today, yesterday o el patrón NdaysAgo además del patrón básico YYYY-MM-DD. Pero, ¿qué pasa si necesitamos datos de las últimas N semanas o los últimos N meses? La cosa se complica y no tenemos muchas mejores opciones que introducir a mano las fechas que necesitamos. Parece una tontería, pero es algo poco práctico cuando queremos usar la misma consulta para distintas fechas, o incluso peor cuando queremos hacerla de forma periódica para hacer informes semanales o mensuales, por ejemplo.

Con la conexión entre R y Google Analytics (de la cual hablamos anteriormente aquí) parecería que no tenemos mejor suerte ya que ni siquiera acepta today, yesterday o NdaysAgo, sino que únicamente acepta el patrón YYYY-MM-DD. Pero, en realidad, ‘jugando‘ un poco con las funciones de tiempo de R sí que podemos consultar estas fechas relativas y, de hecho, cualquier otra que nos propongamos.

En este post veremos la forma de hacer consultas de algunos de los periodos dinámicos más comunes: los últimos N días, las últimas N semanas (de lunes a domingo) y los últimos N meses. A partir de aquí, se podrían modificar fácilmente para consultar otras fechas relativas que se necesiten en cada caso concreto.

Para conseguirlo, lo único que necesitaremos será modificar adecuadamente los parámetros que corresponden a la fecha de inicio (start.date) y de fin (end.date) de la función Init del package RGoogleAnalytics, que es mediante la cual creamos la consulta a hacer a la API de Google Analytics. Sin embargo, para poder hacerlo necesitaremos:

1) Tener instaladas y cargadas las librerías RGoogleAnalytics y lubridate. Esta segunda la necesitamos para usar ciertas funciones de tiempo que nos ayudarán a obtener las fechas relativas que queremos. En principio se carga automáticamente al cargar la librería RGoogleAnalytics, pero si no fuera el caso también habría que cargarla para utilizar el código.

install.packages("RGoogleAnalytics")
install.packages("lubridate")
library(RGoogleAnalytics)

2) Autenticarse con nuestras credenciales para poder hacer la conexión entre R y Google Analytics. Para más detalles, seguir los pasos del post mencionado anteriormente.

#Credenciales para la cuenta de Google Analytics seleccionada
client.id<-"xxxxxxxxxxxxxxxxxxxxxxxx"
client.secret<-"xxxxxxxxxxxxxxxxxxxx"

#Creación y llamada del token (la conexión en sí)
token<-Auth(client.id,client.secret)
ValidateToken(token)

3) Comprobar que tenemos configurados el día y la hora correctos. Para hacerlo se puede ejecutar el comando Sys.time(), que devuelve la fecha y la hora del momento en que se ejecuta.

Últimos N días

query.list<-Init(
 start.date=as.character(Sys.Date()-N), #Sustituir N por un número
 end.date=as.character(Sys.Date()-1)
 dimension="<dimensiones>",
  metrics="<métricas>",
  max.results=10000,
  table.id="ga:XXXXXXX"
)
ga.query<-QueryBuilder(query.list)
ga.data<-GetReportData(ga.query,token)
La fecha inicial tiene que ser la de hace N días. Como Sys.Date() devuelve la fecha actual, simplemente le restamos el número de días que queremos.
La fecha final tiene que ser ayer, así que usamos la misma idea y le restamos 1 día a hoy.
Finalmente, con as.character() convertimos los valores obtenidos en un string o cadena de caracteres, que es el formato que necesitan los parámetros start.date y end.date.

Últimas N semanas (de lunes a domingo)

query.list<-Init(
  start.date=as.character(seq(Sys.Date()-wday(Sys.Date())+2,
               by="-1 week",length.out = N+1)[N+1]), #Sustituir N por un número
  end.date=as.character(Sys.Date()-wday(Sys.Date())+1),
  dimension="<dimensiones>",
  metrics="<métricas>",
  max.results=10000,
  table.id="ga:XXXXXXX"
)
ga.query<-QueryBuilder(query.list)
ga.data<-GetReportData(ga.query,token)
La fecha inicial tiene que ser el lunes de hace N semanas. Para ello, primero recuperamos el lunes de la semana actual mediante Sys.Date()-wday(Sys.Date())+2 y luego retrocedemos N* semanas para obtener el lunes que necesitamos con seq(…,by=”-1 week”,length.out = N+1)[N+1]).
La fecha final, considerando que queremos semanas cerradas, es el domingo de la semana anterior a la actual. Lo obtenemos mediante Sys.Date()-wday(Sys.Date())+1 (no es más que el mismo código con el que obtenemos el lunes de la semana actual pero restando un día para que sea el domingo anterior).
Finalmente, usamos as.character() como en el caso anterior.
*Se utiliza N+1 porque la primera fecha que considera es la de la semana actual.

Últimos N meses

query.list<-Init(
  start.date=as.character(seq(Sys.Date()-day(Sys.Date())+1,
               by="-1 month",length.out = N+1)[N+1]), #Sustituir N por un número
 
  end.date=as.character(Sys.Date()-day(Sys.Date())),
  dimension="<dimensiones>",
  metrics="<métricas>",
  max.results=10000,
  table.id="ga:XXXXXXX"
)
ga.query<-QueryBuilder(query.list)
ga.data<-GetReportData(ga.query,token)
La fecha inicial tiene que ser el primer día del mes correspondiente. Para obtenerlo, primero recuperamos el día 1 del mes actual con Sys.Date()-day(Sys.Date())+1 y después retrocedemos N* meses para tener el día 1 que necesitamos con seq(…,by=”-1 month”,length.out = N+1)[N+1])
La fecha final del periodo, considerando que queremos meses cerrados, es el último día del mes anterior al actual. Lo podemos obtener con Sys.Date()-day(Sys.Date()), que no es más que el mismo código con el que obtenemos el día 1 del mes actual pero restando un día para que sea el último del mes anterior (independientemente de si tiene 30, 31 o 28 días).
Finalmente, como en los casos anteriores, usamos as.character() para convertir los valores en un string o cadena de caracteres, que es el formato que necesitan los parámetros start.date y end.date.
*Se utiliza N+1 porque el primer mes que considera es el actual.
Y ya está! Poniendo nuestro id de la vista de Google Analytics correspondiente más las dimensiones y métricas que se quieren extraer, ya podríamos tener una consulta que siempre devuelva los datos de los últimos N días, de las últimas N semanas o de los últimos N meses. Además, podríamos combinar estos códigos para automatizar consultas con fechas relativas personalizadas, como por ejemplo “los últimos 2 meses hasta el domingo pasado” o cosas por el estilo. De esta forma, podremos repetir nuestros análisis y/o visualizaciones hechos con R periódicamente para generar informes sin tener que modificar ni una línea del código inicial, así que ya tienes una razón más para animarte a usar R para analizar tus datos de Google Analytics. 😉
Espero que este post os pueda facilitar un poco la vida y de cara a próximos análisis sólo tengáis que centraros en la explotación de los datos, que es lo realmente importante. Y si tenéis alguna duda relacionada con el tema o tenéis algún problema al automatizar algunas fechas, no dudéis en dejar vuestro comentario. 🙂

Dimensiones personalizadas Tiempo y Temperatura en Tealium

09/06/2016 a las 12:35

¿Tienes un ecommerce o tienes a tu cargo el análisis de los datos de alguno?

Seguro que más de una vez has escuchado algo como que los días de lluvia son una bendición para el comercio electrónico ya que la gente suele quedarse en casa y realizar sus compras a través de la red.
Pues bien, el gran Simo Ahava nos daba una idea en este post para poder comprobar si realmente se cumplía dicha teoría mediante una implementación en GTM.

Nosotros hemos comprobado que su implementación funciona perfectamente en Google Tag Manager, sin embargo teníamos la duda de cómo realizar esta misma implementación en Tealium.

¿Qué es Tealium?

Para los que no sepáis qué es Tealium os diré de manera rápida que se trata de otro gestor de etiquetas, similar a GTM pero con diferentes características. Tealium utiliza el objeto utag_data para proporcionar información desde el site, además una de sus mayores fuerzas es la integración con un gran número de herramientas de terceros, lo que facilita mucho el trabajo con este gestor de etiquetas.

Se advierte al usuario del uso de cookies propias y de terceros de personalización y de análisis al navegar por esta página web para mejorar nuestros servicios y recopilar información estrictamente estadística de la navegación en nuestro sitio web. Política de cookies Acepto