Analytics Premium ComScore ClickTale Analytics Certified Partner Klipfolio Coremetrics
Tags populares:

Power BI como herramienta de Analítica Web

17/01/2017 a las 10:01

Cada día se generan toneladas y toneladas de datos en el mundo empresarial ya sea en un entorno online como en un entorno off-line y cada vez son más el número de herramientas o software que utilizamos. Surge la necesidad de tener todos esos datos en un mismo lugar.

En el análisis de los datos debemos crear un plan de proyecto de análisis, mejorar los problemas de calidad de los datos y trabajar con un equipo multifuncional (consultor analítico, Técnico IT, desarrollo BI). En definitiva, debemos transformar estos datos en valor para le empresa.

Microsoft Power BI tiene 4 productos:

  • Power BI Desktop. Es la instalación en local, su uso es el entorno de trabajo donde posteriormente publicaremos en Power BI (online)
  • Power BI Online, es el entorno donde se comparte y publican los paneles y los informes.
  • Power BI Mobile para acceder en cualquier lugar y en cualquier momento
  • Power BI Embedded. Si tienes una aplicación o intranet y quieres integrarla con Power BI lo puedes hacer mediante la API de Power BI. Ver ejemplo de Power BI Embedded

1.- Porqué Power BI 

  • Líder en BI and Analytics Plataform según Garner junto a Tableau y Qlik
  • Búsquedas crecientes en Google des de su lanzamiento (Google Trends)
  • Precios asequibles vs Tableau vs Qlik. Hay la versión gratuita y la versión Pro son €8,40 usuario / mes
  • Actualizaciones de mejora mensuales
  • Perfecta integración Microsoft Office 365 Suite

2.- Obtención de datos

Mediante conectores podemos importar datos de terceros, actualmente Power BI cuenta con más de 60 conectores. Destacamos, Google Analytics, Adobe Analytics, Comscore digital Analyticx, Webtrends, Github, entre otros.
get-data-power-bi

La importación de los datos de Google Analytics es muy sencilla, buscaremos el conector y introduciremos nuestras credenciales de usuario y contraseña de nuestra cuenta de GA. Posteriormente seleccionar la cuenta, la propiedad y la vista.

obtener-datos-ga

3.- Modelación de los datos

Antes de crear las visualizaciones necesitaremos preparar los datos, con frecuencia nos conectaremos en más de un origen de datos para crear informes y necesitaremos que todos esos datos estén vinculados. Si quieres establecer una conexión lógica entre distintos orígenes de datos entonces deberemos crear una relación.

Vemos un ejemplo practico: Suponemos que tenemos dos tablas, una con datos de la tienda online y la otra de la tienda física.

Para poder conectar estos datos deberemos establecer una relación entre dos tablas (Tienda Online, Tienda BCN). Crearemos dos nuevas tablas y utilizaremos la opción de concatenar para combinar los datos de las 2 columnas “Fecha;Ventas”.  Así queda la expresión

VentasFecha = TiendaBCN[Fecha] & “,” & TiendaBCN[Ventas]VentasFecha = TiendaOnline[Fecha] & “,” & TiendaOnline[Ventas]

Ahora ya podremos establecer una relación o conexión entre dichos datos. Podremos gestionar las relaciones entre tablas desde la opción del panel llamada “relaciones”

relaciones-entre-tablas

 

Con el editor de datos podremos calcular columnas, editar las “queries”, definir cálculos personalizados, crear medidas y KPI’s, lo haremos mediante el uso de expresiones DAX (Data Analysis Expresions)

Por ejemplo: una medida interesante en analítica web es comparar las transacciones o ingresos obtenidos del actual periodo respecto al periodo anterior (año, semestre, trimestre, mes o día). Esta cuestión la solucionaremos mediante el uso de expresiones DAX “time intelligence”

Esta sería el ejemplo de la expresión DAX utilizada para crear una nueva medida cuyo resultado será el cálculo de Total Ingresos del Año anterior (Total Revenue LY)

new-measure

 

Si quiere más información sobre el uso del lenguaje DAX en Power BI te recomendamos estos sitios

4.- Visualizaciones

Disponemos de distintos objetos visuales que vienen por defecto en el panel de visualizaciones, tales como: gráficos simples, combinados, de dispersión, de cascada y embudo, segmentado de datos, creación de mapas…etc. si aún así no encuentras lo que buscas puedes ir a buscar objetos visuales personalizados en la galería de visualizaciones de Power BI, es el portal de todas las aportaciones realizadas por parte de la comunidad de desarrolladores de Power BI que podrás descargarte de forma gratuita.

custom-visuals-powerbi

Ejemplo de un objeto visual llamado “SankeyBarchart” que te permite reproducir el embudo de compra del comercio electrónico mejorado de Google Analytics

 

sankeybarchart

 

5.- Otras funcionalidades

  • Creación y edición de paquetes de contenidos que son como “plantillas” con parámetros y querys “predefinidos” que nos permiten, de una forma fácil y rápida importar datos de terceros (ejemplo Google Analytics). ¿Quieres ver una demo de Power BI con datos de Google Analytics ? puedes importar un “content pack” des de la Versión Online de Power BI en tan solo 3 pasos.
  • Creación de grupos de trabajo o “workspaces” para poder compartir informes y cuadros de mando con un grupo de usuarios con distintos niveles de permisos.
  • Perfecta integración con el eco sistema de productos de Microsoft. las conocidas extensiones de Microsoft Excel, Power Pivot, Power Query, Power View y Power Maps…
  • Puertas de enlaces o servicio Gateway nos permiten conectar con las fuentes de datos en modo local evitando así realizar las actualizaciones de forma manual.
  • Formulación de preguntas a los datos en lenguaje natural
  • Importación y exportación de paneles. Nos permite crear nuevos paneles como suma de partes de informes distintos.
  • Posibilidad de Embebecer el informe o cuadro de mando en Web y en Power Point mediante un iframe que nos permite interactuar a tiempo real y de forma dinámica con las visualizaciones. (ver demo final post)

1.-Obtener datos desde el panel

2.-Seleccionar el servicio=Google Anlalytics

3.- Importar Paquete de contenido

paquete-contenidos-ga

 

6.- Ejemplo

Os mostramos aquí un ejemplo de un informe insertado en una web (embeded) puedes hacer clic en él e interactuar con los datos.

Nueva versión de la API de Google Analytics + R statistics

03/01/2017 a las 15:30

Con motivo del lanzamiento de la versión 4 de la API de Google Analytics, mostramos las nuevas funcionalidades que ofrece. Para información sobre migraciones de la API de Google Analytics pincha en el enlace anterior.

Nosotros destacamos las siguientes funcionalidades que respectan a la presentación de informes:

  • Combinación de métricas mediante expresiones matemáticas de cara a las consultas de datos. 
  • Solicitud de dos o más períodos simultáneos en una misma consulta.
  • Solicitud de datos de varios segmentos avanzados en la misma consulta. Podría llegar a ser complicado formularlos en Google Analytics, para ello se ha creado un User Interface con Shiny de gran ayuda. Para acceder a la herramienta, pincha en el siguiente enlace.

¿Cómo empezar a sacarle partido a la nueva versión de la API de Google Analytics? Para cantidades masivas de datos, un fichero Excel nos limitaría los análisis, por lo que un recurso de 10 es, ni más ni menos, que trabajar con la herramienta R statistics.

Recientemente se ha creado una nueva versión del paquete googleAnalyticsR que permite interactuar con los informes y nuevas funcionalidades que incorpora la V4 de la API de Google Analytics.

Los analistas que usamos R como herramienta de procesamiento y explotación de los datos somos conscientes del tiempo que nos abarca en ocasiones dicho procesamiento. Con las nuevas funcionalidades de la API podemos ahorrar tiempo de trabajo en la post-consulta:

  • Conversión de formatos de las dimensiones, como por ejemplo, strings a formato fecha, factor, etc.
  • Operaciones entre distintas métricas.

La sintaxis a seguir para realizar estas consultas sin sampling en R, contemplando todas las opciones citadas anteriormente:

library(googleAnalyticsR)

ga_auth()  #autentificación

sinsampling_ga_data_APIV4 <- google_analytics_4(

viewId=111111,

dateRange=c(“YYYY-MM-dd”, “YYYY-MM-dd”, “YYYY-MM-dd”…….),

metrics = c(metric1, metric2, metric3/metric4, (metric3*metric5*100)/metric4….),

dimensions = c(dimensión1, dimensión2,…),

order= order_type(metric1, “DESCENDING/ASCENDING”,…),

metricFormat= c(“INTEGER”, “FLOAT”),

anti_sample=TRUE

)

En el caso de utilizar filtros o segmentos avanzados dentro de la función google_analytics_4, únicamente abrir la siguiente aplicación en shiny. Se trata de una interfaz de usuario muy amigable que te formulará dichos filtros/segmentos mediante sencillos selectores. Incluyo una rápida visualización de la app del gran Mark Edmondson

 

Por otra parte, si le pedimos a la API consultas de varios períodos simultáneos, se volcarían en una misma tabla las dimensiones y métricas duplicadas en tantas columnas como períodos hallamos indicado. La sintaxis a seguir para introducir los períodos de Diciembre de 2016 y de 2017 (bien para compararlos, o para estudiar posibles estacionalidades) sería indicarle en la función google_analytics_4:

dateRange=c("2015-12-01", "2015-12-31","2016-12-01","2016-12-31")

En un post anterior veíamos cómo lanzar las query’s en R y la sintaxis a seguir para introducir de manera manual el período, métricas, dimensiones, filtros, y segmentos de la consulta. La versión del paquete que utilizamos en dicho post es más antigua, pero la manera de trabajar es prácticamente la misma (sólo cambia el nombre de las funciones, y algunos parámetros de la misma).

A practicar, enjoy it!

 

¿Cómo eliminar el SPAM de referencia en Google Analytics?

22/12/2016 a las 17:50

El spam de referencia o referrer spam se trata de las visitas que llegan a nuestro site desde un determinado dominio a través de un enlace que apunta a nuestra web, y que realmente no son visitas reales. Tienen un comportamiento extraño como puede ser una duración de 0 segundos.

¿Desconoces si tu site tiene referrer spam?

Es fácil de comprobarlo, tan sólo tienes que ir dentro de analytics y seleccionar “Adquisición -> Todo el tráfico -> Referencias

Cómo convertir un formulario en un embudo

21/12/2016 a las 12:06

Hace algunos meses, escribí un post sobre cómo estudiar el rendimiento de tus formularios mediante el uso de eventos y páginas virtuales

La semana pasada expliqué cómo usar los eventos para medir las interacciones de un usuario con los campos de un formulario, en esta ocasión voy a explicar la segunda parte del post original, es decir cómo crear un embudo con los campos de un formulario (siendo el objetivo enviar el mismo).

Usar el embudo para representar el uso del formulario, nos permite identificar de manera visual en qué campo/os tenemos problemas y por tanto qué hay que cambiar.

Para contextualizar el post, de nuevo imaginemos que voy a trabajar sobre un formulario como el de la imagen.

Usaremos, como en el post anterior, el GTM para implementar el proceso de seguimiento.

Ejemplo de un posible formulario a seguir

Ejemplo de un posible formulario a seguir

Qué necesitas para seguir el formulario

Para poder implementar la solución que voy a describir en el post necesitarás lo siguiente:

Cómo medir el uso de los formularios mediante eventos

15/12/2016 a las 10:36

Hace algunos meses, escribí un post sobre cómo estudiar el rendimiento de tus formularios mediante el uso de eventos y páginas virtuales

Prometí que algún día explicaría cómo hacerlo así que como lo prometido es deuda, aquí está la explicación del primer punto. (Aviso: requiere ciertos conocimientos de cómo funciona GTM y cómo enviar valores al mismo desde una página)

En este primer post, comenzaba explicando cómo usar los eventos para simular un embudo  y medir así el uso de los diferentes campos del formulario, vamos a ver ahora cómo podemos activar esto en nuestros formularios mediante el uso de GTM.

Para contextualizar el post, imaginemos que voy a trabajar sobre un formulario como el de la imagen

Ejemplo de un posible formulario a seguir

Ejemplo de un posible formulario a seguir

Qué necesitas

Para poder implementar la solución que voy a describir en el post necesitarás lo siguiente:

Visualización de datos con Python

13/12/2016 a las 07:59

En un post anterior hicimos una introducción a Python, enfocado al análisis de datos. En él instalamos Python, el paquete pip (encargado del mantenimiento del sistema y la instalación de otros paquetes) y numpy (permite calculo matricial y uso de funciones estadísticas).

Hoy trataremos la visualización de datos con matplotlib, un paquete que pone a nuestra disposición gran variedad de gráficos. Con pocas líneas de código seremos capaces de generar gráficos de tendencia, barras, dispersión, histogramas…

A continuación exponemos tres tipos de visualización de los más usados.

 

1. Gráfico de tendencia: muy útil cuando tenemos escalas de tiempo en el eje horizontal.

plot1_script
1_plot
 

2. Gráfico de burbujas: es un gráfico de dispersión para medir la asociación entre dos variables, introduciendo una tercera que determina el tamaño de la burbuja, o incluso una cuarta, que asigna un color.

plot2_script
2_plot
 

3. Histograma: en la fase exploratoria nos da una idea de la distribución de los datos.

plot3_script
3_plot
 

Recuerden que para consultar la documentación sobre un tipo de gráfico hacemos uso del comando:

help(plt.nombre_función_gráfico), donde plt es el alias de matplotlib.pyplot

A practicar!!!

Depurando Google Analytics en Apps

12/12/2016 a las 16:36

Una de las tareas que realizó una vez al mes (al menos), es la depuración de implementaciones de Google Analytics, ya sea de app o web.

Y lo “peor” que me puede pasar es que me toque depurar una app, básicamente porque es un trabajo bastante más pesado que realizar la depuración de una web.

Dado que muchas veces me preguntan cómo se realiza esta depuración, he querido escribir este post donde se describen los pasos necesarios.

Trataré de que sea lo más conciso posible para no alargar la lectura así que al grano.

Qué necesitas

  1. Ordenador con conexión a internet donde instalar el Charles Proxy
  2. Dispositivo móvil con la app que quieres depurar
  3. Tener descargado e instalado el Charles Proxy (ver metodología)

Enfoque

La idea a la hora de depurar una app, es hacer pasar el tráfico de internet de tu dispositivo móvil a través del ordenador para poder “capturar” en este último los hits que manda la app a Google Analytics y verificar que son correctos.

Metodología

  1. Lo primero que tendremos que hacer por tanto es descargar un servidor proxy a través el cual “enrutaremos” el tráfico de nuestro móvil o tablet a internet. Mi recomendación es usar el Charles que es bueno bonito y barato.

    Una vez descargado lo instalamos y continuamos con el punto 2

    charles-web-debugging-proxy

    Home del Charles Proxy. Bueno, bonito y barato

     

  2. Obtener la dirección ip del ordenador en la red en la que estamos conectados. El punto más peliagudo para quien no lo haya hecho nunca. No, es broma, tenemos que ir al menú “help” y seleccionar “Local IP Address”, apuntamos el número que nos indique.
    Obteniendo mi dirección IP

    Obteniendo mi dirección IP

     

  3. Ahora tenemos que configurar nuestro móvil o tablet para que se conecte a internet a través del proxy. Nos dirigimos a las opciones de wifi, seleccionamos la red a la que estamos conectados y vemos la información de la misma. En el caso de un IOS, basta con clicar el icono de info, dirigirnos al final de la pantalla (proxy http) y seleccionar proxy “manual”.
    Introducimos la dirección IP que copiamos en el punto 2,donde poner “Servidor” y como puerto el 8888

    Añadiendo el proxy para conectarme

    Añadiendo el proxy para conectarme

  4. Ya casi estamos, en el caso de IOS, tendremos que instalar un certificado para poder trabajar con el Charles y conexiones seguras. Para ello hay que ir a  esta dirección (http://www.charlesproxy.com/getssl/) desde el navegador del dispositivo e instalar el certificado. Con esto ya tenemos listo el dispositivo móvil.
    El certificado para IOS del Charles

    El certificado para IOS del Charles


  5. Una vez hecho lo anterior, volvemos al Charles y lo configuramos para que registre conexiones seguras al servidor de Google Analytics. Esto se hace desde “proxy” → “SSL proxy setting”, añadiremos la siguiente url “ssl.google-analytics.com” (sin comillas) otra opción más amplia es poner “*.google-analytics.com” si no estás seguro si la app es Universal Analytics o Clásico. Asegúrate de tener el “enable SSL proxy” activado

    Añadiendo el servidor seguro al proxy

    Añadiendo el servidor seguro al proxy

     

  6. Y ahora a testear, simplemente navega por aplicación y espera que aparezcan los hits de Google Analytics. Para verlos selecciona el hit en el listado y en las pestañas inferiores selecciona “content” para ver lo que se está enviando.

    Hit de Google Analytics en el Charles

    Hit de Google Analytics en el Charles

  7. Es posible que veas muchísimos hits que te generan ruido (imágenes, contenido web etc.) Si quieres filtrarlo tienes que ir a “proxy” → “record settings” → “include”, en esa pestañá puedes añadir el server: *.google-analytics.com con lo que solo recogerás hits a Google Analytics.

Un detalle que tienes que tener en cuenta es que en el caso de las apps, es muy probable que los hits se manden en lotes, es decir varios hits en un solo envío lo cual dificulta la interpretación de los datos ya que tienes que conocer la estructura de un hit para conocer cuándo acaba un hit y empieza el otro.

Detalle de los campos que se mandan en un hit de analytics

Detalle de los campos que se mandan en un hit de analytics

 

Solo puedo decir que con un poco de práctica se acaba sacando, Happy depuración!

R Statistics: Presentando insights con Shiny

21/11/2016 a las 18:44

 

Existen diversas fases en el desarrollo y presentación de un informe de analítica digital. En Metriplica nos involucramos mucho en la presentación de los resultados y siempre buscamos aquellas herramientas que nos ofrezcan elegantes soluciones gráficas.

  • Google Analytics como herramienta para el análisis de datos.
  • KlipFolio, entre otras, como herramienta de elaboración de dashboards.
  • Pirendo para analítica social.


Lo ideal sería disponer de una herramienta diseñada por el usuario a su gusto y disposición que le permita reunir en ella todos los aspectos anteriores: volcado de datos, explotación de los mismos, creación de informes y cuadros de mando, analítica social, analítica predictiva, etc.

Shiny

En R disponemos de una solución muy elegante: Shinyapps.

Shiny es un paquete de R que nos permite crear aplicaciones web interactivas. De esta forma, los usuarios de R podemos “automatizar” los scripts y realizar presentaciones interactivas con los datos a través de una aplicación web que el usuario puede manipular sin necesidad de adentrarse

en programación. Esto es una una clara ventaja para los usuarios no familiarizados con R. 

Aplicaciones con Shiny

Posibles aplicaciones interesantes que podemos realizar con Shiny. Entre otras:
  • Creación de cuadros de mando para ilustrar interactivamente los resultados de rendimiento del site.
 gadashboard
 Muestra el estado actual de algunas métricas clave de la web, permitiendo realizar segmentos por dispositivo. El rendimiento web se puede supervisar de forma muy cómoda y rápida.

Se podría monitorizar de manera periódica sincronizando los datos que recogemos en Google Analytics a R vía RGoogleAnalytics.  

Para los usuarios Premium, también es posible realizar la conexión de Google Bigquery con R y explotarlos en la APP.  Una aplicación para hacer simultáneamente consultas y visualizaciones de los datos de Google Bigquery la podemos encontrar en el siguiente enlace.

  • Creación de modelos predictivos. El usuario puede interactuar en la aplicación introduciendo un nuevo valor del cual está interesado en conocer su predicción a futuro. Es interesante la combinación de los modelos predictivos con datos offline: mapas sobre borrascas,tormentas, tornados… en determinadas zonas, obteniendo así predicciones más precisas.

 

offline

 


Valoración

En definitiva, Shiny nos gusta por ofrecer múltiples opciones. Nosotros destacamos las siguientes:

  • Implementación de widgets en las aplicaciones que permiten crear rápidas interfaces de usuarios.
  • Sencillas técnicas de programación reactiva que permite al usuario realizar modificaciones en la aplicación.
  • Integración de JavaScript y jQuery para agregar contenidos extra e interacciones diversas.
  • Integración de HTML y CSS que ayudan a un mejor diseño de la app.
  • Flexibilidad a la hora de realizar análisis y gráficos avanzados a partir de fuentes externas de datos. También es posible añadir a la interfaz widgets para la descarga de los ficheros resultantes de dichos análisis.

 

¡Anímate!

Untagged 2016

18/11/2016 a las 13:07

La semana pasada,  tuve la oportunidad de asistir al evento untagged IO en Madrid, una oportunidad que realmente había que aprovechar por los ponentes que asistían

Lo primero, agradecer y felicitar a los organizadores, eventos como este en España hay pocos desgraciadamente.

Sobre el evento en sí, hubo varias charlas más o menos técnicas en las que se hablo de lo siguiente:

Brian Clifton

Una de las mejores charlas del día, al menos desde mi punto de vista. Se basó sobre todo en la importancia de los datos a la hora de tomar decisiones y en la explicación del proceso de auditado que él usa para comprobar si implementación es correcta.

También tuvo el detalle de regalar una copia de su último libro 

Brian Clifton explicando el proceso de auditar un sitio

 

Kristoffer Ewald

Ponente inesperado debido a que Craig Sullivan no pudo venir al evento. De la empresa Netbooster nos habló de cómo ir más allá de las métricas y KPIs clásicos para medir el rendimiento de campañas de marketing hablando de indicadores como:

  • Annual Opportunity
  • Predicted future total value
  • User Velocity
  • Core consumer fit score
  • Loyalty propensity

Simo Ahava

Poco hay que decir sobre Simo. Como alguien lo definió es el hombre que más ha hecho por difundir el Google Tag manager, incluso más que Google. Su blog es la biblia de uso del GTM.

En su charla habló de técnicas y trucos para la recogida de datos. Recoger en blogs la longitud del post o número de imágenes en el mismo, el uso de content grouping para medir el rendimiento de un autor o si los post de mayor longitud funcionan mejor que los de menor longitud etc.

También puso un ejemplo de cómo adaptar un enhanced ecommerce a un sitio no ecommerce como un blog y la utilidad de los informes que se generan.

Para mi, la mejor charla de la jornada.

 

Simo explicando algunos trucos para recoger información de la página

Ani Lopez

En su charla habló sobre los pasos que deben realizarse para explotar datos de Big Query (o un Big Data en general), desde cómo almacenarlos a cómo procesarlos, almacenar el resultado del procesamiento en tablas intermedias y finalmente mostrarlo a través de herramientas de visualización.

De su charla me gustó el detalle final de que nos tenemos que educar no solo en el procesamiento de los datos sino en cómo mostrarlos de manera estética, evitando cuadros de mando que contienen muchos datos pero apenas resultan útiles.

 

Virginia Relea y Nicolás Lozano

Nos explicaron la potencia de los DMPs a la hora de personalizar y automatizar la experiencia tanto de uso como de generación  acciones comerciales para un usuario.

Enseñaron una demo bastante interesante en la que en base al comportamiento de un usuario en un sitio, se adaptaba tanto el contenido como los mailings hacia el usuario con el objetivo de maximizar la experiencia de uso del usuario en el sitio y el rendimiento de las campañas de marketing.

Yehoshua Coren

Fue la charla más divertida de la jornada, un auténtico showman. Habló sobre cómo sacar el máximo partido a las herramientas de analítica web, el uso de una estrategia a la hora de plantear una implementación y la necesidad de adaptar el analytics (o cualquier otra herramienta) a los objetivos y métricas que el cliente entienda para realmente explotar la misma.

Marie Loridan

En esta charla se habló sobre la plataforma para la construcción de apps Firebase y el módulo de analytis que viene incorporado y que actualmente se puede usar de manera independiente para la medición del rendimiento de apps.

Dado que no estoy muy puesto en la creación de apps, fue la más “dura” a la hora de seguirla. La parte del Firebase Analytics muy interesante y con ganas de probarla.

 

Y esta fue la última charla a la que pude asistir ya que me tuve que ir a coger el AVE, espero que sigan montando más eventos como este, ayudan mucho a abrir la mente a nuevas  formas de trabajar y plantear proyectos.

Conectando BigQuery y R Statistics

16/11/2016 a las 17:01

En anteriores posts hemos comentado el potencial de la herramienta de análisis estadístico R (véase Cómo empezar a usar R Statistics, Visualización de datos de Google Analytics con R o Una conexión de titanes: Google Analytics y R Statistics).

Hoy retomaremos el tema de las conexiones, en concreto con BigQuery, un almacén de datos que la plataforma Google Cloud pone a nuestra disposición para realizar consultas SQL de manera rápida, eficaz y con un coste reducido.

Los clientes de Google Analytics 360 (antes Premium) pueden acceder a sus datos crudos, asociando una vista de Google Analytics a un proyecto de BigQuery.

Actualmente BigQuery usa por defecto su lenguaje propio, Legacy SQL, aunque con el lanzamiento de BigQuery 2.0 se recomienda la migración a Standard SQL.

Podemos ver más en detalle cómo plantear una consulta en BigQuery.

A continuación se detallan los pasos a seguir para realizar una consulta en BigQuery desde R:

 
1. Accediendo a BigQuery.

Para acceder a la interfaz de BigQuery, iniciamos sesión con nuestra cuenta Google.

En este caso práctico queremos establecer una conexión desde R con el dataset ‘LondonCycleHelmet’, perteneciente al proyecto ‘google.com:analytics-bigquery’. En él encontramos la tabla ‘ga_sessions_20130910’, con los datos de navegación de una web ficticia en dicha fecha.

Al no tener permisos de edición en este proyecto, haremos una copia de dicha tabla para almacenarla en ‘My Project’, sobre el que sí tenemos permisos. En él creamos un nuevo dataset llamado ‘bigrquery’, del que colgará la tabla ‘ga_sessions_20130910_copy’.

0_r-bq

La notación para hacer referencia a una tabla es la que sigue:

proyecto:dataset.tabla
1_r-bq

Para saber el nombre del proyecto pasaremos el cursor sobre ‘My Project’:

2_r-bq
 
2. Iniciando R.

Iniciamos sesión en R y ejecutamos el siguiente código, asignando los valores que corresponda:

3_r-bq
 
3. En la consola de R nos aparecerá el siguiente mensaje:
4_r-bq

Al seleccionar la opción 1 y permitir el acceso a la actual cuenta de Google, se creará un archivo ‘.httr-oauth’ en el directorio de trabajo de R, en el que se almacenan las credenciales entre sesiones de R.

 
4. Con el paso anterior se realiza la conexión entre R y BigQuery, almacenando el resultado de la consulta en el data.frame ‘datos’:
5_r-bq
 

En este ejemplo nuestra consulta es simple y calcula valores agregados. El verdadero potencial de esta conexión reside en importar los datos de navegación y luego trabajar con ellos en R.

Keep trying and enjoy R!!!

Se advierte al usuario del uso de cookies propias y de terceros de personalización y de análisis al navegar por esta página web para mejorar nuestros servicios y recopilar información estrictamente estadística de la navegación en nuestro sitio web. Política de cookies Acepto