Analytics Premium ComScore ClickTale Analytics Certified Partner Klipfolio Coremetrics
Tags populares:

Travel & Hospitality – The industry landscape 2017

21/03/2017 a las 19:03

This post is about the use and importance of analytical strategies in the travel and hospitality domain for the year 2017.


Travel & Tourism generated US$7.2 trillion (9.8% of global GDP) and 284 million jobs (1 in 11 jobs) to the global economy in 2015. Its growth of 3.1% was faster than the wider economy. Despite challenges, sector is forecast to continue outperforming global GDP growth in 2016.

Reference –

The travel and hospitality industry includes a broad range of companies:, airlines, cruise lines, buses and railroads, tour operators, travel consolidators, car rental services, hotels, resorts, lodging, restaurants and other real-estate intensive consumer businesses.

And it all revolves around the traveller… The latest is that the traveller got married… But to his device…

The device is the focus of the future, it knows where you are, what you redeem and will likely consolidate all your information specially in travel. Brands are already focusing on how devices are mediating there relationships with customers.

For brands in the Travel & Hospitality sector, understanding what drives travellers to choose one airline, hostel, amusement park or camel trekking tour over another is crucial for business. While reputation has always played an important role in influencing travelers’ decisions, social media now allows for more opportunities than ever for consumers to praise, complain, rant, discuss and connect with travel and hospitality brands.

This relatively recent development presents both a unique challenge and an extraordinary opportunity. An opportunity that many brands are not fully capitalizing on. We travel to connect, detach, explore and experience the world outside our homes. Some of us travel for business while others travel to discover themselves.

In the travel and hospitality industry, it is always insightful to take a closer look at how airlines and hotels embrace new technologies and upcoming challenges.

The digital Touchpoints have increased!

In 2002, the user would just go to the agent and get all his transactions done. By 2012 with the abundance of multiple information channels, the traveller has many avenues to interact with your business. The latest trend is to provide a cohesive experience to the user despite them interacting through multiple channels… this is an Omnichannel view of a user journey.

To view a single travellers cycle in general terms. He begins with an inspiration to travel, followed by making arrangements, bookings, pre trip preparations and making the journey. On the journey he makes actual use of the bookings and preparation and then gets back to his regular life after which he might give away reviews, recommendations and feedback. In all this process the user interacts with the travel business at multiple points.

If we map the consumer needs vs provider services, each cross-section is a touchpoint and a possible data gathering opportunity. For example: The inspiration to travel could come from a web campaign or a newsletter or an offer. There is a HUGE possibility to engage with the consumer and map their interactions and save their interests.

The questions you might ask is, are the consumers even open to be ‘TOUCHED’?

The answer comes out to be around 80% yes

Based on a survey on frequent and non frequent travellers, it comes out to be that around 20% are only ‘never interested’ in an offer or service notifications. Others are open to the contact based on their travel preference and timing.

Even more so, 72% of travellers are open to influence prior to making a travel decision. Say you are making a booking from Barcelona to Frankfurt and if we show you a better deal on another airline or site. The consumer is likely to shift their decision.

Also targeted email, is also seen to influence travel planners to begin their online booking journey.

So now we ask, WHEN? What is the best time to connect?

The travellers tell us that they use upto 6 months for advance preparations

And 4-6 months is a long time…  This is where analytics comes into play. We need to Monitor Every Customer Interaction, Detect In-Market Shoppers, track digital Signals and be relevant and in context in order to Deliver the right message to the right customer at the right time. We also need to predict these behaviours to be in time for the approach. So we need to anticipate Service Needs, Understand Interests & Preferences of the user, and keep a measure of Loyalty.

So now we talk about some strategies and how we can be in sync with the user needs.

1. Analytics – The likelihood a traveller will spend more depends on their position in the purchase funnel and other variables. Look for opportunities to display specific offers at specific times to specific visitors based on their trip, preferred mode of transportation, and device.

2. Contextual Upsell and Cross sell – Throughout the purchase funnel, create innovative ways to get visitors engage with ancillary offers. For instance, displaying upgrade options while travelers are choosing their seats during booking can be an effective way to expose relevant visitors to the offer and drive additional revenues.

3. Understanding and mapping complete user journey

  • Identify the channels your user use to find you.
  • Synchronize user experience across devices.
  • Take a complete view of your user journey online and offline.


Talk, as delivered at an event in Barcelona, Spain. Content prepared by Shivam (Omnichannel Consultant and Stratgist)

Video Analytics

17/03/2017 a las 13:18

Video Analytics es el término usado para referirnos al procesamiento y análisis de video en tiempo real. Es importante remarcar que las grabaciones no se guardan, se procesan en tiempo real y se guarda únicamente las métricas.

Cada vez más industrias están interesada en implantar estas tecnologías y en particular el sector de Retailing. Su finalidad es conocer mejor a sus consumidores con tal de mejorar el rendimiento de las ventas y aumentar la fidelidad de sus clientes.

En este post espero poder dar un overview de las aplicaciones de Video Analytics que nosotros más conocemos:

Medidor de audiencia:

Con la tecnología Video Analytics, situando una cámara en un escaparate o en un panel de anuncios, podremos detectar el género y el sexo de la audiencia a través de detección facial. Además, podremos saber cuanto tiempo el cliente o posible cliente está mirando directamente el escaparate/anuncio y así conocer el nivel de interés que muestra. También podemos tener el total de vistas, el total de vistas directas, y el total de posibles vistas.

Hay algunas tecnologías que hasta dan los sentimientos de la audiencia! 🙂 😀 🙁 😐

El Medidor de audiencia se puede complementar con una pantalla de contenido interactivo (Digital Signage) y personalizar el contenido que se muestra. Por ejemplo,  según el sexo y rango de edad de la persona que se detecta. También se podría mostrar un contenido más llamativo si se quiere llamar más la atención de la audiencia en ese momento.

Contador de personas:

Con la tecnología de Video Analytics, también existe la opción de contar personas que pasan por delante del anuncio/escaparate para poder conocer el numero de clientes potenciales que tiene tu comercio.

Además, también es posible contar la gente que entra y sale de algún sitio. Posicionando una cámara cenital en el techo del establecimiento y creando una puerta virtual (dibujar una franja en el campo de visión de la cámara) , somos capaces de contar cuanta gente cruza esta puerta en un sentido y en otro. De esta manera, contaremos cuanta gente entra y sale del establecimiento.


En próximos post hablaré de otras funcionalidades que todavía no estamos exprimiendo, pero ya tenemos ganas! Mi idea es también presentar casos de uso reales donde se ha instalado esta tecnología.



Google Analytics: ¿Usas el informe “Explorador de Usuarios”?

08/03/2017 a las 10:57

En la primavera del año pasado, se incorporaba a Google Analytics un nuevo informe, el “Explorador de Usuarios”.

Además de ser muy vistoso, seguía a pies juntillas esa nueva filosofía de poner al usuario en el centro. Pero, pasado el tiempo, ¿le estamos sacando partido realmente los analistas? En caso afirmativo, ¿qué usos le damos? Antes de responder, presentemos el informe a los que todavía no lo conozcan. Si no es el caso, puedes ir directamente a sus posibles usos.

El informe “Explorador de Usuarios”

Lo encontramos en el apartado “Audiencia”.

El informe "Explorador de Usuarios"

El informe, en todo su esplendor (aunque lo mejor está escondido, a un click de distancia)


Tengamos en cuenta que nos vamos a encontrar con una lista de todos los usuarios que accedieron a nuestra web o a nuestra app en el periodo analizado, por lo que, para no perdernos, es imprescindible enfocar nuestra exploración de los datos usando segmentos avanzados. El comportamiento de ésto, si seleccionamos más de uno, es algo distinto que en otros informes. No vemos una comparativa, si no que podemos hacer click en uno u otro segmento y los datos mostrados en la tabla cambian.

El informe "Explorador de Usuarios"

Este es un informe en el que es vital segmentar


En cuanto a los datos mostrados, se trata de una serie de métricas de usuario desglosadas por ID de cliente:

  • Sesiones realizadas por cada usuario en el periodo analizado
  • Duración media de esas sesiones
  • Porcentaje de rebote en ellas
  • Ingresos totales de las posibles compras realizadas por el usuario en una o más de esas sesiones
  • Transacciones (si las hay) realizadas en el periodo por el usuario
  • Porcentaje de conversión de los objetivos definidos para la vista

El informe "Explorador de Usuarios"

El informe nos da una serie de métricas para usuarios concretos


Es importante recordar que lo que aquí vemos como usuarios, si hablamos de una web, son navegadores. Es decir, dos personas que compartan dispositivo y navegador serán contadas como un sólo usuario. Y una misma persona que haya accedido desde varios dispositivos y/o navegadores, o borrado cookies, figurará como distintos usuarios.

Pero si en nuestra web los usuarios se registran y recogemos su identificador de usuario, podemos unificar esa actividad en distintos navegadores o dispositivos y tener una visión más precisa.

Haciendo click en un id de cliente, accedemos a su actividad.

El informe "Explorador de Usuarios"

La actividad de un usuario concreto en el periodo analizado


A la izquierda tenemos, entre otras cosas, la fecha de su primera visita a la web (o sesión en la app). No es la primera sesión en el periodo analizado, sino la primera de todas. En este caso, coincide que es un usuario nuevo, pero esa fecha podría ser anterior al 28 de febrero.

También tenemos el canal por el que entró y el dispositivo o dispositivos que ha usado para visitarnos (sólo veremos más de un tipo si usamos el User Id en lugar de el id de cliente de la cookie, como decíamos anteriormente).

A la derecha tenemos un resumen de la actividad. En la captura de pantalla de más arriba, vemos que ese usuario realizó 7 sesiones en tres días. El 4 de marzo realizó solo una, pero en ella se cumplió un objetivo y se realizó una compra, como se puede ver por los iconos (la bandera y el símbolo del dólar).

Si pinchamos en uno de los días, vemos la lista de sesiones. Y si pinchamos en una sesión concreta, se listan las acciones que la componen: páginas vistas, eventos, objetivos cumplidos y acciones de comercio electrónico. Podemos filtrar para ver sólo parte de ellas.

El informe "Explorador de Usuarios"

Acciones que componen una sesión


Si a la vista de las acciones de un usuario encontramos pautas que nos interesan analizar en este u otros informes, podemos crear un segmento avanzado nuevo directamente desde aquí, de una manera muy sencilla, marcando una o más acciones y pulsando en el botón “Crear segmento”:

El informe "Explorador de Usuarios"

Creación de segmentos desde este informe

Utilidad de este informe

Si entendemos que la analítica digital no trata sobre estudiar usuarios concretos, sino grupos más o menos grandes de ellos, con algo en común, ¿qué podemos hacer con este informe?

Desde luego, sacar la lista completa de usuarios de la típica web de contenidos o comercio electrónico con un tráfico considerable y recorrerlos uno a uno, no.

Nosotros le vemos varios usos fundamentales:

  • Depuración de implementaciones y buscar “casos paranormales” o comportamientos muy concretos que delaten algún tipo de error en la web/app o en su usabilidad.

Las pruebas iniciales de una implementación se suelen apoyar en herramientas tipo proxy, complementos del navegador, etc. Pero una vez validada, si sospechamos de alguna anomalía o buscamos acciones o secuencias de acciones particulares que queramos estudiar en detalle para entender qué ha pasado, éste es nuestro informe. En ningún otro nos va a ser tan fácil aislar usuarios y sesiones concretas. Siempre, eso sí, apoyándonos en los segmentos avanzados (que podemos afinar creando segmentos nuevos desde el propio informe).

  • Si nuestra implementación es bastante detallada y recogemos todas las interacciones relevantes como eventos, este informe podría llegar a reemplazar en gran medida a costosas aplicaciones que se utilizan para grabar sesiones y estudiarlas a posteriori para entender el comportamiento de los visitantes y buscar posibles puntos de mejora.
  • Entender mejor las consultas o quejas de un cliente identificado en nuestro CRM.

Si usamos el registro de usuario y nos guardamos en Google Analytics el id que proporcionamos desde nuestro CRM, desde atención al cliente podríamos, dada la consulta o reclamación de un usuario, ver qué productos vio y qué dificultades pudo experimentar a la hora de interactuar con nuestra tienda, por ejemplo, lo cual ayudaría a darle un mejor soporte.

  • Monitorización del uso de Apps internas de una compañía o intranets por parte de empleados concretos.

En estos casos, además de tener claramente identificados a los usuarios, el número de éstos es limitado, por lo que este informe sería una gran herramienta de control del uso que se realiza de dicha app o intranet. Un recordatorio para este punto y el anterior, por si acaso: no podemos recoger datos personales  o que permitan identificar directamente a nuestros usuarios en Google Analytics. Ese tipo de datos se quedarían en los sistemas de la empresa y el ID de usuario que relaciona ambas fuentes de datos sería lo que se guardaría en Google Analytics.

¿Y vosotros? ¿Encontráis este informe tan interesante como nosotros? ¿Le dáis algún otro tipo de uso?



Facebook y R Statistics para el Social Mining

01/03/2017 a las 14:25

En el presente post de Marzo hablaremos acerca de la API de Facebook y cómo hacer con R la extracción y minería de los datos, todo ello atacando directamente a la API. Para lograr lo anterior, la comunidad de programadores de R ha desarrollado un package muy eficiente.

¿Qué es Graph API explorer?

Se trata de la aplicación principal que pone Facebook a disposición del usuario para introducir y extraer datos de la plataforma. La API Graph se basa en HTTP, por lo que es compatible con cualquier lenguaje de programación que tenga una biblioteca HTTP, como la librería Curl de R.

Mediante grafos podemos cuantificar el grado de conexión (e incluso actividad social) entre todos los usuarios de Facebook, de ahí que se bautice a la app como Graph API.

Para acceder a la herramienta, nos damos de alta en la página de Desarrolladores de Facebook y seleccionamos Herramientas.

Interfaz de Graph API Explorer


Hacemos clic en Obtener identificador de acceso y a continuación seleccionamos los campos que solicitaremos. Estos se distribuyen a nivel de usuario, eventos, grupos o páginas.



Evidentemente, sólo tendremos acceso a los datos públicos de los distintos perfiles. Para acceder a datos privados, el procedimiento es muy simple:

  1. El usuario en cuestión tendría que crear un nuevo proyecto.
  2. Configurar los permisos y agregar al analista ninja.
  3. Explotación de datos.

Desde la propia herramienta podemos realizar consultas simples como la siguiente. Para más información sobre la sintaxis de la API Graph, consulta el siguiente enlace.

Consulta a la página de Metriplica: Categoría de la empresa y posts publicados.


Si además estás interesado, entre otras cosas, en conocer las franjas horarias en las que el alcance de tus publicaciones es mayor, o para predecir el valor que te van a generar ciertas campañas sociales, seguramente necesites una herramienta lo suficientemente potente que te ayude a generar más valor en los datos. Y para hacer el Social Mining nuestro candidato número 1 es R Statistics.

¿Cómo hacer el token entre R y la API de Facebook?

Mediante las siguientes líneas de código (no olvidar instalar los paquetes previamente con el comando install.packages(“nombre paquete”) ) accedemos a los datos de la herramienta API Graph, utilizando el identificador de acceso que ofrece la herramienta:






access_token = "<Identicador_acceso_APIGraph>"

options(RCurlOptions=list(verbose=FALSE, capath = system.file("CurlSSL", "cacert.pem",package="RCurl"),ssl.verifypeer=FALSE))

¿Necesitas información sobre algún perfil público o fanpage?

metri_info = getUsers("metriplica",token=access_token,private_info = TRUE)





¿Estadísticas básicas a nivel de post?

getPage("metriplica", access_token, n = 100)

Consulta desde R a la API de Facebook


¿Influye la hora de publicación del post en la generación de likes?

Un posible punto de partida, sería agregar los likes generados por cada post por cada hora de publicación.

¿Influye la hora de publicación de los posts en la captación de Likes?


¡Así de simple! Únicamente adaptando este código y vuestras claves de acceso a la herramienta, ya podréis ir jugando con los datos.

De cara a próximos posts, os explicaremos cómo hacer el token con el resto de redes sociales. ¡Esperemos que os sea útil!

Metriplica en el BGSMath Data Science Workshop

28/02/2017 a las 16:06

La semana pasada el equipo de I+D de Metriplica asistimos al 1st Data Science Workshop de Barcelona ofrecido por la Barcelona Graduate School of Mathematics (BGSMath).

Ya desde el inicio de la jornada se discutió cual es realmente la definición de Data Scientist. Francesc Subirada, Director General de Investigación de la Generalitat de Catalunya, nos dejó la siguiente frase: “Data Science es como el sexo en los adolescentes: Todo el mundo habla de ello, pero nadie sabe en realidad qué es”.

Después de la charla de presentación empezamos con la ponencia de Jordi Vitrià, director del grupo de Investigación DataScience de la Universitat de Barcelona. Este grupo de investigación está altamente definido por su transversalidad, así como interdisciplinaridad, estando formado por matemáticos, físicos e informáticos. Uno de sus objetivos es conectar sus investigaciones con empresas privadas por tal de solucionar problemas reales, así como seguir investigando en el terreno, por ejemplo, del reconocimiento de imágenes.

Seguidamente habló Ricard Gavaldà, investigador del grupo Laboratory for Relational Algorithmics, Complexity and Learning (LARCA). En su ponencia se discutió las dificultades que un investigador se encuentra en el estudio de datos en tiempo real (data streaming mining). El grupo de investigación está actualmente involucrado en análisis de redes sociales, así como en proyectos de medicina personalizada.

Joan del Castillo, del Servei d’Estadística de la Universitat Autònoma de Barcelona nos instruyó en el conocimiento del marco teórico y práctico de la Teoría de Valores Extremos. Aunque altamente enfocado en el estudio de fenómenos extremos en los mercados financieros, también nos explicó como esta teoría podía ser utilizada para predecir crecidas de cabales en ríos o crecidas del nivel del mar.

Antes del descanso del mediodía, fue el turno de Joan Bruna del grupo Math and Data (MAD) del Courant Institute (New York University). Su ponencia fue claramente enfocada a la explicación de las investigaciones del grupo MAD en el terreno del reconocimiento y reconstrucción de imágenes. En su presentación discutió cómo el marco teórico de la Física Estadística tiene un papel importante en el terreno del desarrollo de técnicas de Data Science. Finalmente hizo hincapié en la colaboración que tuvieron con el grupo ATLAS del CERN cuyo objetivo fue predecir la energía liberada en las colisiones de partículas.

Después de comer las ponencias se reanudaron con Daniel Villatoro, Data Scientist en Vodafone. El título de su ponencia ya dejaba entrever el hilo de su charla: “How to do evil with data?”. En ella nos explicó cómo un Data Scientist debe ser crítico y prudente en cómo muestra los datos y cómo decide mostrarlos, ya que si no, se puede caer en errores de interpretación y hasta de manipulación. Finalmente apostó por obtener perfiles de Data Scientists críticos y pedagógicos.

Esta ponencia la siguió la de Paolo di Tomasso, del Centre de Regulació Genòmica (CRG). Esgrimió argumentos a favor de la reproducibilidad de los procesos y su escalabilidad. Como sabemos, estos conceptos deben estar siempre en la mente de cualquier Data Scientist, para que el trabajo realizado una vez no sea farragoso de volver a procesar o repetir en nuevos datos que vengan.

El escogido para concluir las ponencias fue David Torrents del Centro Nacional de Computación e ICREA. Expuso el estado de las investigaciones en medicina personalizada a partir de la secuencia del genoma del paciente. Explicó que actualmente las investigaciones se están poniendo las pilas en enfocar el problema de las mutaciones como procesos complejos i entrelazados, es decir dentro del marco de las redes complejas. En otras palabras, las enfermedades no vienen descritas por una mutación puntual del genoma si no en varios puntos de éste. Es por eso que nos introdujo el concepto de enfermedad compleja o complex desease.

A modo de conclusión se organizó una mesa redonda con José Antonio Rodríguez Serrano que es Data Scientist en BBVA, Pau Agulló que es CEO de la consultoría analítica de Kernel Analytics, Marc Torrent que es el representante de Eurecat y Àngel Faus como CTO de vLex. Los temas que trataron fueron, por un lado, como Barcelona se está transformando en una cuna para perfiles de este tipo, con mucha oferta educativa del ámbito (grados, masters, postgrados, cursos y summers schools), muchos eventos de divulgación y las cada vez más empresas que están poniendo aquí sedes.

Todos estaban de acuerdo en que este perfil debe tener conocimientos de Matemáticas, Programación y de Negocio. Tanto la Universitat de Barcelona, Universitat Autònoma de Catalunya y la Universitat Politècnica de Catalunya ofrecen dobles-grados universitarios, en los cuales se forma a los estudiantes en dos disciplinas distintas pero siempre relacionadas, como Matemáticas-Física, Matemáticas-Informática, …. Se destacó que la UB ya ofrece un doble grado de ADE-Matemáticas, el cual es una iniciativa a la aclamada diversificación de las matemáticas en distintos ámbitos, no necesariamente técnicos.

En esta primera edición no hubo ninguna ponencia sobre Márqueting Digital, ya fuese on-line u off-line. ¡Así que, hay un hueco para nosotros! ¡A ver si nos animamos y para la próxima presentamos nuestro trabajo! 😉

Importando datos en Python (I)

23/02/2017 a las 08:00

En posts anteriores pasamos de una introducción a Python a la visualización de datos en este lenguaje.

Gran parte del potencial de Python reside en su capacidad en las fases previas al análisis de datos, es decir, lectura del raw data y depuración del mismo.

En esta serie nos centraremos en la lectura de datos en diversos formatos (ficheros planos, otras extensiones y bases de datos relacionales).


Ficheros planos

Son ficheros de texto que almacenan registros (filas de características o atributos).

En la primera fila podemos encontrar una cabecera con el nombre de cada una de las características o atributos.

Existen dos extensiones: .csv (valores separados por comas) y .txt (los valores pueden estar separados por coma, espacio, tabulador…).

Hagamos un breve recordatorio sobre el uso de librerías en Python. Para usar una función de una librería específica, previamente hemos de cargar la librería mediante import. Para hacer la llamada a dicha función usaremos nombre_librería.nombre_función() o bien alias_librería.nombre_función().

Otro aspecto a tener en cuenta es que los archivos a importar han de estar en el directorio de trabajo actual. Si no recordamos su ubicación, podemos comprobarlo:

En Python hay dos librerías con las que importar ficheros planos: NumPy y pandas.


1. NumPy

Los datos importados se almacenan en una matriz.

  • Mismo tipo de datos.

La función loadtxt() de NumPy carga el archivo en una matriz.

El delimitador por defecto es espacio en blanco, si es otro habrá que pasarlo como segundo argumento delimiter (‘,’ en el caso de coma, ‘\t’ si es tabulador…).

Si el archivo tiene cabecera podemos saltar las filas correspondientes con skiprows (pasar el valor 0 es equivalente a omitir este argumento, devolviendo todas las filas).

Para fijar las columnas pasamos el argumento usecols=[…] con sus índices, recordando que a la primera columna corresponde el índice 0.

Si nuestro archivo contiene valores no numéricos le indicamos que los guarde como cadena, añadiendo a la función loadtxt().astype(str)

  • Diferente tipo de datos.

Si en nuestro archivo tenemos datos de diferentes tipos, podemos usar dos funciones: genfromtext() y recfromcsv().


Cuando exista cabecera, especificaremos names=True.

Al pasar el argumento dtype=None, la función averigua qué tipo corresponde a cada columna.

En la salida podemos observar que las variables tipo cadena están precedidas por una ‘b’. Este carácter sólo indica que la cadena es de tipo ‘bytestring’, el valor almacenado es la cadena entre comillas simples.

Al contener datos de diferente tipo, el archivo importado será un objeto llamado matriz estructurada. Como las matrices NumPy han de contener elementos del mismo tipo, la matriz estructurada es unidimensional, donde cada uno de sus elementos corresponde a una fila del fichero plano importado.

El acceso a una matriz estructurada es muy intuitivo. Así:

• Filas (por índice): data[i] > fila i-ésima

• Columnas (por nombre): data[‘Nombre_columna’]


Análoga a la anterior, excepto que su valor por defecto para dtype es ‘None’.

Probemos a obtener el mismo resultado que en la ejecución anterior, pero limitando la impresión de datos a las 3 primeras filas.


2. pandas

Los datos importados se almacenan en un dataframe.

La librería pandas hace posible llevar a cabo todo el proceso (lectura de datos, depuración, análisis y modelización) sin necesidad de cambiar a un lenguaje más específico como R (idea difícil de encajar para un R lover ).

Encontramos aquí el concepto dataframe, análogo al de R, que no es más que un conjunto de observaciones y variables.

La función read_csv() lee un fichero plano y lo almacena en un dataframe.

El argumento nrows limita el número de filas a importar.

En caso de no tener cabecera, pasamos el argumento header=None.

Limitamos la visualización de datos con la función nombre_dataframe.head().

Vemos que los valores perdidos se han recodificado como NaN.

La función read_csv() puede tomar otros argumentos como:

sep: indica el tipo de separador.

comment: especifica el carácter que precede a un comentario.

na_values: pasa una lista de cadenas que queremos identificar como valores perdidos.


Nota: los ficheros que se han usado como muestra proceden de diferentes bancos de datos de acceso libre.

• demo.txt: ticdata2000.txt

• demo2.txt: Waterbase_Emissions_v1_codelist_HazardSubDeterminands.txt

• demo.csv:


Ya podemos empezar a importar nuestros ficheros planos en Python

Cuidado si usas entornos y workspace en GTM

20/02/2017 a las 12:04

De todos es sabido que cuando se trata de un gestor de etiquetas hay que andarse con mucho cuidado para no acabar liándola. Si a eso le sumas que, en la mayoría de los casos, son más de una las personas responsables de estos cambios el lío que se puede formar, sin una buena organización, está más que asegurado.


Por eso se crearon los espacios de trabajo o workspace de GTM, para que el trabajo en paralelo en un mismo contenedor no fuera tan peligroso. Por defecto GTM viene con un único workspace.

Google Data Studio: adiós al límite de 5 informes

02/02/2017 a las 19:32

A partir de hoy, la versión gratuita de Data Studio, la solución de Google para la creación de cuadros de mando e informes que os presentamos en su día,  ya no nos va a limitar a 5 informes o reports por cuenta.

Y como esa era la única diferencia entre esta versión y la de pago (Data Studio 360), Google dejará de cobrar por la segunda durante el resto de 2017 a los clientes que la tuvieran contratada.

Data Studio: ejemplo de cuadro de mando (Fuente: Google)

Un ejemplo de cuadro de mando realizado con Data Studio (Fuente: Google)


Entendemos la decisión de Google porque conocemos bien la herramenta. Estamos certificados, trabajamos con ella y seguimos de cerca los avances y novedades que se van incorporando. Es sólida y su amigable interfaz permite crear cuadros de mando muy completos en poco tiempo. Pero es una beta y se nota: se echan de menos conectores con más fuentes de datos dsitintas, por ejemplo. Y también había algunas carencias de partida difíciles de explicar, como la ausencia de semanas ISO en los selectores de periodo. Esta en concreto, fue subsanada hace unos días y ya es posible, al fin, seleccionar semanas comenzando por el lunes.

data studio beta logo

Google está mejorando Data Studio rápidamente y teniendo en cuenta las sugerencias de los usuarios. La propia herramienta nos enlaza con el foro oficial desde la ayuda, animándonos a participar. A mejoras como las nuevas opciones en los selectores de fechas, se van a ir uniendo otras muy demandadas como los segmentos avanzados en el conector con Google Analytics.  Cuando la palabra “beta” desaparezca de su nombre, si el ritmo de mejora no decae, podemos llegar a tener una herramienta bastante completa y potente.

Para terminar, es importante remarcar que está previsto que algunas de las características que están por llegar no estén pensadas para ofrecerse en una herramienta gratuita, lo que justificará volver a comercializar una versión 360 de pago en un futuro.

Podéis leer el comunicado oficial de Google aquí.

Y si no conocéis todavía Data Studio, un buen comienzo puede ser este video:

Alternative analytics tracking for IFrames

23/01/2017 a las 17:06

Be it for basic form submission, third party content, or even behind-the-scenes logging, IFrames often play important roles in online user behavior. An IFrame (Inline Frame) is an HTML document embedded inside another HTML document on a website, but despite IFrames grant us a lot of flexibility in our sites. They make our analytic tracking code quite harder to implement. Some examples would be cross-domain problems or third party IFrames in which we cannot insert our analytics code. In this post we are going to explain how to treat most of the common issues that IFrames provoques.

IFrames schema


The main idea for this implementation, is that the parent page will always send the hits to analytics. Even the interactions that are coming from the IFrame

Power BI como herramienta de Analítica Web

17/01/2017 a las 10:01

Cada día se generan toneladas y toneladas de datos en el mundo empresarial ya sea en un entorno online como en un entorno off-line y cada vez son más el número de herramientas o software que utilizamos. Surge la necesidad de tener todos esos datos en un mismo lugar.

En el análisis de los datos debemos crear un plan de proyecto de análisis, mejorar los problemas de calidad de los datos y trabajar con un equipo multifuncional (consultor analítico, Técnico IT, desarrollo BI). En definitiva, debemos transformar estos datos en valor para la empresa.

Microsoft Power BI tiene 4 productos:

  • Power BI Desktop. Es la instalación en local, su uso es el entorno de trabajo donde posteriormente publicaremos en Power BI (online)
  • Power BI Online, es el entorno donde se comparte y publican los paneles y los informes.
  • Power BI Mobile para acceder en cualquier lugar y en cualquier momento
  • Power BI Embedded. Si tienes una aplicación o intranet y quieres integrarla con Power BI lo puedes hacer mediante la API de Power BI. Ver ejemplo de Power BI Embedded

Se advierte al usuario del uso de cookies propias y de terceros de personalización y de análisis al navegar por esta página web para mejorar nuestros servicios y recopilar información estrictamente estadística de la navegación en nuestro sitio web. Política de cookies Acepto