Analytics Premium ComScore ClickTale Analytics Certified Partner Klipfolio Coremetrics

Google Data Studio: adiós al límite de 5 informes

02/02/2017 a las 19:32

A partir de hoy, la versión gratuita de Data Studio, la solución de Google para la creación de cuadros de mando e informes que os presentamos en su día,  ya no nos va a limitar a 5 informes o reports por cuenta.

Y como esa era la única diferencia entre esta versión y la de pago (Data Studio 360), Google dejará de cobrar por la segunda durante el resto de 2017 a los clientes que la tuvieran contratada.

Data Studio: ejemplo de cuadro de mando (Fuente: Google)

Un ejemplo de cuadro de mando realizado con Data Studio (Fuente: Google)

 

Entendemos la decisión de Google porque conocemos bien la herramenta. Estamos certificados, trabajamos con ella y seguimos de cerca los avances y novedades que se van incorporando. Es sólida y su amigable interfaz permite crear cuadros de mando muy completos en poco tiempo. Pero es una beta y se nota: se echan de menos conectores con más fuentes de datos dsitintas, por ejemplo. Y también había algunas carencias de partida difíciles de explicar, como la ausencia de semanas ISO en los selectores de periodo. Esta en concreto, fue subsanada hace unos días y ya es posible, al fin, seleccionar semanas comenzando por el lunes.

data studio beta logo

Google está mejorando Data Studio rápidamente y teniendo en cuenta las sugerencias de los usuarios. La propia herramienta nos enlaza con el foro oficial desde la ayuda, animándonos a participar. A mejoras como las nuevas opciones en los selectores de fechas, se van a ir uniendo otras muy demandadas como los segmentos avanzados en el conector con Google Analytics.  Cuando la palabra “beta” desaparezca de su nombre, si el ritmo de mejora no decae, podemos llegar a tener una herramienta bastante completa y potente.

Para terminar, es importante remarcar que está previsto que algunas de las características que están por llegar no estén pensadas para ofrecerse en una herramienta gratuita, lo que justificará volver a comercializar una versión 360 de pago en un futuro.

Podéis leer el comunicado oficial de Google aquí.

Y si no conocéis todavía Data Studio, un buen comienzo puede ser este video:

Alternative analytics tracking for IFrames

23/01/2017 a las 17:06

Be it for basic form submission, third party content, or even behind-the-scenes logging, IFrames often play important roles in online user behavior. An IFrame (Inline Frame) is an HTML document embedded inside another HTML document on a website, but despite IFrames grant us a lot of flexibility in our sites. They make our analytic tracking code quite harder to implement. Some examples would be cross-domain problems or third party IFrames in which we cannot insert our analytics code. In this post we are going to explain how to treat most of the common issues that IFrames provoques.

IFrames schema

 

The main idea for this implementation, is that the parent page will always send the hits to analytics. Even the interactions that are coming from the IFrame

Depurando Google Analytics en Apps

12/12/2016 a las 16:36

Una de las tareas que realizó una vez al mes (al menos), es la depuración de implementaciones de Google Analytics, ya sea de app o web.

Y lo “peor” que me puede pasar es que me toque depurar una app, básicamente porque es un trabajo bastante más pesado que realizar la depuración de una web.

Dado que muchas veces me preguntan cómo se realiza esta depuración, he querido escribir este post donde se describen los pasos necesarios.

Trataré de que sea lo más conciso posible para no alargar la lectura así que al grano.

Qué necesitas

  1. Ordenador con conexión a internet donde instalar el Charles Proxy
  2. Dispositivo móvil con la app que quieres depurar
  3. Tener descargado e instalado el Charles Proxy (ver metodología)

Enfoque

La idea a la hora de depurar una app, es hacer pasar el tráfico de internet de tu dispositivo móvil a través del ordenador para poder “capturar” en este último los hits que manda la app a Google Analytics y verificar que son correctos.

Metodología

  1. Lo primero que tendremos que hacer por tanto es descargar un servidor proxy a través el cual “enrutaremos” el tráfico de nuestro móvil o tablet a internet. Mi recomendación es usar el Charles que es bueno bonito y barato.

    Una vez descargado lo instalamos y continuamos con el punto 2

    charles-web-debugging-proxy

    Home del Charles Proxy. Bueno, bonito y barato

     

  2. Obtener la dirección ip del ordenador en la red en la que estamos conectados. El punto más peliagudo para quien no lo haya hecho nunca. No, es broma, tenemos que ir al menú “help” y seleccionar “Local IP Address”, apuntamos el número que nos indique.
    Obteniendo mi dirección IP

    Obteniendo mi dirección IP

     

  3. Ahora tenemos que configurar nuestro móvil o tablet para que se conecte a internet a través del proxy. Nos dirigimos a las opciones de wifi, seleccionamos la red a la que estamos conectados y vemos la información de la misma. En el caso de un IOS, basta con clicar el icono de info, dirigirnos al final de la pantalla (proxy http) y seleccionar proxy “manual”.
    Introducimos la dirección IP que copiamos en el punto 2,donde poner “Servidor” y como puerto el 8888

    Añadiendo el proxy para conectarme

    Añadiendo el proxy para conectarme

  4. Ya casi estamos, en el caso de IOS, tendremos que instalar un certificado para poder trabajar con el Charles y conexiones seguras. Para ello hay que ir a  esta dirección (http://www.charlesproxy.com/getssl/) desde el navegador del dispositivo e instalar el certificado. Con esto ya tenemos listo el dispositivo móvil.
    El certificado para IOS del Charles

    El certificado para IOS del Charles


  5. Una vez hecho lo anterior, volvemos al Charles y lo configuramos para que registre conexiones seguras al servidor de Google Analytics. Esto se hace desde “proxy” → “SSL proxy setting”, añadiremos la siguiente url “ssl.google-analytics.com” (sin comillas) otra opción más amplia es poner “*.google-analytics.com” si no estás seguro si la app es Universal Analytics o Clásico. Asegúrate de tener el “enable SSL proxy” activado

    Añadiendo el servidor seguro al proxy

    Añadiendo el servidor seguro al proxy

     

  6. Y ahora a testear, simplemente navega por aplicación y espera que aparezcan los hits de Google Analytics. Para verlos selecciona el hit en el listado y en las pestañas inferiores selecciona “content” para ver lo que se está enviando.

    Hit de Google Analytics en el Charles

    Hit de Google Analytics en el Charles

  7. Es posible que veas muchísimos hits que te generan ruido (imágenes, contenido web etc.) Si quieres filtrarlo tienes que ir a “proxy” → “record settings” → “include”, en esa pestañá puedes añadir el server: *.google-analytics.com con lo que solo recogerás hits a Google Analytics.

Un detalle que tienes que tener en cuenta es que en el caso de las apps, es muy probable que los hits se manden en lotes, es decir varios hits en un solo envío lo cual dificulta la interpretación de los datos ya que tienes que conocer la estructura de un hit para conocer cuándo acaba un hit y empieza el otro.

Detalle de los campos que se mandan en un hit de analytics

Detalle de los campos que se mandan en un hit de analytics

 

Solo puedo decir que con un poco de práctica se acaba sacando, Happy depuración!

Untagged 2016

18/11/2016 a las 13:07

La semana pasada,  tuve la oportunidad de asistir al evento untagged IO en Madrid, una oportunidad que realmente había que aprovechar por los ponentes que asistían

Lo primero, agradecer y felicitar a los organizadores, eventos como este en España hay pocos desgraciadamente.

Sobre el evento en sí, hubo varias charlas más o menos técnicas en las que se hablo de lo siguiente:

Brian Clifton

Una de las mejores charlas del día, al menos desde mi punto de vista. Se basó sobre todo en la importancia de los datos a la hora de tomar decisiones y en la explicación del proceso de auditado que él usa para comprobar si implementación es correcta.

También tuvo el detalle de regalar una copia de su último libro 

Brian Clifton explicando el proceso de auditar un sitio

 

Kristoffer Ewald

Ponente inesperado debido a que Craig Sullivan no pudo venir al evento. De la empresa Netbooster nos habló de cómo ir más allá de las métricas y KPIs clásicos para medir el rendimiento de campañas de marketing hablando de indicadores como:

  • Annual Opportunity
  • Predicted future total value
  • User Velocity
  • Core consumer fit score
  • Loyalty propensity

Simo Ahava

Poco hay que decir sobre Simo. Como alguien lo definió es el hombre que más ha hecho por difundir el Google Tag manager, incluso más que Google. Su blog es la biblia de uso del GTM.

En su charla habló de técnicas y trucos para la recogida de datos. Recoger en blogs la longitud del post o número de imágenes en el mismo, el uso de content grouping para medir el rendimiento de un autor o si los post de mayor longitud funcionan mejor que los de menor longitud etc.

También puso un ejemplo de cómo adaptar un enhanced ecommerce a un sitio no ecommerce como un blog y la utilidad de los informes que se generan.

Para mi, la mejor charla de la jornada.

 

Simo explicando algunos trucos para recoger información de la página

Ani Lopez

En su charla habló sobre los pasos que deben realizarse para explotar datos de Big Query (o un Big Data en general), desde cómo almacenarlos a cómo procesarlos, almacenar el resultado del procesamiento en tablas intermedias y finalmente mostrarlo a través de herramientas de visualización.

De su charla me gustó el detalle final de que nos tenemos que educar no solo en el procesamiento de los datos sino en cómo mostrarlos de manera estética, evitando cuadros de mando que contienen muchos datos pero apenas resultan útiles.

 

Virginia Relea y Nicolás Lozano

Nos explicaron la potencia de los DMPs a la hora de personalizar y automatizar la experiencia tanto de uso como de generación  acciones comerciales para un usuario.

Enseñaron una demo bastante interesante en la que en base al comportamiento de un usuario en un sitio, se adaptaba tanto el contenido como los mailings hacia el usuario con el objetivo de maximizar la experiencia de uso del usuario en el sitio y el rendimiento de las campañas de marketing.

Yehoshua Coren

Fue la charla más divertida de la jornada, un auténtico showman. Habló sobre cómo sacar el máximo partido a las herramientas de analítica web, el uso de una estrategia a la hora de plantear una implementación y la necesidad de adaptar el analytics (o cualquier otra herramienta) a los objetivos y métricas que el cliente entienda para realmente explotar la misma.

Marie Loridan

En esta charla se habló sobre la plataforma para la construcción de apps Firebase y el módulo de analytis que viene incorporado y que actualmente se puede usar de manera independiente para la medición del rendimiento de apps.

Dado que no estoy muy puesto en la creación de apps, fue la más “dura” a la hora de seguirla. La parte del Firebase Analytics muy interesante y con ganas de probarla.

 

Y esta fue la última charla a la que pude asistir ya que me tuve que ir a coger el AVE, espero que sigan montando más eventos como este, ayudan mucho a abrir la mente a nuevas  formas de trabajar y plantear proyectos.

Depuración de los datos enviados a GA utilizando la consola de Chrome

14/11/2016 a las 14:44

Una de las tareas esenciales de nuestro trabajo es la depuración de los datos. En concreto comprobar que toda la información que debe enviarse a las herramientas de Analítica se está lanzando correctamente.

Para esto, uno de los pasos primordiales en la depuración es revisar cada uno de los hits que llevan esta información, en cada caso concreto.

Existen una gran variedad de plugins para los navegadores que te facilitan esta tarea, WASP, ObservePoint y DatasLayer, por nombrar unos pocos, pero la pestaña network de la consola del navegador Chrome es una herramienta perfecta para realizar este tipo de comprobaciones.

Por medio de esta pestaña podemos comprobar que los hits que se lanzan a Google Analyitcs son correctos y llevan la información deseada.

Desde hace algún tiempo Google Analytics ha comenzado a redirigir aquellos hits que no lleguen por protocolo seguro, de manera que cuando visitamos una página y accedemos a la pestaña Network de la consola nos podemos encontrar con dos hits de página vista.
Si nos fijamos en la columna “Status”, podemos apreciar claramente que el primero devuelve el código de estado 307, indicando que se trata de una redirección interna de servidor.

depuracion_01
A estas alturas no vamos a confundir esto con el temido doble hit, pero no está de más estar alerta.

El problema es que esto podría dificultar las tareas de depuración cuando nos encontramos con una página en la que se lanza un número considerable de hits

depuracion_02

Por suerte contamos con el filtro de la pestaña Network para evitar estas inconveniencias y simplificar nuestro trabajo.

En este filtro podemos indicar los valores de dominio, estado, incluso el tipo objeto (entre otros), que queremos localizar, además de excluir aquellos que necesitemos para acotar los hits que queremos ver.

La exclusión se define con un signo menos (-). Colocando el signo menos delante de una de las opciones de filtrado y dando un valor a esta opción, estaremos indicando que no queremos que aparezcan los hits con ese valor.
Ejemplo: -domain: google.com -> no saldrán peticiones al dominio google.com.

Cuando insertamos el signo menos en el filtro, se nos muestra todos los posibles valores que podemos utilizar, aunque en la sección de developers de Google se pueden consultar con más detalle.

Opciones de filtrado

Una posible opción de filtrado para revisar correctamente los hits de Google Analytics podría ser:

domain:*.google-analytics.com -status-code:307 -status-code:302 mime-type:image/gif

Con esto estamos indicando a la consola que solo muestre aquellas peticiones del dominio google-analytics.com, que descarte las peticiones con los estados 307 y 302 y que solo muestre aquellas peticiones de tipo gif.

Por supuesto podríamos forzar que el estado sea 200, que es la respuesta del servidor a una petición correcta, pero eso es a gusto de cada uno.

Esta opción de filtrado también permite mostrar las peticiones que se lanzan por POST, estas tienen lugar cuando el contenido de datos que lleva la petición supera la capacidad de una petición GET.

Petición POST

En estos casos se nos presenta cierta dificultad para realizar una revisión de los datos, la manera más sencilla es apoyándonos en alguna aplicación de parseo de datos.
Un posible opción online Freeformatter: http://www.freeformatter.com/url-parser-query-string-splitter.html

Sobre el cuadro de texto añadimos una URL ficticia y el interrogante para indicar el inicio de los parámetros, a continuación, pegamos todo el contenido del hit que tenemos en Request Payload.

Ej. www.test.com?v=1&_v=j47&a=636919066&t=pageview&_s=1&dl=http%3A%2F%2Flocalhost%2Ftealium%2Flistado.html&ul=es&de=windows-1252&dt=Listado&sd=24-bit&sr=1366×768&vp=1349×307&je=0&fl=23.0%20r0&_u=SCCACIIJJ~&jid=241405600&cid=235060360.1476718094&tid=UA-55429541-1&_r=1&cd8=event_test

Y pulsamos sobre el botón PARSE

Parseo de datos

Si hacemos scroll hasta el apartado Query String Splitter encontramos, desglosadas y con sus datos, todas las variables enviadas en la petición.
De manera que podemos revisar que se lanza lo que esperamos de manera sencilla.

Listado de parámetros en la petición

Por supuesto no hay que olvidarse de revisar la pestaña “Console”, nunca está de más comprobar si existen errores Javascript, los valores del dataLayer e incluso lanzar eventos de prueba para comprobar que nuestras etiquetas en GTM funcionan correctamente.

Analytic Day Barcelona con Qlik

10/11/2016 a las 14:16

qlik_analyticday

 

Qlik ha mejorado la personalización de aplicaciones analíticas en la actualización de Qlik Sense version 3.1,. Conocimos las nuevas funcionalidades de embedded y custom analitics en el Analytic Day Barcelona organizado el pasado 3 de noviembre.

Cuando en Qlik se habla de análisis integrados, hacen referencia a la incorporación de analíticos, cuadros de mando y  visualizaciones en un sitio web interno, externo, una intranet, extranet u otra aplicación empresarial, a menudo para un público específico o alineados con un proceso empresarial específico que admite la aplicación empresarial.

En la presentación vimos cómo diferenciar un productos de forma estratégica, integrando elementos clave de Qlik Sense y la plataforma analítica de Qlik, para crear funcionalidades a medida que permitan compartir la información e ideas entre aplicaciones de negocio de forma inmediata y práctica.

Conocimos las nuevas funcionalidad de:

Qlik DataMarket que ahora incluye una herramienta de búsqueda que permite a los usuarios buscar términos y frases en paquetes, categorías y conjuntos de datos.

 Qlik Management Console: La consola QMC posee ahora un parámetro de motor: Crear índice de búsqueda durante la recarga, que mejora la primera experiencia de búsqueda de un usuario. Para todas las fuentes de datos, los administradores pueden decidir si indexar los datos en la recarga, para una mejor experiencia de búsqueda .

Los conectores de bases de datos en el paquete de conectores ODBC Connectors Package de Qlik instalados junto con Qlik Sense permiten seleccionar subconjuntos de datos mediante el filtrado de datos específicos en los registros de bases de datos.Ahora puede filtrar los datos en el conector de bases de datos para conexiones ODBC

Reconocimiento de ciudades y países al cargar datos:  Los datos geográficos (puntos y polígonos de área) ahora se crean automáticamente al cargar los datos que contienen los nombres de ciudades y países reconocidos. Esto le permite crear rápidamente una visualización de mapa de sus datos sin tener que cargar los datos geográficos por separado.

Plantilla predefinida de app Ahora puede cambiar la plantilla de una app por defecto. La nueva plantilla de Qlik – Estándar ajusta el relleno y espaciado entre objetos y también asigna los espacios designados para los títulos. Las apps anteriores y nuevas utilizan la plantilla Qlik- Clásica por defecto.

A lo largo de la jornada se presentaron algunos de los casos de éxito en la implementación de Qlik, como el grupo Celsa o Ulabox. Las tres empresas explicaron cómo han convertido sus empresas en organizaciones ágiles, impulsadas por datos, cómo han superado los retos en el análisis de la información de su negocio y han hecho del análisis de sus datos una pieza clave para el éxito de la compañía.

Mi conclusión tras el evento: Ningún análisis es igual a otro. Algunos son rutinarios, automatizables, otros son inusuales, impredecibles. Las herramientas de análisis y visualización de datos nos ayudan a los analistas a simplificar lo simple y a hacer lo complicado sin complicaciones, así podemos dedicar nuestro tiempo a lo que realmente aporta valor al negocio: aportar soluciones basadas en datos y no en una mera intuición.

 

Sumamos una nueva herramienta a nuestro “repertorio”: Webtrekk

14/10/2016 a las 13:50

Webtrekk

Cuanto más nos sumergimos en la completa plataforma que la compañía alemana Webtrekk nos ofrece, más nos gusta. Sin ánimo de entrar en mucho detalle, sí queremos mostrárosla por encima y daros nuestras primeras impresiones sobre ella tras habernos certificado y haber realizado nuestra primera implementación.

En estos momentos, se encuentran en plena migración de interfaz. El nuevo, más limpio y minimalista, puede dar la falsa impresión de que no estamos ante una herramienta demasiado completa, pero nada más lejos de la realidad.

Como ejemplo, y para hacerse una idea de la liga en la que juega, una mezcla de roles, categorías y filtros nos permiten realizar una gestión de permisos de usuario que puede llegar a un nivel de detalle como pocas veces hemos visto.

Webtrekk

Uno de los múltiples informes que una implementación básica en Webtrekk nos ofrece.

Pero vamos a ello. Demos un repaso a vista de pájaro de los principales componentes de la plataforma.

 

TAG INTEGRATION

Aunque no compite (ni lo pretende) con gigantes en éste área como Google Tag Manager o Tealium, es una herramienta que facilita mucho la implementación de Webtrekk. Arrastrando y soltando lo que ella denomina plugins, y con una configuración mínima de los mismos, podemos comenzar inmediatamente a recoger una gran cantidad de datos de un sitio web donde previamente hayamos insertado el script correspondiente.

Nos llamó la atención la inclusión de un plugin para detectar si el usuario utiliza Ablock y otro para medir el scroll en página. Muy útiles, como también lo es el que nos permite crear encuestas para nuestros visitantes. Y, por supuesto, incluye también plugins personalizados donde podemos insertar el código javascript que necesitemos (para píxeles de remarketing, por ejemplo).

Webtrekk

Configuración de la etiqueta o plugin básico de Webtrekk

 

DIGITAL ANALYTICS

Es la herramienta de análisis propiamente dicha. Además de disponer de una gran variedad de informes, permite la creación de informes personalizados (bookmarks) a partir de éstos, gracias al alto grado de personalización que ofrece. Podemos añadir y quitar dimensiones y métricas, añadir modos de visualización, cambiar el tipo de gráfico asociado a la tabla y la métrica mostrada, etc.

Webtrekk

Tres modos de visualización de datos, configurables: mapa de calor, barras y semáforos.

Cómo no, contamos con la posibilidad de construir filtros y segmentos todo lo complejos que sea necesario. Tan sólo echamos en falta un mejor soporte a las expresiones regulares en este área. Trabaja con una versión muy simplificada de éstas.

Webtrekk

Google Analytics

Arriba: informe “Page detail” de Webtrekk. Abajo: informe “Resumen de navegación” de Google Analytics, del que os hablamos hace poco. Aunque muy similares, nos ha gustado mucho que el primero aporte gráficas de tendencia para las páginas previas y posteriores.

Aunque herramientas de pago como ésta no necesitan recurrir al muestreo o sampling, hay que tener en cuenta que los informes, por defecto, se nos presentan basados en una muestra del 20% para agilizar la carga, pudiendo nosotros, después, cambiar al 100% el tamaño. Los tiempos de respuesta no nos han parecido excesivos en ningún momento, por lo que nos hubiera gustado que el tamaño por defecto de la muestra fuera algo que se nos permitiera definir a nivel global en la configuración.

Y en cuanto a cuadros de mando, Webtrekk nos facilita mucho el crearlos. Los llama “reports”.

Webtrekk

Ejemplo de report en Webtrekk

Nos ha parecido lo suficientemente potente en este aspecto como para cubrir esta necesidad en la mayoría de los casos, sin tener que salir de la plataforma.

DMP

En el DMP jugamos con las variables recogidas por el User Relationship Management para construir segmentos diferenciados a los que poder “atacar” de manera diferente. Por ejemplo, tenemos el Profile Macro Status que, de manera configurable, nos permite saber el grado de “madurez” de un visitante. Podríamos clasificarlo como mero visitante, como alguien que se ha interesado por los productos, como alguien que llegó a comprar, como un comprador recurrente…

DMP

Lista de visitantes  en detalle, sobre la que podemos crear segmentos

Las últimas dos columnas de la captura de pantalla nos muestran unas métricas realmente interesantes y fruto de análisis avanzados incluídos en este módulo.

La primera es la probabilidad de que ese usuario no regrese nunca más al site o no vuelva a usar nunca más la app. La segunda, una estimación de la probabilidad de que el usuario termine realizando una conversión.

En la captura de pantalla figuran a cero porque en ese caso todavía no hay datos suficientes como para que el análisis arroje resultados significativos.

 

MARKETING AUTOMATION

Webtrekk

Configuración de una campaña

El último elemento del que vamos a hablar es el Marketing Automation. Basándose en segmentos (actividad en sesiones previas) o en el comportamiento en la sesión actual (tiempo real), podemos personalizar los contenidos mostrados, presentando al visitante banners con ofertas más susceptibles de interesarle, capas con invitaciones a suscribirse o productos recomendados, entre otros tipos de personalización. Potente, fácil de usar y completamente integrado en la plataforma.

 

EN RESUMEN

Webtrekk constituye una plataforma muy completa, con grandes ideas bien implementadas. Y su potente herramienta de analítica digital es digna de ser tenida en cuenta en todos aquellos casos en los que las soluciones gratuitas se nos hayan quedado cortas y nos estemos planteando dar el salto a algo más “serio”.

Aunque nos proponemos seguir hablando de Webtrekk en futuras entradas del blog, os animamos a que nos digáis en los comentarios si hay algún aspecto en particular sobre el que os gustaría saber más.

¿Trabajas en el sector del Turismo?, este evento seguro que te interesa

11/10/2016 a las 10:10

5 claves para capturar el valor de tus usuarios

Este es el título del evento que celebraremos el próximo día 20 de Octubre en Barcelona.

Con el mundo del turismo como foco, hablaremos del impacto de tus campañas online en la generación de reservas en el hotel, es decir, cómo el mundo online afecta al mundo offline y cómo podemos medirlo.

También hablaremos de cómo ir más allá del nombre de un cliente, cómo podemos extraer datos sobre sus gustos y preferencias a partir de algo tan simple como el uso de su teléfono móvil.

Otro tema del que hablaremos es de cómo podemos vincular acciones online con acciones offline, es decir, entender el comportamiento del usuario al completo y no en nichos separados.

Por último, examinaremos las últimas tendencias en el sector para darte ideas inspiradoras para tu negocio y veremos cómo sacar partido al feedback que te proporcionan los clientes tras una estancia.

En definitiva un evento pensado para darte ideas con las que mejorar experiencia de tus clientes y el rendimiento de tus hoteles.

Si te interesa, en este enlace encontrarás todo lo necesario para apuntarte.

Nos hemos certificado en Optimize 360

19/09/2016 a las 15:33

Uno de los productos que más atención ha creado de la nueva suite 360 es el Optimize 360, este producto nos permite probar cambios en nuestro sitio y personalizar sus contenidos para segmentos de usuarios con el fin de maximizar el rendimiento del mismo.

360-certified-logo

Metriplica optiene la certificación de Optimize 360

Desde el principio tuvimos claro que queríamos usar esta herramienta como parte de nuestra estrategia de mejora continua que ofrecemos a nuestros clientes y el primer paso que teníamos que hacer era certificarnos en la misma.

La certificación consiste en un examen,  y un caso de estudio que demuestre que sabemos usar la herramienta. Buscar un caso de estudio puede parece sencillo pero ¿saben lo difícil que es encontrar un cliente que quiera testear su sitio en verano?

Por coincidencias del destino, justo en Julio Metriplica lanzó su nueva web y había un elemento que no nos acaba de convencer a varios en la empresa. Se trataba del nuevo menú de navegación en formato “hamburguesa”, si bien en móvil este formato es común en ordenadores de escritorio pensábamos que penalizaba la navegación más que la mejoraba. Y aquí teníamos nuestro caso de estudio 🙂

El proceso de certificación para Optimize 360

Para certificarnos en Optimize 360, planteamos como caso de estudio un test en el que, “enfrentamos” el menú de navegación en formato hamburguesa con el menú de navegación en formato clásico.

Los resultados, como pueden ver en la imagen, reflejan que el hecho de poner el menú en formato clásico mejora en casi un 50% la navegación a través del mismo, es decir provoca un consumo de contenido mayor y por tanto mayores probabilidades de contacto y de visualizar nuestros servicios como empresa.

Mejora del 50% en navegación del menú clásico vs hamburguesa

Con un menú clásico, la navegación aumenta un 50% sobre el menú hamburguesa

Y ahora ¿qué?…

Pues los siguientes pasos que vamos a tomar obviamente  es cambiar nuestro menú por un formato clásico visible y comenzar a ofrecer Optimize 360 a todos nuestros clientes 🙂

Agradecer a todos los miembros del equipo que han hecho posible la certificación en Optimize 360  y espero que podamos sacarle partido lo antes posibles

Extraer y trabajar con datos de Facebook

10/08/2016 a las 13:45

exportar y trabajar con datos de Facebook

Actualmente existen multitud de herramientas de analítica social que nos ayudan a medir lo que ocurre en las redes y nos facilitan la construcción del cuadro de mando. Podemos encontrar soluciones gratuitas y de pago que ofrecen desde métricas sencillas a las más complejas, pasando por análisis predictivos,  algoritmos propios y hasta conejos dentro de una chistera.

Todo dependerá de nuestro presupuesto, pero es común encontrarse con métricas tan variopintas como:

  • Likes, comentarios y shares en un periodo
  • Alcance por post
  • Impresiones vs alcance
  • Efectividad según día
  • Efectividad según horario
  • Post por hora o semana
  • Personas que están hablando de esto
  • Total Fans
  • Fans por país
  • ROI
  • Crecimiento/decrecimiento de fans
  • Nº publicaciones
  • Tasa de interacción
  • Engagement

La lista podría continuar y continuar, pero lo importante es no dejarnos deslumbrar por sus opciones y ser conscientes de que todo se construye a partir de unos datos básicos que también están a nuestro alcance.

En caso de que no tengamos acceso al software adecuado no habrá más remedio que extraer los datos de Facebook y realizar las gráficas y tablas con las métricas que nos interesen de forma manual.

Una vez determinemos qué queremos medir, cómo y para qué es hora de ponernos manos a la obra para tenerlo todo a nuestro gusto.

Se advierte al usuario del uso de cookies propias y de terceros de personalización y de análisis al navegar por esta página web para mejorar nuestros servicios y recopilar información estrictamente estadística de la navegación en nuestro sitio web. Política de cookies Acepto