Analytics Premium ComScore ClickTale Analytics Certified Partner Klipfolio Coremetrics

Nueva versión de la API de Google Analytics + R statistics

03/01/2017 a las 15:30

Con motivo del lanzamiento de la versión 4 de la API de Google Analytics, mostramos las nuevas funcionalidades que ofrece. Para información sobre migraciones de la API de Google Analytics pincha en el enlace anterior.

Nosotros destacamos las siguientes funcionalidades que respectan a la presentación de informes:

  • Combinación de métricas mediante expresiones matemáticas de cara a las consultas de datos. 
  • Solicitud de dos o más períodos simultáneos en una misma consulta.
  • Solicitud de datos de varios segmentos avanzados en la misma consulta. Podría llegar a ser complicado formularlos en Google Analytics, para ello se ha creado un User Interface con Shiny de gran ayuda. Para acceder a la herramienta, pincha en el siguiente enlace.

¿Cómo empezar a sacarle partido a la nueva versión de la API de Google Analytics? Para cantidades masivas de datos, un fichero Excel nos limitaría los análisis, por lo que un recurso de 10 es, ni más ni menos, que trabajar con la herramienta R statistics.

Visualización de datos con Python

13/12/2016 a las 07:59

En un post anterior hicimos una introducción a Python, enfocado al análisis de datos. En él instalamos Python, el paquete pip (encargado del mantenimiento del sistema y la instalación de otros paquetes) y numpy (permite calculo matricial y uso de funciones estadísticas).

Hoy trataremos la visualización de datos con matplotlib, un paquete que pone a nuestra disposición gran variedad de gráficos. Con pocas líneas de código seremos capaces de generar gráficos de tendencia, barras, dispersión, histogramas…

A continuación exponemos tres tipos de visualización de los más usados.

 

1. Gráfico de tendencia: muy útil cuando tenemos escalas de tiempo en el eje horizontal.

plot1_script
1_plot
 

2. Gráfico de burbujas: es un gráfico de dispersión para medir la asociación entre dos variables, introduciendo una tercera que determina el tamaño de la burbuja, o incluso una cuarta, que asigna un color.

plot2_script
2_plot
 

3. Histograma: en la fase exploratoria nos da una idea de la distribución de los datos.

plot3_script
3_plot
 

Recuerden que para consultar la documentación sobre un tipo de gráfico hacemos uso del comando:

help(plt.nombre_función_gráfico), donde plt es el alias de matplotlib.pyplot

A practicar!!!

R Statistics: Presentando insights con Shiny

21/11/2016 a las 18:44

 

Existen diversas fases en el desarrollo y presentación de un informe de analítica digital. En Metriplica nos involucramos mucho en la presentación de los resultados y siempre buscamos aquellas herramientas que nos ofrezcan elegantes soluciones gráficas.

  • Google Analytics como herramienta para el análisis de datos.
  • KlipFolio, entre otras, como herramienta de elaboración de dashboards.
  • Pirendo para analítica social.


Lo ideal sería disponer de una herramienta diseñada por el usuario a su gusto y disposición que le permita reunir en ella todos los aspectos anteriores: volcado de datos, explotación de los mismos, creación de informes y cuadros de mando, analítica social, analítica predictiva, etc.

Shiny

En R disponemos de una solución muy elegante: Shinyapps.

Shiny es un paquete de R que nos permite crear aplicaciones web interactivas. De esta forma, los usuarios de R podemos “automatizar” los scripts y realizar presentaciones interactivas con los datos a través de una aplicación web que el usuario puede manipular sin necesidad de adentrarse

en programación. Esto es una una clara ventaja para los usuarios no familiarizados con R. 

Aplicaciones con Shiny

Posibles aplicaciones interesantes que podemos realizar con Shiny. Entre otras:
  • Creación de cuadros de mando para ilustrar interactivamente los resultados de rendimiento del site.
 gadashboard
 Muestra el estado actual de algunas métricas clave de la web, permitiendo realizar segmentos por dispositivo. El rendimiento web se puede supervisar de forma muy cómoda y rápida.

Se podría monitorizar de manera periódica sincronizando los datos que recogemos en Google Analytics a R vía RGoogleAnalytics.  

Para los usuarios Premium, también es posible realizar la conexión de Google Bigquery con R y explotarlos en la APP.  Una aplicación para hacer simultáneamente consultas y visualizaciones de los datos de Google Bigquery la podemos encontrar en el siguiente enlace.

  • Creación de modelos predictivos. El usuario puede interactuar en la aplicación introduciendo un nuevo valor del cual está interesado en conocer su predicción a futuro. Es interesante la combinación de los modelos predictivos con datos offline: mapas sobre borrascas,tormentas, tornados… en determinadas zonas, obteniendo así predicciones más precisas.

 

offline

 


Valoración

En definitiva, Shiny nos gusta por ofrecer múltiples opciones. Nosotros destacamos las siguientes:

  • Implementación de widgets en las aplicaciones que permiten crear rápidas interfaces de usuarios.
  • Sencillas técnicas de programación reactiva que permite al usuario realizar modificaciones en la aplicación.
  • Integración de JavaScript y jQuery para agregar contenidos extra e interacciones diversas.
  • Integración de HTML y CSS que ayudan a un mejor diseño de la app.
  • Flexibilidad a la hora de realizar análisis y gráficos avanzados a partir de fuentes externas de datos. También es posible añadir a la interfaz widgets para la descarga de los ficheros resultantes de dichos análisis.

 

¡Anímate!

Conectando BigQuery y R Statistics

16/11/2016 a las 17:01

En anteriores posts hemos comentado el potencial de la herramienta de análisis estadístico R (véase Cómo empezar a usar R Statistics, Visualización de datos de Google Analytics con R o Una conexión de titanes: Google Analytics y R Statistics).

Hoy retomaremos el tema de las conexiones, en concreto con BigQuery, un almacén de datos que la plataforma Google Cloud pone a nuestra disposición para realizar consultas SQL de manera rápida, eficaz y con un coste reducido.

Los clientes de Google Analytics 360 (antes Premium) pueden acceder a sus datos crudos, asociando una vista de Google Analytics a un proyecto de BigQuery.

Actualmente BigQuery usa por defecto su lenguaje propio, Legacy SQL, aunque con el lanzamiento de BigQuery 2.0 se recomienda la migración a Standard SQL.

Podemos ver más en detalle cómo plantear una consulta en BigQuery.

A continuación se detallan los pasos a seguir para realizar una consulta en BigQuery desde R:

 
1. Accediendo a BigQuery.

Para acceder a la interfaz de BigQuery, iniciamos sesión con nuestra cuenta Google.

En este caso práctico queremos establecer una conexión desde R con el dataset ‘LondonCycleHelmet’, perteneciente al proyecto ‘google.com:analytics-bigquery’. En él encontramos la tabla ‘ga_sessions_20130910’, con los datos de navegación de una web ficticia en dicha fecha.

Al no tener permisos de edición en este proyecto, haremos una copia de dicha tabla para almacenarla en ‘My Project’, sobre el que sí tenemos permisos. En él creamos un nuevo dataset llamado ‘bigrquery’, del que colgará la tabla ‘ga_sessions_20130910_copy’.

0_r-bq

La notación para hacer referencia a una tabla es la que sigue:

proyecto:dataset.tabla
1_r-bq

Para saber el nombre del proyecto pasaremos el cursor sobre ‘My Project’:

2_r-bq
 
2. Iniciando R.

Iniciamos sesión en R y ejecutamos el siguiente código, asignando los valores que corresponda:

3_r-bq
 
3. En la consola de R nos aparecerá el siguiente mensaje:
4_r-bq

Al seleccionar la opción 1 y permitir el acceso a la actual cuenta de Google, se creará un archivo ‘.httr-oauth’ en el directorio de trabajo de R, en el que se almacenan las credenciales entre sesiones de R.

 
4. Con el paso anterior se realiza la conexión entre R y BigQuery, almacenando el resultado de la consulta en el data.frame ‘datos’:
5_r-bq
 

En este ejemplo nuestra consulta es simple y calcula valores agregados. El verdadero potencial de esta conexión reside en importar los datos de navegación y luego trabajar con ellos en R.

Keep trying and enjoy R!!!

Ave, Python, los analistas de datos te saludan

25/08/2016 a las 11:24

Como usuarios de R, alguna vez hemos hecho llamadas a la librería rPython.

En anteriores posts se ha hecho una introducción a R y llega el turno de Python, un lenguaje de programación en código abierto que, entre otros, dispone de paquetes específicos para almacenar, manipular y analizar datos.

Hoy instalaremos numpy, un paquete que permite el uso de funciones estadísticas y el cálculo matricial.

Hay dos maneras de trabajar:

  • De forma interactiva: tecleamos código e inmediatamente vemos los resultados. Para ello usamos el intérprete IPython:

    https://www.python.org/shell/

0_python shell
  • Ejecutando scripts: son archivos de texto (.py) con comandos Python línea a línea. Permite realizar cambios y volver a ejecutar. En este caso no se muestran los resultados de forma automática, para ello usamos la función print().

Haremos una demo de instalación en Windows, para otros sistemas operativos encontramos la ayuda en cada uno de los links que se citan a continuación.

 

1. Instalando Python.

Podemos descargar la última versión en el siguiente enlace y ejecutar el .exe.

https://www.python.org/downloads/

1_python download
 

2. Instalando pip.

El paso siguiente es instalar el paquete pip, encargado de la instalación de otros paquetes y el mantenimiento del sistema en Python. Lo podemos descargar en:

http://pip.readthedocs.org/en/stable/installing/

2_pip

2.1. Abrir línea de comandos de Windows.

Inicio > Buscar > teclear cmd

3_cmd

2.2. Cambiar al directorio en que tenemos el get-pip.py que acabamos de descargar:

> cd C:\Users\metriplica\Downloads

2.3. Ejecutar:
> get-pip.py

Sale un mensaje ‘Requirement already up-to-date:…’ que pide la actualización si nuestra versión es Python 2 >=2.7.9 or Python 3 >=3.4.

2.4. Buscar en el directorio donde se ha instalado Python el archivo pip.py, que suele colgar de \Scripts\ y arrastrarlo a la línea de comandos.

4_instalar pip

Aparecerá un listado con los comandos y opciones que admite pip.
Con esto ya podemos usar pip para instalar paquetes de Python.

 

3. Instalando numpy.

3.1. Cambiar al directorio \Scripts\ (asegurarnos de que pip.exe se encuentra en esta carpeta y en caso contrario modificar la ruta a la que lo contenga):

> cd C:\Users\metriplica\AppData\Local\Programs\Python\Python35-32\Scripts

3.2. Instalar paquete:

> pip3 install numpy

3.3. Cambiar al directorio en que está instalado Python:
> cd C:\Users\metriplica\AppData\Local\Programs\Python\Python35-32
o

> cd.. (sube un nivel en el path)

3.4. Ejecutar Python. Con esto pasamos de la línea de comandos del sistema al intérprete de Python:
> python
>>>

 

4. Importando numpy.

4.1. Para poder hacer uso de los objetos y funciones de un paquete es preciso importarlo una vez instalado:

>>> import numpy

5_instalar numpy

4.2.En la ayuda encontramos una descripción detallada:

>>> help(numpy)

6_help numpy
 

5. Saliendo del intérprete de Python.

>>> quit()

 

Hasta aquí la instalación del paquete numpy. Disponemos de otros como matplotlib (gráficos) y scikit-learn (machine learning) que le complementan en la apasionante aventura del análisis de datos 

Basket Market Analysis

17/08/2016 a las 14:18

Probablemente os habréis preguntado muchas veces qué combinación ganadora de productos genera más ventas en su tienda física o en el catálogo de su tienda online.

1

Esta información puede ser aprovechada para numerosos fines. Entre otros:

  • Cross-selling de productos.
  • Redistribución del catálogo o del escaparate (en caso de tratarse de una tienda física): colocar los artículos que puedan co-ocurrir juntos uno cerca del otro.
  • Campañas de email marketing: ofrecer promociones/descuentos/sugerencias de productos relacionados con el que ya sabemos que han comprado.

Pero, ¿y si además pudiéramos conocer la probabilidad de que, habiendo comprado cierto(s) producto(s), el cliente termine comprando otro(s)?

Existe una metodología llamada Market Basket Analysis que nos ayudará en la búsqueda de estos insights.

Market Basket Analysis

En el mundo online acumulamos una enorme base de datos de las transacciones de compra. Cada transacción consiste en una serie de productos que se han comprado de manera conjunta.

Pero, ¿qué productos se compran conjuntamente con más frecuencia? Mediante la metodología del Basket Market Analysis podemos responder preguntas tales como: ¿Existen relaciones entre ciertos productos, que al comprarlos influyen significativamente en la compra de otros productos? Esto lo entendemos como reglas de asociación entre productos.

Podemos entender estas reglas de asociación como “Si compras A y B, entonces es probable que compres C”.

Una medida de la bondad de estas relaciones son los estadísticos Support, Confidence y Lift:

  • Support: proporción del total de compras en las que X e Y se han comprado conjuntamente.

4

  • Confidence: proporción de compras con X donde también se compró Y. En términos estadísticos, se trata de una probabilidad condicional.

5

  • Lift: Un valor de Lift > 1 indica que los productos X e Y se compran conjuntamente más veces de lo esperado. Por tanto, estamos interesados en aquellas relaciones con un valor de Lift>1.

6

Un ejemplo ficticio de los resultados que podríamos obtener de un análisis de este tipo nos lo proporciona la siguiente tabla:

3

La manera de leer la tabla anterior es, por ejemplo, para la primera entrada: “Los productos A y B se han comprado conjuntamente en el 0.23% del total de las transacciones, y además, en el 95% de las transacciones que contienen el producto B también se ha comprado A”. A priori, puede parecer poco un valor para Support del 0.23%: ¡Solamente esta proporción del total de las transacciones contienen A y B!. Pero suponed que tenemos registradas 12K transacciones, ¡se darían 2760 con los productos A y B!

Implementación en R

Utilizamos el algoritmo apriori para encontrar las reglas de asociación que comentábamos anteriormente. Únicamente se ha de instalar en R el paquete arules y ¡manos a la obra!

Todas las funciones necesarias para el análisis las podemos encontrar cargando dicha librería. En caso de obtener numerosas reglas de asociación (todo depende del tipo de estudio que se realice y de la cantidad de transacciones con las que se trabaje), es de gran ayuda el paquete arulesViz. Este añade características adicionales al paquete arules: se apoya en gráficos muy curiosos de las reglas de asociación, permitiéndonos estudiarlas de una manera más cómoda.

Como curiosidad, y para hacernos una ligera idea de cómo trabaja el algoritmo apriori, primero encuentra las transacciones unitarias (es decir, transacciones que contienen un único producto) más frecuentes. A continuación, estudia todas las combinaciones posibles (dos a dos) de las transacciones unitarias, y se queda con las transacciones que contengan dichas combinaciones y que se dan con más frecuencia. Así, iterativamente, el algoritmo continúa hasta que hallan sido generados todos los conjuntos de ítems más frecuentes con k productos y no se obtengan más conjuntos frecuentes dentro de las transacciones.

Si os encontráis en vuestros inicios con R, que no cunda el pánico. Se ha desarrollado un package interactivo de R que os enseñará a sacarle partido a la herramienta. Para más información: Como empezar a usar R statistics, de mi compañera Anna Fernández.

Los pasos a seguir para llevar a cabo el Basket Market Analysis en R son:

    1. Leemos el Dataset. Únicamente necesitamos una tabla en la que cada fila contenga el ID de transacción y el nombre del producto.7
    2. Agregar por ID de transacción todos los productos comprados. Existe una función de la librería data.table (llamada del mismo modo) que hace las agregaciones de manera muy eficaz:8Otra alternativa para hacer la agregación, mediante la función split:9
    3. Convertir los datos agregados en tipo de objeto “transacción”:10
    4.  Arrancamos el algoritmo mediante la función a priori de la librería arules.11Notad que los campos de los parámetros para Support y Confidence están vacíos. La definición de estos umbrales mínimos depende de la cantidad de transacciones que manejemos. Para definir el umbral mínimo para Support nos podemos apoyar en el siguiente gráfico: frecuencia del producto en las transacciones.13El código de R para obtener el gráfico anterior:

      12

      Nótese como aparece el artículo más frecuente en menos del 0.3% de las transacciones. La línea roja indica donde hemos decidido fijar el umbral mínimo para Support. Este umbral debe ser lo suficientemente pequeño para que entren en juego varios productos en el análisis (en caso de proporcionar un valor muy grande para Support, es posible que el algoritmo no sea capaz de encontrar association rules).

    5.  Finalmente, visualizaremos las reglas de asociación de productos mediante el siguiente código: inspect(rules).  Así, obtendremos una tabla análoga a la del ejemplo. En el caso de no disponer de reglas de asociación, siempre se puede jugar “relajando” los umbrales mínimos de los parámetros Support y Confidence.

Consideraciones

Resulta muy interesante también estudiar las relaciones entre productos más débiles.

Si el análisis muestra que dos artículos no están relacionados fuertemente, y sin embargo, se encuentran muy próximos en el catálogo online (porque puedan pertenecer a la misma categoría de producto, por ejemplo) cabría replantearse una re-estructuración del catálogo.


¡Y listo!

Indagando en estos resultados, ¡podríamos llevarnos muchas sorpresas analizando únicamente las transacciones!.

¿No has probado este tipo de análisis? ¡Anímate!

Y cualquier pregunta que se os presente, no dudéis en comentar 🙂

 

Consultas a la API de Google Analytics con fechas actualizadas automáticamente

20/07/2016 a las 10:25

Al seleccionar las fechas de inicio o fin en nuestras consultas, en el Query Explorer, podemos utilizar today, yesterday o el patrón NdaysAgo además del patrón básico YYYY-MM-DD. Pero, ¿qué pasa si necesitamos datos de las últimas N semanas o los últimos N meses? La cosa se complica y no tenemos muchas mejores opciones que introducir a mano las fechas que necesitamos. Parece una tontería, pero es algo poco práctico cuando queremos usar la misma consulta para distintas fechas, o incluso peor cuando queremos hacerla de forma periódica para hacer informes semanales o mensuales, por ejemplo.

Con la conexión entre R y Google Analytics (de la cual hablamos anteriormente aquí) parecería que no tenemos mejor suerte ya que ni siquiera acepta today, yesterday o NdaysAgo, sino que únicamente acepta el patrón YYYY-MM-DD. Pero, en realidad, ‘jugando‘ un poco con las funciones de tiempo de R sí que podemos consultar estas fechas relativas y, de hecho, cualquier otra que nos propongamos.

En este post veremos la forma de hacer consultas de algunos de los periodos dinámicos más comunes: los últimos N días, las últimas N semanas (de lunes a domingo) y los últimos N meses. A partir de aquí, se podrían modificar fácilmente para consultar otras fechas relativas que se necesiten en cada caso concreto.

Para conseguirlo, lo único que necesitaremos será modificar adecuadamente los parámetros que corresponden a la fecha de inicio (start.date) y de fin (end.date) de la función Init del package RGoogleAnalytics, que es mediante la cual creamos la consulta a hacer a la API de Google Analytics. Sin embargo, para poder hacerlo necesitaremos:

1) Tener instaladas y cargadas las librerías RGoogleAnalytics y lubridate. Esta segunda la necesitamos para usar ciertas funciones de tiempo que nos ayudarán a obtener las fechas relativas que queremos. En principio se carga automáticamente al cargar la librería RGoogleAnalytics, pero si no fuera el caso también habría que cargarla para utilizar el código.

install.packages("RGoogleAnalytics")
install.packages("lubridate")
library(RGoogleAnalytics)

2) Autenticarse con nuestras credenciales para poder hacer la conexión entre R y Google Analytics. Para más detalles, seguir los pasos del post mencionado anteriormente.

#Credenciales para la cuenta de Google Analytics seleccionada
client.id<-"xxxxxxxxxxxxxxxxxxxxxxxx"
client.secret<-"xxxxxxxxxxxxxxxxxxxx"

#Creación y llamada del token (la conexión en sí)
token<-Auth(client.id,client.secret)
ValidateToken(token)

3) Comprobar que tenemos configurados el día y la hora correctos. Para hacerlo se puede ejecutar el comando Sys.time(), que devuelve la fecha y la hora del momento en que se ejecuta.

Últimos N días

query.list<-Init(
 start.date=as.character(Sys.Date()-N), #Sustituir N por un número
 end.date=as.character(Sys.Date()-1)
 dimension="<dimensiones>",
  metrics="<métricas>",
  max.results=10000,
  table.id="ga:XXXXXXX"
)
ga.query<-QueryBuilder(query.list)
ga.data<-GetReportData(ga.query,token)
La fecha inicial tiene que ser la de hace N días. Como Sys.Date() devuelve la fecha actual, simplemente le restamos el número de días que queremos.
La fecha final tiene que ser ayer, así que usamos la misma idea y le restamos 1 día a hoy.
Finalmente, con as.character() convertimos los valores obtenidos en un string o cadena de caracteres, que es el formato que necesitan los parámetros start.date y end.date.

Últimas N semanas (de lunes a domingo)

query.list<-Init(
  start.date=as.character(seq(Sys.Date()-wday(Sys.Date())+2,
               by="-1 week",length.out = N+1)[N+1]), #Sustituir N por un número
  end.date=as.character(Sys.Date()-wday(Sys.Date())+1),
  dimension="<dimensiones>",
  metrics="<métricas>",
  max.results=10000,
  table.id="ga:XXXXXXX"
)
ga.query<-QueryBuilder(query.list)
ga.data<-GetReportData(ga.query,token)
La fecha inicial tiene que ser el lunes de hace N semanas. Para ello, primero recuperamos el lunes de la semana actual mediante Sys.Date()-wday(Sys.Date())+2 y luego retrocedemos N* semanas para obtener el lunes que necesitamos con seq(…,by=”-1 week”,length.out = N+1)[N+1]).
La fecha final, considerando que queremos semanas cerradas, es el domingo de la semana anterior a la actual. Lo obtenemos mediante Sys.Date()-wday(Sys.Date())+1 (no es más que el mismo código con el que obtenemos el lunes de la semana actual pero restando un día para que sea el domingo anterior).
Finalmente, usamos as.character() como en el caso anterior.
*Se utiliza N+1 porque la primera fecha que considera es la de la semana actual.

Últimos N meses

query.list<-Init(
  start.date=as.character(seq(Sys.Date()-day(Sys.Date())+1,
               by="-1 month",length.out = N+1)[N+1]), #Sustituir N por un número
 
  end.date=as.character(Sys.Date()-day(Sys.Date())),
  dimension="<dimensiones>",
  metrics="<métricas>",
  max.results=10000,
  table.id="ga:XXXXXXX"
)
ga.query<-QueryBuilder(query.list)
ga.data<-GetReportData(ga.query,token)
La fecha inicial tiene que ser el primer día del mes correspondiente. Para obtenerlo, primero recuperamos el día 1 del mes actual con Sys.Date()-day(Sys.Date())+1 y después retrocedemos N* meses para tener el día 1 que necesitamos con seq(…,by=”-1 month”,length.out = N+1)[N+1])
La fecha final del periodo, considerando que queremos meses cerrados, es el último día del mes anterior al actual. Lo podemos obtener con Sys.Date()-day(Sys.Date()), que no es más que el mismo código con el que obtenemos el día 1 del mes actual pero restando un día para que sea el último del mes anterior (independientemente de si tiene 30, 31 o 28 días).
Finalmente, como en los casos anteriores, usamos as.character() para convertir los valores en un string o cadena de caracteres, que es el formato que necesitan los parámetros start.date y end.date.
*Se utiliza N+1 porque el primer mes que considera es el actual.
Y ya está! Poniendo nuestro id de la vista de Google Analytics correspondiente más las dimensiones y métricas que se quieren extraer, ya podríamos tener una consulta que siempre devuelva los datos de los últimos N días, de las últimas N semanas o de los últimos N meses. Además, podríamos combinar estos códigos para automatizar consultas con fechas relativas personalizadas, como por ejemplo “los últimos 2 meses hasta el domingo pasado” o cosas por el estilo. De esta forma, podremos repetir nuestros análisis y/o visualizaciones hechos con R periódicamente para generar informes sin tener que modificar ni una línea del código inicial, así que ya tienes una razón más para animarte a usar R para analizar tus datos de Google Analytics. 😉
Espero que este post os pueda facilitar un poco la vida y de cara a próximos análisis sólo tengáis que centraros en la explotación de los datos, que es lo realmente importante. Y si tenéis alguna duda relacionada con el tema o tenéis algún problema al automatizar algunas fechas, no dudéis en dejar vuestro comentario. 🙂

Como empezar a usar R statistics

15/06/2016 a las 10:51

Muchos ya habréis notado, por anteriores posts, que nosotros estamos acostumbrados a usar R. Pero ello no hace que nos olvidemos de nuestros inicios y de la notable curva de aprendizaje que conlleva empezar a usar R de cero.

Pero si os encontráis en vuestros inicios con R no os preocupéis, la comunidad de usuarios/desarrolladores de packages de R ha pensado una buena ayuda para empezar a usar R haciendo más amena la primera toma de contacto con la herramienta, y nosotros estamos aquí para contároslo.

La solución que os queremos presentar hoy es el package/tutorial Swirl. Se trata de un package del mismo R que consta de un tutorial interactivo de dicha herramienta.

Para acceder al tutorial debemos:

  1. Tener R instalado y abrirlo.
  2. Instalar y cargar el package “Swilr” usando los siguientes comandos:
                          install.packages(“swirl”)
                          library(swirl)
  3. Llamar la función correspondiente para iniciar el tutorial:
                           swirl()

Llegados a este punto, ya habremos empezado.

img R swirl 1

A partir de aquí, las diferentes explicaciones y actividades nos irán apareciendo en la consola de R mediante texto en inglés. En cada bloque explicativo o ejercicio se esperará nuestra interacción mediante la respuesta de dicho ejercicio propuesto, pulsando “enter” para saltar a la siguiente explicación o utilizando comandos específicos para guardar la progresión o abandonar el tutorial, por ejemplo.

El programa consta de los siguientes puntos:

img R swirl 2

Se pueden seguir los diferentes steps uno a uno en orden, realizar solo aquel que nos interese, ir haciendo poco a poco guardando el progreso y recuperándolo en otro momento… vamos, toda la flexibilidad que tanto nos gusta que tengan este tipo de tutoriales.

Además, cada uno de estos bloques consta de diferentes apartados. Por ejemplo, este es el contenido correspondiente al bloque de análisis exploratorio de datos (bloque 4):

img R swirl 3

Como podéis ver se trata de un completo tutorial interactivo que os animamos a probar y a compartir vuestra experiencia con todos en los comentarios.

Good luck and Statistics 😉

Se advierte al usuario del uso de cookies propias y de terceros de personalización y de análisis al navegar por esta página web para mejorar nuestros servicios y recopilar información estrictamente estadística de la navegación en nuestro sitio web. Política de cookies Acepto