Innodata Barcelona Congreso de Big Data y Analytics

La semana pasada asistimos a Innodata, la primera edición en Barcelona del Congreso de Big Data & Analytics, organizado por Datahack.

Tras una introducción en la que presentaron a su equipo y oferta formativa, pasamos a las ponencias, que ocuparon la mayor parte de la jornada.

Innodata Barcelona. 1er congreso Big Data & Analytics

Supervising the unsupervised por Francisco Rodríguez

En la primera ponencia Francisco Rodríguez (Data scientist en Telefónica), con su ‘Supervising the unsupervised’ nos acerca a las técnicas de aprendizaje semi-supervisado.

El aprendizaje supervisado, aplicado en reconocimiento de imágenes (Imagenet, Facenet), clasificación de documentos, análisis de imágenes médicas, chatbots… hace uso de datos etiquetados para entrenar sus modelos.

En ocasiones la gran cantidad de datos sin etiquetar hace que el coste del etiquetado sea demasiado alto para abordarlo.

Es aquí donde aparecen las técnicas de aprendizaje semi-supervisado, que combinando una pequeña cantidad de datos etiquetados con una gran mayoría de datos sin etiquetar, obtienen una mejora considerable respecto a los métodos supervisados.

Partimos de 3 supuestos básicos:

  • Continuidad: puntos próximos a otros suelen tener la misma etiqueta.
  • Cluster: puntos que pertenecen al mismo cluster suelen compartir etiqueta.
  • Variedad: se reduce la dimensionalidad de los datos de entrada.

Temas de interés en el escenario actual:

  • Ataques adversarios: introducimos ruido en nuestro dataset de entrenamiento.
  • Data distillation desarrollado por Facebook.    
  • Modelos semi-supervisados basados en grafos (Facebook, Google Smart Reply).
  • Privacidad: debemos ser cautos a la hora de entrenar datos sensibles.

Entre las lecturas recomendadas encontramos el libro Semi-supervised Learning.

In memory data grid por Gastón Lucero

La segunda ponencia, de carácter más técnico, por parte de Gastón Lucero (Big data engineer en Trovit), nos introduce de lleno en ‘Apache Ignite’. En ella nos describe la plataforma y lo que la diferencia de Redis y Spark.

Algunas de sus características, entre otras:

  • Memoria Off-heap.
  • Posibilidad de levantar máquinas virtuales sin coste alguno mediante JVM.
  • No hay un nodo maestro y el resto esclavos, todos los nodos son iguales.
  • Todos los nodos, además de sus datos contienen datos de backup de otros nodos, de manera que si un nodo cae, no se pierde la información.

Modelo en Keras de reconocimiento de imágenes: Análisis de género y emociones

Alejandro Arranz (Data engineer en Datahack Labs), nos presenta su ‘Modelo en Keras de reconocimiento de imágenes: Análisis de género y emociones’.

En ella nos expone una parte del proyecto DIA4RA (Desarrollo de Inteligencia Artificial para Robótica Asistencial), que consiste en analizar el género y las emociones en el contexto de terapias con enfermos de Alzheimer.

Como introducción al tema de las emociones, nos recomienda una charla en Google basada en The constructed emotion, de Lisa Feldman.

Entrando ya en materia, a partir de un dataset (facial expression recognition) se entrena un modelo de redes neuronales convolucionales en Keras (a destacar el uso de batch normalization, así como global average pooling en lugar de fully connected layers).

El robot utilizado fue un TurtleBot.

Modelo en Tensorflow de reconocimiento de voz: Speech to Text

Para finalizar, y relacionado con el proyecto anterior, Javier Moralo (Data & AI Creative en Datahack), expone su ‘Modelo en Tensorflow de reconocimiento de voz: Speech to Text’.

En el habla la información es de tipo secuencial, por tanto pensamos en un modelo de redes neuronales recurrentes, o lo que es lo mismo, redes neuronales con memoria.

Encontramos el problema de las long term dependencies (la información que se pasa de una palabra a otra se pierda en el caso de palabras alejadas).

Esto se aborda de distintas maneras:

  • Usando modelos de tipo: GRU (gated recurrent unit), LSTM (long short-term memory), BRNN (redes neuronales recurrentes bidireccionales).
  • Encoder-decoder: 2 redes neuronales recurrentes, donde la salida de una es la entrada de otra.
  • Mecanismos de atención: procesa la sintaxis por partes, imitando el patrón humano.

El modelo se entrena con un dataset basado en audiolibros y e-books, haciendo coincidir cada archivo de audio con su correspondiente párrafo.

En Tensorflow se implementa lo que ellos llaman ‘The transformer’, con una arquitectura basada en mecanismos de atención, prescindiendo de redes neuronales recurrentes, con una estructura encoder-decoder.

Para concluir, realiza una demo grabando una frase que, corriendo el Jupyter notebook correspondiente, acaba devolviéndonos el texto que procede.

Conclusiones

La jornada nos ha resultado muy interesante, tratando un amplio espectro de temas, desde el más teórico, con revisión de metodologías, hasta aplicaciones prácticas, pasando por aspectos más técnicos. Esperamos poder volver a disfrutar de eventos de esta categoría, que nos acercan un poco más al apasionante mundo del big data.

¡Gracias Datahackers!

Autor:

Cooking data at Metriplica.

Leave Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.