Artículos guardados
Big Data, ¿y ahora qué?

Actualidad Banca digital General

Big Data, ¿y ahora qué?

Imaginemos que ya hemos decidido desarrollar un proyecto de big data y hemos superado todas las fases: desarrollo, implementación y puesta en producción. Tenemos que pasar al siguiente nivel: obtener esos beneficios que nos han prometido. Hemos invertido cantidades ingentes en guardar miles, millones de datos, y nos han vendido que el big data es una maravilla, pero nos sentimos frustrados.

Una queja reiterada entre algunos directivos es que los modelos, aun siendo buenos, no responden a las preguntas de negocio, o no saben cómo hacerlo para que den las respuestas que ellos esperan.

Pablo Haya, director de Social Business Analytics del Instituto de Ingeniería del Conocimiento (IIC), cree que la tecnología de captación de datos ha avanzado mucho más rápido que la teoría de lo que podemos hacer con ellos. Concluye:

“Creo que solo se está sacando partido al 5 % de los datos”.

Lo (pen)último en analítica avanzada de datos es el data lake, la inteligencia artificial o el machine learning, que van un paso más allá del big data, que ya empieza a quedar obsoleto. Terminología que los grandes medios de comunicación se ven obligados a utilizar para estar a la moda y que ayudan a difundir mediante artículos apocalípticos que auguran el hundimiento de todas aquellas compañías que no se vuelquen en desarrollar todas estas modas.

¿Qué es data lake?

Como su nombre indica, se trata de un gran lago en el que meter toda la información, en un único lugar, incluso datos desestructurados. En un data lake recoges la información y la almacenas, pero no la limpias, no alteras el original. Es donde las empresa concentran “toda” su información, en lugar de tenerla dispersa en departamentos separados. Más adelante ya veremos qué hacemos con todos estos datos. La pregunta que todo el mundo termina haciéndose es: “¿puede una empresa pagar todo el almacenamiento y capacidad de computación que requiere un data lake?”.

¿Qué posición adopta Caja de Ingenieros?

En Caja de Ingenieros estamos atentos a todo desarrollo y evolución tecnológica del mercado. Nuestros compañeros asisten a los más importantes eventos y seminarios de innovación que se imparten, participan en mesas redondas y están en proceso de formación continua. Durante 2016 y 2017, se realizó un estudio pormenorizado del impacto (y necesidades) de las tecnologías big data en Caja de Ingenieros. Aunque desde un punto de vista “tecnólogo” a todos nos hubiera gustado lanzarnos a un proyecto de este tipo, trabajar en la última moda, poder presumir con los amigos de que nosotros también estábamos trabajando en big data…, mantuvimos el sentido común y, sin dejar de estar atentos a posibles nuevas iniciativas del mercado o necesidades de Caja de Ingenieros, determinamos que la estrategia que se estaba aplicando era la mejor para la organización.

  1. Estricto cumplimiento de las normativas de seguridad del Reglamento General de Protección de Datos (GDPR – General Data Protection Regulation) en el tratamiento de los datos disponibles en el sistema de información de Caja de Ingenieros.
  2. Unificar y consolidar la información de los diferentes sistemas operativos de Caja de Ingenieros para generar un repositorio de datos coherente y consistente que nos permitiera disponer de indicadores precisos para la organización.
  3. Generar modelos de análisis que, conjuntamente con los departamentos, den respuesta a necesidades concretas y permitan disponer de los datos necesarios (no todos indiscriminadamente) para tomar decisiones de negocio.
  4. Seguimiento continuo del mercado para poder reaccionar con rapidez en caso de que las necesidades de la organización cambiaran significativamente.
  5. Identificar tecnologías, dentro del ecosistema big data, que sí sean útiles para Caja de Ingenieros. En ese sentido se está trabajando en analizar las ventajas competitivas que nos podría aportar la implantación de modelos de aprendizaje (machine learning). Este punto, siendo apasionante, os invito a seguirlo en nuestra próxima entrada del blog, dedicada monográficamente al machine learning.