Un nuevo paradigma BI está llegando

Por Flavio Fazzano,
socio director de IT Maker

Logo-Itmaker

Vamos a partir de un hecho, todas las organizaciones están invirtiendo (algunas más fuertemente que otras) en iniciativas que están orientadas a Inteligencia Artificial (IA) y Datos con el fin de poder tomar acciones informadas de manera más ágil y más precisas.

A medida que los datos, el análisis y la IA se integran en las operaciones diarias queda claro que se necesita un enfoque radicalmente diferente de la arquitectura que dará soporte a todo este volumen que está arribando.

En esta publicación, los llevaré de viaje a través del Data Pipeline Analítico, para saber qué es, y en qué se diferencia del Data Pipeline Tradicional. Data Pipeline Analítico es un framework que combina arquitectura más un conjunto de herramientas que van más allá del tradicional movimiento de datos, su transformación y posterior automatización.

Grafico nota ITMaker abril21
Encontrar y liberar

La primera parte del Data Pipeline Analítico es disponibilizar los datos en tiempo real y listos para el análisis en una nube (la que se elija). Esto se logra mediante la automatización del streaming de datos a medida que va sucediendo (CDC = change data capture), el refinamiento, la catalogación y la publicación.

Hay que “liberar” los datos de los silos, tomándolos sin procesar (datos internos, externos y derivados) de donde sea que estén alojados (en la nube, multi-nube o en las instalaciones propias) y entregarlos en un flujo continuo adonde queremos llevarlo, reflejando así los cambios en tiempo real.

Una vez que se liberan los datos, están listos para ser analizados y esta arquitectura aplica los siguientes pasos:

  • linaje de datos: muestra gráficamente de donde partieron y los pasos que fue dando en el recorrido
  • creación de perfilado inteligente: por ejemplo, reconocer automáticamente si un dato es confidencial y ofuscarlo
  • catalogación: para facilitar que los usuarios encuentren fácilmente el dato que necesitan analizar en el lenguaje de negocio.
Comprender

En la siguiente etapa de nuestro viaje a través del Data Pipeline Analitico, los datos se le disponibilizan o publican al negocio. Acá, los usuarios pueden comenzar a comprenderlos y aplicar lógicas de negocios de manera gobernada.

Al aprovechar la potencia del motor de cálculo asociativo exclusivo de Qlik, los usuarios pueden aplicar, sobre la marcha, una nueva lógica de transformación para tomar nuevas decisiones de manera muy dinámica, tal como se lo requiere en estos momentos.

Acción

En el tramo final de nuestro viaje, vemos que los datos, que ya están listos para el negocio, se vuelven procesables. Este es el diferenciador clave de la inteligencia activa y lo que potencian los Data Pipeline Analíticos inteligentes.

El sistema incorpora analítica dentro de un workflow automatizado, disponibiliza alertas sofisticadas a medida que los cambios ocurren en tiempo real y dispara workflows de trabajo con el objetivo de optimizar el negocio momento a momento. A todo este flujo lo llamamos Inteligencia Activa.