Se ha dicho, y lo repetiremos, que “los datos son el nuevo petróleo”. Los volúmenes de datos y la cantidad de canales a través de los cuales fluyen esos datos están explotando. En 2016, creamos más datos que los 5.000 años anteriores de existencia, aproximadamente 2,5 quintillones de bytes (eso equivale a unos 10 millones de discos Blu-ray) por día. Y con la proliferación de datos provenientes de sensores (IoT) y dispositivos portátiles, la ola de datos solo crecerá con el tiempo. Sin embargo, con todos esos datos, menos del 0,5% se analiza alguna vez. ¿Qué? El obstáculo, según el pionero del pensamiento computacional Stephen Wolfram, es doble: accesibilidad e integración. En realidad, nuestros datos más útiles no se capturan de una manera que los haga fácilmente accesibles, ya sea que se almacenen fuera de nuestro alcance o que existan en una forma que dificulte cualquier tipo de conocimiento accionable. No estamos pidiendo mucho, en realidad. Simplemente queremos poder hacer preguntas a nuestros datos y obtener respuestas útiles.
Pero no todo está perdido. Hemos avanzado mucho en nuestra capacidad para recopilar y procesar datos a una velocidad asombrosa. Consideremos esto: al gobierno de Estados Unidos le llevó siete años procesar y analizar los datos recopilados en el Censo de 1880. ¡Siete años! Desde 1880, hemos visto el surgimiento de la informática (gracias a la “máquina tabuladora”, el censo de 1890 solo tardó 18 meses en completarse) y ha sido una carrera frenética por descubrir formas más fáciles y económicas de recopilar datos y formas más rápidas y económicas de almacenar y recuperar dichos datos. A partir de ese censo de 1890, y de manera exponencial después del avance de IBM en los años 50, el almacenamiento de datos se volvió cada vez más asequible y la recuperación de datos se aceleró. Y luego llegaron los años 80. Podemos agradecer a los años 80 por cualquier número de sus valiosas contribuciones a la sociedad. Con Pac Man y los jeans lavados con ácido, los años 80 trajeron las bases de datos relacionales (RDB) que permitieron a los usuarios escribir SQL para recuperar datos, simplificando en gran medida el proceso de recuperación de datos. La década del Trapper Keeper también trajo el “almacén de datos”. Propuesto por el “padre del almacenamiento de datos”, Bill Inmon, los almacenes de datos están optimizados para el tiempo de respuesta a las consultas, perfectos para el análisis y la generación de informes de datos. En rápida sucesión, Howard Dresner (de la fama de Gartner) sugirió el término “Inteligencia de Negocios” como una frase general para incluir “conceptos y métodos para mejorar la toma de decisiones empresariales mediante el uso de sistemas de soporte basados en hechos”. Si bien ese término tardó décadas en hacerse realmente popular, la confluencia de estos factores sentó las bases para la capacidad de inteligencia de negocios y análisis que vemos hoy en día.
Para leer el artículo completo, haga clic aquí.
La Visualización de Datos
Centrémonos en la visualización de datos por un momento. Muchos de los temas que se discuten sobre el progreso de los “big data” o las posibilidades que ofrece se centran en la tecnología que impulsa esta ola o en el “por qué” detrás de esa tecnología. Sin embargo, la visualización nos lleva a la pregunta del millón: “¿Cómo utilizaremos estos datos?”. La visualización de datos nos remonta hasta René Descartes en el siglo XVII. Conocemos a Descartes de Filosofía 101 (“Pienso, luego existo”), pero como muchos grandes pensadores, sus intereses se expandieron a través de muchos campos, uno de ellos siendo las matemáticas. Descartes basó sus principios filosóficos en la idea de que la duda era una debilidad (una simplificación muy básica de toda una vida de trabajo) y que se debía reconsiderar cualquier duda hasta establecer una base sólida de creencia. Curiosamente, esta perspectiva se reflejó en su trabajo sobre matemáticas y dio origen a lo que es la pesadilla de los estadísticos de secundaria, el gráfico de coordenadas cartesianas o ejes x e y. No es sorprendente que el apetito de Descartes por la certeza se expresara en la visualización de datos. Muchos estudios han demostrado que el cerebro puede procesar información visual mucho más rápidamente que la información verbal (o nodos y relaciones conceptuales, por ejemplo). El procesamiento visual preatento es el proceso que tiene lugar cuando el cerebro se presenta con información visual, es el procesamiento preconsciente de esos datos. A lo largo de una serie de etapas, cada una manejada por neuronas entrenadas para percibir el mundo, este proceso hace que el análisis de datos sea más eficiente y, a menudo, más certero. Veo, por lo tanto, es.
Implicaciones de la Inteligencia de Negocios en los Servicios Financieros
En un artículo titulado “BI en tiempo real: una perspectiva bancaria”, TWDI concluyó que la banca ha seguido el ritmo de la adopción de la Inteligencia de Negocios y la Analítica Visual, pero advirtió que la mayoría de las aplicaciones siguen siendo desequilibradas. En efecto, los bancos han aprovechado la analítica para uso estratégico, pero los datos operativos siguen relativamente intocados. Estos datos operativos, según el mismo estudio, son donde las organizaciones de servicios financieros pueden obtener información valiosa para su uso en ventas cruzadas o escenarios de refinanciamiento. Entonces, si bien la mayoría de la Inteligencia de Negocios puede demostrar un impacto empresarial, la presentación de datos operativos y empresariales en armonía expone el punto óptimo para obtener ingresos inmediatos.
En conclusión
La capacidad de recopilar, almacenar y recuperar datos ha avanzado enormemente en los últimos años y ese progreso se está fusionando con los 2,5 quintillones de bytes de datos que producimos cada día para presentar una oportunidad fascinante. Sin embargo, esta oportunidad debe ser accesible para aquellos que la necesitan. No hay escasez de especulaciones sobre la aplicación de estos datos, pero ciertamente están surgiendo hilos comunes. Estas son las tendencias que estamos viendo:
- Uso de la Inteligencia Artificial para tareas de alto volumen y repetitivas.
- Análisis de big data para gobernanza o ventaja competitiva.
- Enfoque en aplicaciones impulsadas por el negocio que brindan casos de uso operativos y analíticos.
- Agilidad de datos en evolución, o el progreso de los modelos analíticos para comprender los datos en contexto y tomar medidas empresariales.
- Maximización del impacto de los microservicios con el aprendizaje automático.
- Visualización de datos para la toma de decisiones operativas y empresariales.
En resumen, la visualización de datos desempeña un papel fundamental en la inteligencia de negocios. Nos permite comprender y analizar los datos de manera más eficiente y certera. En el sector de servicios financieros, la inteligencia de negocios puede tener un impacto significativo en la generación de ingresos al presentar datos operativos y empresariales en armonía. El futuro de la inteligencia de negocios y la analítica es emocionante y prometedor, y la visualización de datos es una herramienta clave en este viaje hacia la toma de decisiones basada en hechos.


