El big data se ha convertido en una herramienta fundamental para las organizaciones en la actualidad. Sin embargo, muchas de ellas se enfrentan a dificultades para obtener valor de sus datos. Según un informe de la empresa de big data Syncsort, existen varios obstáculos que impiden que el big data sea efectivo.
El informe revela que, aunque cada vez más organizaciones priorizan la analítica de big data en sus iniciativas de TI, muchas se enfrentan a problemas relacionados con la recopilación y el aprovechamiento de esta información. Además, el informe también destaca las iniciativas empresariales más comunes para el año 2019, entre las que se encuentran la computación en la nube/híbrida, la modernización de la infraestructura, la gobernanza de datos y la analítica avanzada/predictiva.
Curiosamente, a pesar de que el 68% de los encuestados afirma que sus esfuerzos de analítica de datos se ven obstaculizados por la fragmentación de datos, solo el 25% considera que la analítica de datos es una prioridad para el año 2019. Esto plantea la pregunta: ¿por qué el big data no es más efectivo?
Una de las conclusiones del informe es que “los profesionales tienen dificultades para proporcionar datos a los usuarios empresariales”, y señala la fragmentación de datos como una de las principales razones de esta dificultad. Los datos fragmentados se refieren a cualquier información que está desconectada del resto de la organización, lo que dificulta o imposibilita su análisis a nivel empresarial.
A pesar de los problemas de acceso a los datos, solo el 38% de los encuestados planea priorizar la mejora del acceso a los datos para la toma de decisiones en 2019. En lugar de mejorar el acceso a los datos, la mayoría de las empresas están planeando iniciativas de TI que se centran en aumentar la eficiencia, mejorar la experiencia del cliente y reducir costos, lo cual podría tener un efecto directo en la efectividad del big data, para bien o para mal.
Las respuestas dadas a la pregunta de por qué las empresas no son efectivas para obtener información del big data son un tanto desalentadoras: el 53% afirma que su equipo carece de habilidades o personal de TI para extraer información significativa de los datos, el 50% dice que carece de herramientas para alimentar aplicaciones secundarias con los datos adecuados en el momento adecuado, el 44% simplemente no tiene tiempo para analizar los datos y el 31% afirma que su organización no ha invertido lo suficiente en plataformas de analítica.
Es posible que los objetivos empresariales y de TI no sean la imagen completa, especialmente si consideramos la falta de adopción de los “data lakes” (para aquellos que no están familiarizados con los “data lakes”, se trata de lo opuesto a la fragmentación de datos: en lugar de mantenerlos separados en silos, todos los datos sin procesar de una organización se almacenan juntos en un repositorio masivo y se clasifican posteriormente). Solo el 9% de los encuestados afirma haber utilizado “data lakes” durante cinco o más años, mientras que el 24% tiene menos de dos años de uso y el 23% aún está evaluando si utilizar un “data lake” o no. La falta de profundidad en los datos empresariales no fragmentados puede obstaculizar los resultados, lo que hace que incluso el análisis más exhaustivo se vea limitado por la falta de historial.
En conclusión, el big data puede ser una herramienta poderosa para las organizaciones, pero su efectividad se ve obstaculizada por varios factores. Es fundamental abordar la fragmentación de datos, mejorar el acceso a los datos y contar con las habilidades y herramientas adecuadas para extraer información valiosa. Solo así las organizaciones podrán aprovechar al máximo el potencial del big data y obtener los insights necesarios para tomar decisiones estratégicas.