El uso de datos masivos se ha vuelto crucial para el éxito de las empresas. Anteriormente, estos datos eran aislados, inaccesibles y en su mayoría subutilizados. Sin embargo, expertos afirman que aún hay margen para promover la interoperabilidad entre las herramientas disponibles. Pero, ¿cómo se define la “estandarización”?
Según la Universidad Northeastern, una “estándar” es un acuerdo formal sobre el significado de una colección de conceptos entre grupos, en este caso, empresas tecnológicas y empresas en general. Según un informe de la Organización Internacional de Normalización (ISO), el paradigma de los datos masivos consiste en la distribución de sistemas de datos en recursos independientes acoplados horizontalmente para lograr la escalabilidad necesaria en el procesamiento de conjuntos de datos extensos.
Una de las primeras documentaciones sobre la estandarización de los datos masivos provino de la Unión Internacional de Telecomunicaciones (UIT), que definió los datos masivos como “un paradigma para la recopilación, almacenamiento, gestión, análisis y visualización de conjuntos de datos extensos con características heterogéneas, que incluyen alto volumen, alta velocidad y alta variedad”. La ISO definió la ingeniería de datos masivos como tecnologías de almacenamiento y manipulación de datos que aprovechan una colección de recursos acoplados horizontalmente para lograr una escalabilidad casi lineal en el rendimiento.
La estandarización puede aumentar la interoperabilidad entre las herramientas
Según un estudio reciente de IDC, nos estamos acercando rápidamente a la era de los datos, con la esfera de datos global creciendo a un trillón de gigabytes para 2025. Esto será diez veces los 16.1 ZB de datos generados en 2016. IDC también destaca que alrededor del 20% de los datos en el mundo serán críticos para nuestra vida diaria para 2025.
A medida que los datos y las herramientas relacionadas con los datos crecen, ¿cómo pueden los líderes empresariales determinar qué datos son los más importantes? En la última década, ha habido un aumento en el número de herramientas de datos masivos y análisis de datos desarrolladas por diferentes organizaciones, pero como señaló Jim Melton, editor de ISO/IEC 9075 (SQL) a la ISO, estas herramientas carecen de interoperabilidad.
Según el Dr. Klaus-Peter Eckert, un experto en interoperabilidad en sistemas distribuidos, todos los bloques de construcción técnicos están presentes, pero la herramienta clave que falta es la interoperabilidad. Eckert habló con la ISO y dijo: “Existe una clara falta de una arquitectura que pueda combinar los muchos componentes de las soluciones de datos masivos. Aquí es donde los estándares entrarán en juego”. Se cree ampliamente que el desarrollo de estándares abrirá el camino para la interoperabilidad.
Fuente del artículo: Analytics India