En la actualidad, las organizaciones ya no pueden esperar hasta mañana para saber lo que sucedió hace dos minutos, ni pueden permitirse esperar. Muchas decisiones operativas y críticas para la misión dependen de cuán rápido y precisamente se pueda analizar la creciente cantidad de datos que ingresan a la organización. A medida que el panorama arquitectónico se vuelve más complejo, los profesionales de la analítica de big data deben encontrar una manera de obtener información de sistemas incompatibles, a pesar de la inconsistencia de los datos. Añadir más capacidad, hardware y personal es una solución temporal y costosa que no necesariamente se traduce en mejores y más rápidos conocimientos. A medida que las organizaciones luchan por mantenerse al día con la tecnología en constante evolución, están surgiendo cinco tendencias dentro de la analítica de big data que permiten a las organizaciones manejar el volumen, la velocidad y la ubicación de los datos para utilizarlos estratégicamente.
1. Uso de GPUs para manejar el volumen y la velocidad de los datos
La analítica de big data se está generando a partir de fuentes en tiempo real como sensores y dispositivos (teléfonos celulares, datos de telemática de automóviles, flujos de redes sociales, registros de servidores y flujos de clics). Gran parte de estos datos requiere un análisis inmediato para obtener información valiosa mientras la información aún es relevante. Por ejemplo, las compañías de servicios públicos están obteniendo información en tiempo real de medidores inteligentes para equilibrar continuamente la red, prevenir interrupciones del servicio y reducir las emisiones. Los sistemas heredados, que utilizan arquitecturas de CPU con baja paralelismo, luchan por mantenerse al día con el volumen y la velocidad de los datos. Como resultado, obligan a los departamentos de TI a agregar más hardware y contratar más ingenieros de datos para preagregar o indexar los datos, solo para que se ajusten a las herramientas convencionales. Esto ralentiza todo el proceso de datos y limita el tipo y la cantidad de información disponible. Las unidades de procesamiento gráfico (GPUs), en combinación con las arquitecturas de CPU tradicionales, están acelerando una nueva generación de motores de bases de datos de alto rendimiento y sistemas de análisis visual. Estas soluciones basadas en GPU permiten un procesamiento paralelo masivo y pueden completar una consulta en milisegundos, lo que llevaría horas en una plataforma heredada.
2. Agilidad operativa
En el mundo de alta velocidad de hoy en día, la mayoría de los analistas no tienen el lujo de levantarse a tomar una taza de café mientras esperan a que su consulta termine o su panel de control se actualice. Si la experiencia analítica es demasiado lenta, los usuarios exploran menos y encuentran menos conocimientos. La tendencia es proporcionar a los usuarios una experiencia analítica extrema, sin una latencia discernible al interactuar con los datos. Los usuarios comienzan a disfrutar nuevamente del análisis y la organización se beneficia al avanzar hacia un modo de análisis continuo, en lugar de ciclos de análisis diarios, semanales o mensuales.
El futuro del análisis de datos está en constante evolución y estas tendencias emergentes en la analítica de big data están permitiendo a las organizaciones aprovechar al máximo sus datos. Al utilizar GPUs para manejar el volumen y la velocidad de los datos, y al enfocarse en la agilidad operativa, las organizaciones pueden obtener información valiosa de manera más rápida y eficiente. Estas tendencias están allanando el camino hacia un futuro en el que el análisis de datos se convierte en una herramienta poderosa para la toma de decisiones estratégicas.


