El Futuro del Big Data: Tendencias Tecnológicas

El Big Data ha surgido como respuesta al crecimiento exponencial de los datos. Esto es resultado de una combinación de tendencias tecnológicas, como la ubicuidad de los dispositivos móviles, el uso generalizado de las redes sociales y el auge del Internet de las Cosas (IoT).

A continuación, se presentan las principales tendencias tecnológicas en el ámbito del Big Data, identificadas por GlobalData:

Computación en el borde (Edge Computing)

La computación en el borde se refiere al procesamiento de datos en el borde de la red, cerca de la fuente de datos. Esto implica mantener el procesamiento y análisis de datos cerca de los puntos de recolección. El crecimiento de la computación en el borde está estrechamente relacionado con el IoT. La proliferación de iniciativas empresariales de IoT y dispositivos de IoT para consumidores (como dispositivos domésticos automatizados) impulsará la demanda de soluciones de computación en el borde. La implementación de tecnologías celulares 5G será un estímulo importante tanto para el IoT como para la computación en el borde.

Computación Cuántica

La carrera por alcanzar la supremacía cuántica, es decir, el punto en el que una computadora cuántica puede realizar cálculos más rápidos que una computadora clásica, está en marcha. Google, IBM y Microsoft lideran esta carrera. IBM presentó la primera computadora cuántica diseñada para uso comercial, el Q System One, en marzo de 2019. La inteligencia artificial (IA), y en particular el aprendizaje automático (machine learning), se beneficiarán de esta tecnología. Las computadoras cuánticas podrán completar cálculos extremadamente complejos, que involucran grandes conjuntos de datos, en una fracción del tiempo. Para tareas de IA intensivas en esfuerzo, como la clasificación, regresión y agrupación, la computación cuántica abre un nuevo campo de rendimiento y escala.

Chips de IA

Las unidades de procesamiento central (CPUs) han sido la base de los centros de datos durante décadas, pero las nuevas cargas de trabajo derivadas de tecnologías como la IA y el IoT están llevando a las arquitecturas de las CPUs a sus límites. Las unidades de procesamiento gráfico (GPUs), que antes se utilizaban principalmente para juegos, pueden procesar múltiples hilos en paralelo, lo que las hace ideales para el entrenamiento y modelado de grandes modelos de datos predictivos. A medida que los criterios para los centros de datos se desplazan de la velocidad de cálculo a la velocidad de búsqueda, las GPUs están ingresando a los centros de datos. Sin embargo, aunque las GPUs son ideales para el entrenamiento de redes neuronales, los arreglos de compuertas programables en campo (FPGAs) muestran signos de ser mejores en la ejecución.

El futuro del Big Data está marcado por estas tendencias tecnológicas. La computación en el borde, la computación cuántica y los chips de IA están transformando la forma en que se procesan y analizan los datos. Estas innovaciones permitirán un procesamiento más rápido y eficiente de grandes volúmenes de datos, lo que a su vez impulsará avances significativos en campos como la inteligencia artificial, la medicina, la industria y muchos otros.

Fuente del artículo: Verdict

Te puede interesar