En la última década, la mayoría de las startups tecnológicas se han dedicado a desarrollar software para la nube o a ejecutar sus aplicaciones en la nube. Se ha vuelto tan popular que muchos inversores de capital de riesgo simplemente no invertirán en ninguna tecnología que no esté basada en la nube. Con la nube más popular que nunca, puede parecer herejía decir que todo está a punto de cambiar, pero eso es exactamente lo que sucede con la tecnología y la innovación. Tan pronto como te sientes cómodo, todo cambia. Creo que la próxima era de la computación cambiará el enfoque hacia lo que se conoce como “edge computing”, que en muchos aspectos es lo opuesto a la nube. Sí, esto suena más como un ciclo de tendencias de moda donde alternamos entre corbatas anchas y corbatas estrechas sin motivo aparente, pero ese no es el caso. Requisitos específicos están impulsando esta necesidad de cambio.
Hoy en día, la mayoría de las aplicaciones ofrecen contenido a las personas. Video, música, Alexa, Siri y todo tipo de aplicaciones dependen casi exclusivamente de la nube para sus necesidades de computación y almacenamiento de datos. Esta centralización (en nubes masivas) es muy económica para el productor. El ancho de banda de la red ya no es un problema importante. Si bien hay un ligero retraso en cualquier interacción con la nube, en su mayor parte, ese medio segundo de retraso está dentro de nuestra tolerancia de ser “en tiempo real”. Sin embargo, el enfoque de muchas aplicaciones de próxima generación no se trata de interactuar con las personas en absoluto; se centra en la interacción máquina a máquina. Conceptos como el Internet de las cosas (IoT), el aprendizaje automático y la inteligencia artificial (IA) implican la recopilación y el procesamiento de cantidades increíbles de datos. La mayoría de estos datos de sensores no se generan en la nube, se crean en el edge.
El desafío para los ingenieros se reduce fundamentalmente a lidiar con la única “velocidad” en la tecnología que no sigue la Ley de Moore. La velocidad de la luz. En pocas palabras, el tiempo que tarda una señal en viajar desde el punto A al punto B es exactamente el mismo que hace 100 años y es poco probable que cambie. El término que usamos en informática es latencia: el período de tiempo que tarda en ocurrir una determinada acción. En términos informáticos, la latencia a menudo es un factor de velocidad más importante que el ancho de banda (que es una medida de cuántos datos pueden pasar por un circuito dado). Una simple analogía para la latencia y el ancho de banda es una línea de ensamblaje. Piensa en la latencia como la cantidad de tiempo que se tarda en construir un widget y el ancho de banda como el número total de líneas de ensamblaje individuales. En este caso, si pudieras reducir a la mitad el tiempo que se tarda en construir el widget, podrías satisfacer las necesidades de producción con la mitad de las líneas.
El edge computing se refiere a la idea de llevar el procesamiento de datos y la computación lo más cerca posible de donde se generan los datos, en lugar de enviarlos a la nube para su procesamiento. Esto reduce la latencia y permite una mayor velocidad de procesamiento. Con el crecimiento del Internet de las cosas y la cantidad masiva de datos generados por los dispositivos conectados, el edge computing se está convirtiendo en una necesidad para muchas aplicaciones.
En resumen, si bien la nube ha sido el enfoque dominante en la última década, el futuro de la computación se dirige hacia el edge computing. La necesidad de reducir la latencia y procesar grandes cantidades de datos en tiempo real está impulsando este cambio. A medida que la tecnología continúa evolucionando, es importante estar al tanto de las últimas tendencias y adaptarse a ellas para seguir siendo competitivo en el mundo digital.
Fuente del artículo: Forbes


