El auge de la computación en la nube: ¿Por qué es una opción segura y económica?

En los últimos años, el mundo ha experimentado un rápido cambio hacia la computación en la nube, dejando atrás los sistemas tradicionales de TI. La seguridad basada en navegadores utilizando el protocolo HTTPS ha evolucionado y ahora es aceptada por los clientes como “segura”. En los últimos años, se han identificado y solucionado numerosas vulnerabilidades de seguridad en los navegadores. Un cambio importante en la industria ocurrió cuando algunos navegadores fueron creados y mantenidos como proyectos de código abierto. Esto ayudó a aumentar la seguridad gracias a una comunidad de ingenieros que revisan y actualizan el código de forma continua y sin costo alguno. Además, el hecho de que algunos navegadores actuales no estén controlados por empresas privadas también genera un elemento clave de confianza.

Llegar a este punto ha sido un largo camino, con una serie de eventos importantes en la industria y la tecnología que han contribuido a hacer posible y seguro el uso de la computación en la nube. Por ejemplo, durante aproximadamente una década antes de 2001, se construyó una capacidad de ancho de banda de red pública excesiva. Toda esta capacidad de red ayudó a abrir el camino para precios más bajos y mayor ancho de banda. A partir de 1975 y durante aproximadamente 45 años, el aumento en el rendimiento de los chips siguió la “Ley de Moore”, lo que llevó a una enorme cantidad de poder de procesamiento a precios muy bajos. Se asignó una gran cantidad de capital a la industria de la seguridad para formar nuevas empresas y lanzar productos de seguridad como firewalls, soluciones antivirus y pruebas de penetración.

A partir del año 2000, los proveedores de software comenzaron a escribir aplicaciones web diseñadas desde cero para funcionar a través de Internet. Netscape salió a bolsa en 1995 y Exodus Communications tenía un valor de 37 mil millones de dólares en 2000. Todos estos eventos se unieron en una gran confluencia para crear el auge de los proveedores de alojamiento que ofrecían servidores dedicados para alojamiento de sitios web. También proporcionaban servicios de colocación para que las empresas alquilaran espacio, energía, ancho de banda de red y más para administrar sus propios servidores. Todo esto fue un precursor del alojamiento administrado y compartido, que inició la revolución de la nube.

Cuando los proveedores de servicios comenzaron a utilizar hardware de bajo costo y alto rendimiento, ancho de banda económico, firewalls y nuevos software de virtualización como VMware, se creó la “nube”. Cuando los servidores físicos podían dividirse en cualquier número de servidores virtuales, esto representó un cambio radical y un punto de inflexión en la industria. Amazon Web Services (AWS) lanzó su primer servicio en la nube en 2004. Hoy en día, la economía impulsa las decisiones de migrar a la nube. Si eres el director de tecnología de una empresa de 500 millones de dólares, es posible que tengas un presupuesto anual de TI de 15 millones de dólares. Probablemente, el 50 por ciento del presupuesto se destine a personal, mientras que una parte significativa del presupuesto restante se podría gastar en comprar hardware y software, esencialmente tratando de replicar un centro de datos como parte de tu infraestructura de TI. Sería imposible para tu equipo lograr el mismo nivel de seguridad, redundancia y tiempo de actividad que podrías adquirir de un proveedor de alojamiento en la nube, así como el uso de aplicaciones en la nube desarrolladas comercialmente.

Hace dos décadas, si las oficinas de una empresa estaban conectadas, se hacía a través de líneas alquiladas. Hoy en día, lo más probable es que se haga a través de Internet. Los datos fluyen por la autopista de datos pública no segura, por lo que la seguridad es fundamental, especialmente a medida que más trabajadores cambian al trabajo remoto y móvil. La infraestructura y las aplicaciones están expuestas al mundo exterior. En este punto de la evolución de la nube, la mayoría de las nuevas aplicaciones en la nube 2.0 están diseñadas específicamente para la nube. Esto significa que el rendimiento y el tiempo de respuesta son mejores que en la primera generación de aplicaciones en la nube, que eran simplemente aplicaciones cliente/servidor antiguas adaptadas con interfaces web. Alrededor de 2013, la Ley de Moore comenzó a enfrentar las limitaciones de las leyes de la física. A medida que los transistores se vuelven cada vez más pequeños, son menos confiables. Los consumidores de energía informática han disfrutado de la ola de poder de cómputo económico en dispositivos cada vez más pequeños. Sin embargo, el costo de investigar, probar y fabricar cada nueva generación de chips es directamente opuesto. Todos estos costos han aumentado constantemente y se espera que aumenten exponencialmente con el tiempo. Esto es más conocido como “Ley de Rock”. Curiosamente, empresas como Facebook, Google y Amazon están generando un cambio tectónico en la industria de los chips, ya que demandan chips diferentes para impulsar la próxima generación de computación en la nube. En esencia, los chips que demandan se requieren para analizar grandes cantidades de datos en lugar de simplemente realizar cálculos. Las empresas de chips están invirtiendo en esta nueva generación de investigación y desarrollo y fabricación, dejando atrás el legado de la Ley de Moore.

Dado este importante cambio en la industria, tiene aún menos sentido que un director de tecnología invierta en crear un centro de datos independiente. Tiene sentido económico aprovechar la nueva ola de la computación en la nube.

Contenido original publicado en: http://tech.co/cloud-taking-over-traditional-it-systems-2016-01

Te puede interesar