Del servidor a la nube: ¿un viaje de ida y vuelta?

Actualidad - Internacional 12 de febrero de 2024
Cloud-computing-200-Degrees-Pixabay-1024x633

A finales de 2022, un estudio de 451 Research reveló que, en los últimos doce meses, el 54% de las organizaciones encuestadas había trasladado cargas de trabajo o datos fuera de la nube pública, citando cuestiones como la seguridad de la información y la soberanía de los datos como principales preocupaciones. Además, un porcentaje significativo de estas organizaciones había cancelado más de la mitad de sus despliegues basados en la nube, evidenciando un movimiento significativo hacia la llamada repatriación, o cloud repatriation.

Las razones detrás de este cambio, del que se lleva hablando desde hace ya más de tres años, incluyen no solo la seguridad de la información, sino también problemas administrativos de localización de datos, costes imprevistos y dificultades en la gestión del gasto en la nube. A pesar de la promesa de escalabilidad, eficiencia y ahorro de costes que inicialmente atrajo a las empresas hacia los servicios en la nube, muchas parecen estar reconsiderando su conveniencia y, en algunos casos, volviendo a soluciones de infraestructura privada dedicada o a centros de datos propios.

Aunque el cloud computing ofrece, en principio, beneficios de muchos tipos para compañías de todos los tamaños, requiere también un importante cambio de mentalidad y una adaptación si se quiere hacer de manera razonablemente optimizada, y no son pocas las empresas que encuentran que los costes aumentan con el tiempo debido a la complejidad de las cargas de trabajo, de unas transferencias de datos cada vez más grandes, y del coste de los servicios en la nube. Además, muchas empresas a menudo se quejan de que los proveedores de cloud computing les aplican tarifas ocultas después de cambiar a la nube. Por otro lado, la creciente dependencia de las empresas en los servicios de cloud computing ha comenzado a revelar, además de esos costes crecientes, algunos problemas de seguridad y de cortes en el servicio. Empresas de todos los tamaños que habían confiado sus sistemas digitales a proveedores de cloud computing grandes afirman estar reconsiderando su estrategia debido a costes inesperados, problemas de seguridad y a la poca influencia que pueden ejercer en las decisiones sobre la tecnología utilizada.

La decisión de repatriar cargas de trabajo de la nube de nuevo a infraestructuras propias no debería ser tomada a la ligera. Las organizaciones tienen que evaluar cuidadosamente sus necesidades específicas, considerando tanto los beneficios como los desafíos de la repatriación. El control sobre los datos, la seguridad, el cumplimiento normativo y el coste son factores críticos en esta decisión: mientras algunas empresas descubren ventajas en la flexibilidad y el control que ofrece la infraestructura dedicada, otras pueden encontrar que una estrategia híbrida, combinando servicios en la nube pública con soluciones locales, se ajusta mejor a sus necesidades operativas y estratégicas.

En la práctica, tan malo pudo ser hacer una migración a la nube mal optimizada, y que por tanto, no sirvió para obtener costes significativamente más bajos – o incluso los encareció – como tratar ahora de volver atrás, después de haber relajado muchos de los factores de seguridad o, sobre todo, de problemas con el hardware, a terceras compañías. De hecho, esa razón, y no el coste, suele ser una de las razones más potentes argumentadas por los CIOs que llevaron a cabo la migración a la nube: que los problemas de hardware dejaban de ser suyos y pasaban a ser de otros, y a regirse por un acuerdo de nivel de servicio (SLA).

La repatriación de la nube refleja seguramente un cambio hacia una mayor autonomía y control por parte de las empresas sobre sus cambiantes necesidades de infraestructuras tecnológicas, algo que sin duda subraya la evolución constante de las estrategias en la era digital. Pero podría también ser una tendencia envenenada, que supone volver a una era en la que todas las responsabilidades caían en un departamento que, por simple escala, nunca va a estar tan actualizado en políticas de seguridad, de actualización o de optimización de recursos como puede estarlo un proveedor específicamente especializado en ello. Algunas tendencias, como el edge computing – tendencia a situar el procesamiento de los datos cerca de las fuentes de éstos, con el fin de mejorar la latencia – apuntan al desarrollo de infraestructuras mixtas, y de hecho, es muy posible que lo que termine ocurriendo sea precisamente eso: que la verdad esté en algún punto intermedio.

En tecnología, resulta bastante habitual encontrarnos con este tipo de movimientos pendulares, y nunca están exentos de complicaciones. Como nota mental para aquellos CIOs que estén planteándose decisiones de este calibre, sería recomendable que no interpretasen las tendencias como quien observa la moda: no siempre lo que una empresa afirma que le funciona bien sirve como guía para otras. Los argumentos que sirvieron para llevar a cabo la transición a la nube siguen ahí, y aunque muchos proveedores de cloud computing hayan aprovechado la coyuntura, que sin duda lo han hecho, para subir precios o fijar cláusulas abusivas, hablamos de un movimiento que tenía y tiene mucho sentido.

Nota:enriquedans.com

Te puede interesar