La atractiva combinación de agilidad,
escalabilidad y ahorro económico ha cimentado una gran esperanza sobre el
potencial del Cloud Computing para mejorar las finanzas de una empresa.
Sin embargo, las “matemáticas de la economía” del
Cloud Computing aún precisan de una mejor comprensión y de un cierto
refinamiento ya que, por una parte, el despliegue de recursos en una Cloud
(consecuencia de la demanda de servicios) no se puede caracterizar fácilmente ni
se pueden saber los recursos asignados mediante el uso de modelos simples, y por
otra parte sucede que la complejidad de los precios de los Servicios de Cloud
Computing es un aspecto que se “mueve” rápidamente (tanto en tarifas, como en
modelos de tarificación) por lo que su conocimiento en todo momento queda, en
general, más allá de la capacidad humana y resulta difícil actuar y tomar las
mejores decisiones en cada momento (de hecho este aspecto es la fuente del
negocio de los “Cloud Services Brokers” que empiezan a surgir).
De alguna forma estos aspectos quedan resumido en
la frase de James Staten (vice-presidente de Forrester Rearch Inc) que decía:
“todos creemos que el Cloud Computing ayuda a ahorrar en costes económicos,
pero nadie está seguro de cómo maximizar ese ahorros”.
En consecuencia, para garantizar un buen
rendimiento operativo (SLAs de rendimiento o prestaciones) en muchas ocasiones
se realiza un sobre-aprovisionamiento (asignación de más recursos de los
necesarios) con un “margen de seguridad” suficiente para garantizar que los
requisitos de rendimiento siempre se cumplen. Curiosamente, esta asignación de
más recursos de los necesarios, era uno de los aspectos que se supone se
pretende resolver el tema con el Cloud Computing. Por lo tanto la
“gestión de la capacidad” (tal como se define en la ISO 20.000
en ITIL) se convierte en uno de los procesos claves que no se
puede gestionar con hojas de cálculo al estilo como se hacía, por citar un
ejemplo, en los DataCentres antes de la irrupción del Cloud Computing.
En general, es muy difícil, por no decir
imposible, saber exactamente cuánto “margen de seguridad” se requiere en
cualquier momento, y mucho menos cuando la demanda de recursos cambia de forma
tan dinámica como lo hace en el CloudComputing. Una opción común, por lo tanto,
ha sido el exceso de aprovisionamiento de recursos (en algunos casos en
cantidades excesivas) con el fin de tener la certeza absoluta de que las
demandas de rendimiento serán satisfechas.
En las Cloud Públicas este sobre-dimensionamiento
se da principalmente en el lado del Proveedor de Servicios Cloud (sobre todo
cuando da servicios del tipo SaaS con unos SLAs estrictos, o para poder asegurar
el atender una demanda muy variable de servicios IaaS), pero también en el lado
del Usuario (especialmente cuando contrata servicios Iaas, o SaaS con SLAs muy
relajados) pues en general, hoy en día, muchos Proveedores de Servicios Cloud
ofrecen sus servicios con SLAs muy poco comprometidos por lo que transfieren el
problema al usuario que normalmente se sobre-aprovisiona de servicios Cloud para
poder garantizar poder hacer frente a picos de demanda.
En las Cloud Privadas, el problema del
sobre-dimensionamiento se acentúa ya que proveedor y cliente son integrantes de
la misma empresa; por lo que en estas nubes cobra especial relevancia el proceso
de gestión de la capacidad. Por otra parte, este aspecto puede ser una de las
razones por las que una empresa pueda interesarle desplegar una Cloud Híbrida:
con su propia cloud resuelve sus necesidades conocidas y las predecibles, y
traslada los problemas de su necesidades aleatorias o puramente puntuales a la
parte que externaliza, por lo que el proceso de gestión de la capacidad puede
ser resuelto con un menor impacto en “CAPEX ocioso” (si se me permite la
expresión).
En cualquier caso, el sobre-aprovisionamiento de
recursos Cloud, en ausencia de otras opciones, se está convirtiendo en una
práctica generalizada. El resultado es que muchas organizaciones están
invirtiendo en recursos Cloud que simplemente no utilizan. Los recursos no
utilizados producen, por supuesto, un impacto negativo sobre la recuperación de
la inversión realizada (ROI).
Para hacer frente a este problema Tissat ha
potenciado su producto I2TM (software que da soporte a los procesos ISO 20.000
desarrollado en Java) con elementos para poder realizar una “gestión dinámica de la capacidad”
(merced al proyecto de I+D+i “Predictive I2TM”, cofinanciado por el subprograma
“Avanza I+D+i” del Ministerio de Industria, Comercio y Turismo), y en la que
seguimos investigando para mejorarla e incorporarle nuevas funcionalidades,
prestaciones y servicios.