El secreto de la virtualización

Pocas tecnologías han obtenido tanta atención a lo largo de la década pasada como la virtualización de servidores. Y por un buen motivo. Hace diez años, la organización promedio sufría de problemas graves de servidores dispersos. “Una aplicación, un servidor” fue el grito de batalla entonces. La seguridad y el desempeño previsible tuvieron prioridad sobre la eficiencia y la utilización de los servidores.

Los hipervisores y las máquinas virtuales han ayudado a poner orden en este asunto.  Al permitir que múltiples aplicaciones compartan memoria, poder de procesamiento y otros recursos en el mismo servidor físico host, la virtualización ha reducido los costos y ha hecho que los centros de TI sean más ágiles. ¿Necesita poder de cómputo para una nueva aplicación de negocios? ¡Simplemente obtenga una máquina virtual en su servidor host y listo! Se pondrá en marcha.

Pero existe un lado oscuro de la virtualización. Es un secreto que los grandes centros de TI conocen bien pero que casi nunca mencionan a la prensa, y ciertamente no es culpa de los vendedores que ofrecen soluciones de virtualización. El secreto bien guardado consiste en lo siguiente: Las tecnologías de virtualización tradicionales son magníficas para consolidar el trabajo de recursos pero no son nada adecuadas para las aplicaciones que las organizaciones dependen para ejecutar sus procesos más importantes, delicados y críticos para el negocio – como aquellos que guían las relaciones con los clientes, las transacciones financieras y las cadenas de suministro: aplicaciones de misión crítica, en otras palabras.

Los motivos tienen que ver, en gran medida, con el desempeño y la seguridad. La virtualización trabaja bajo el principio de compartir recursos. Los recursos de cómputo y de memoria de los servidores físicos se agrupan en un entorno virtual. Las diferentes aplicaciones posteriormente van a esa agrupación para competir por recursos cuando los necesiten.

Ese principio trabaja bien para aplicaciones de nivel más bajo que no requieren muchos recursos. Las aplicaciones de misión más crítica no juegan este juego tan bien. Se sabe, por ejemplo, que las aplicaciones de planificación de recursos empresariales (ERP) requieren de muchos recursos. Colóquelas en un entorno compartido y de repente usted tendrá un escenario darviniano donde las aplicaciones mayores toman todos los recursos y crear cuellos de botella para todo mundo.

La seguridad y la conformidad representan la segunda gran área de preocupación cuando tiene que ver con colocar aplicaciones de misión crítica en entornos virtualizados. Debido a que los servidores virtuales comparten recursos, es más difícil (si no imposible) aislar o endurecer aplicaciones y cargas de trabajo específicas para seguridad. Por lo que auditar dichas aplicaciones para estar en conformidad llega a ser un problema.

Por todos estos motivos, la virtualización ha golpeado el techo cuando tiene que ver con el mundo de aplicaciones de misión crítica. Gartner estima que aproximadamente 70% de los entornos de servidor fueron virtualizados en el 2013. El restante 30%, que representa en gran medida cargas de trabajo de misión crítica complejas, de transacciones intensas, permanece sin ser tocado por la virtualización.

Particionamiento seguro: una tercera vía

Hasta hace poco, los directores de informática que intentan reducir costos y aumentar la flexibilidad de sus aplicaciones de misión crítica, han enfrentado una elección difícil: tomar el riesgo de virtualizar estas cargas de trabajo y esperar que no se topen con contención de recursos, o mantener sus aplicaciones de misión crítica apartadas en servidores dedicados, caros y subutilizados; lo que realmente no es una opción.

Pero con la aparición del cómputo en estructura, que utiliza interconexiones de alta velocidad para enlazar holgadamente recursos de cómputo en entornos elásticos, las organizaciones ven una nueva alternativa a la virtualización, una que entrega ahorros y flexibilidad de servidores virtualizados sin sacrificar rendimiento y seguridad.

Esa opción, coloquialmente llamada “particionamiento seguro”, implica crear particiones dedicadas dentro de un entorno de estructura basado

Acerca de 

Periodista especializado en Publicidad y Mercadotecnia, pionero en Medios Digitales y Director del concepto Multipress.com.mx

¡Tu opinión nos interesa! Deja un comentario