Articulo
28 marzo 2018

Consolidación, ¿a mayor concentración de equipos mejor eficiencia?

La mayoría de las compañías están optando por la virtualización como medio para optimizar su infraestructura IT en sus centros de datos. Los servidores físicos dedicados para cada aplicación han quedado ya como una arquitectura obsoleta, que no suele aplicarse, salvo en casos extraordinarios en los que el servidor físico no pueda virtualizarse, o la carga de ese servidor no justifique una migración a un entorno virtualizado.
"Las ventajas de los entornos virtualizados son muchas, aunque también tienen desventajas que conviene conocer y valorar."


La mayoría de las compañías están optando por la virtualización como medio para optimizar su infraestructura IT en sus centros de datos. Los servidores físicos dedicados para cada aplicación han quedado ya como una arquitectura obsoleta, que no suele aplicarse, salvo en casos extraordinarios en los que el servidor físico no pueda virtualizarse, o la carga de ese servidor no justifique una migración a un entorno virtualizado.

Los servidores físicos tradicionales de 1U, suelen tener un consumo medio de unos 400 vatios, según el fabricante, con una utilización que no suele superar el 15% de la capacidad de proceso del servidor. Por lo que, al mover estos servicios a un entorno cloud, con un servidor físico optimizado para trabajar con máquinas virtuales en ratios que van del 4:1 hasta 20:1, dependiendo de la criticidad del servicio, conseguiremos que éstos nuevos hosts trabajen a un 80% de su capacidad total de procesamiento.

Con la virtualización, no sólo conseguimos que los entornos sean más eficientes al trabajar a mayor rendimiento las máquinas físicas, sino que también tenemos las siguientes ventajas adicionales:

  • Escalabilidad: cada vez que sea necesario desplegar un nuevo servicio no necesitaremos comprar nuevo hardware, salvo que fuera un despliegue masivo, por lo que los tiempos de entrega se acortan bastante.
  • Entornos de desarrollo: con máquinas virtuales es mucho más sencillo poder generar entornos de pruebas ya que no es necesario un nuevo equipo físico para poderlo desplegar.
  • Tiempos de corte menores: si necesitamos ampliar la capacidad de un host físico, moviendo las máquinas virtuales a otro servidor físico, mientras se realiza el mantenimiento, el usuario final no notaría corte en el servicio.
  • Recursos de red: al tener todas las máquinas en un mismo host físico se reduce bastante los requisitos de red, tanto a nivel lógico de puertos como de cableados, que deberían dar servicio a todos los servidores si estos fueran físicos.

Éstas y otras muchas, son las ventajas de los entornos virtualizadosaunque también tienen sus desventajas, como ser puntos únicos de fallo si no se tiene configurado un sistema de alta disponibilidad y el mayor coste inicial de desplegar un nuevo entorno cloud al requerir nuevo hardware para los hosts, montaje de una SAN para almacenamiento y sus licencias asociadas.

Por lo que lo primero, para plantearse el paso a un entorno virtualizado, es detectar qué servidores físicos tenemos ahora mismo en nuestra plataforma que están trabajando a baja carga de proceso. Para detectarlos, se pueden usar aplicaciones de monitorización de redes o bien software DCIM (Data Center Infraestructure Management), que además del consumo eléctrico de los servidores nos pueden indicar también el uso de su CPU.

Una vez valorado el cambio a una solución virtualizada, hay que preparar el espacio en nuestro centro de datos para albergar estos nuevos equipos físicos que demandan más potencia eléctrica y de climatización. Los racks estándar de servidores dedicados de 1U o 2U, estaban generalmente dimensionados para una carga de 3 kW. Estos nuevos entornos de alta densidad están demandando una potencia desde 8 kW por rack hasta los 16 kW de algunos despliegues.

El ubicar estos nuevos equipos en un espacio no acondicionado exclusivamente para ellos, puede generar grandes problemas de refrigeración en el centro de datos, al producirse puntos de calor donde antes no los había, e incluso es posible que la demanda de frío de esos equipos no pueda ser producida por las máquinas de clima existentes en el data center.

Por lo que es recomendable crear una nueva zona dedicada en el centro de datos para albergar estas máquinas de alta densidad, e ir migrando servicios poco a poco desde la antigua zona del data center a este nuevo entorno. La solución más recomendable es crear cerramientos de racks con climatización propia, a poder ser in-row, que se adapte a las necesidades de carga instantánea de la plataforma de virtualización. De esta manera, la climatización de la zona de alta densidad será independiente del resto del centro de datos y éste no se verá afectado en su rendimiento.

La carga IT en un entorno cloud, puede variar mucho de un rack a otro, ya que si existe mucho grado de virtualización, el propio sistema puede mover las máquinas virtuales de un host a otro en función de la carga del servidor físico. Por lo tanto, es importante poder monitorizar las condiciones ambientales de esa zona del centro de datos para que no se produzcan puntos de calor. Hoy en día, los sistemas DCIM son capaces de interactuar con los hipervisores que gestionan los entornos virtualizados, para indicar qué hosts se encuentran en condiciones más óptimas de admitir más carga de proceso.

A priori, al pasar de un entorno clásico a uno virtualizado, puede parecer que la eficiencia energética mejora, pero en condiciones normales será al revés si se mide la eficiencia energética con el valor del PUE del centro de datos. Por lo que, para mejorar también el rendimiento energético de nuestro data center, será necesario realizar cambios en la infraestructura mecánica que alimenta a nuestra plataforma. Un data center en el que los servidores se han ido virtualizando, reducirá su carga IT, pero el consumo de la propia infraestructura, que es independiente a la carga IT, hará que el PUE aumente proporcionalmente a la bajada del consumo IT debido a la virtualización.

Estos consumos propios de la infraestructura, conocidos como pérdidas fijas, serán aún mayores en el caso de que el centro de datos fuera diseñado en origen para dar servicio a la carga IT recomendada por el fabricante, sobredimensionando la infraestructura necesaria del data center.

Estas pérdidas fijas deberán ser reducidas en la medida de lo posible siguiendo una serie de recomendaciones:

  • Ajustar la capacidad eléctrica de las UPS a la carga IT del centro de datos. Si disponemos de UPS modulares, habría que ajustar estos módulos a la capacidad más óptima del centro de datos.
  • Las máquinas de clima deberían ajustarse a las necesidades de demanda de las máquinas IT y no trabajar a máxima capacidad. Para ello, son recomendables que las CRACs de sala dispongan de compresores y variadores de frecuencia en los ventiladores, para que emitan el flujo de aire que demande la carga IT en cada momento.
  • Reducción del espacio físico del centro de datos. Una vez virtualizados los equipos físicos, el resto de equipos que queden en los racks, habría que reubicarlos siguiendo las buenas prácticas de pasillos fríos y pasillos calientes a poder ser cerrados, para que el espacio a refrigerar sea el menor y más óptimo posible, y de esta manera poder apagar alguna máquina de clima que ya no sea necesaria.
  • Aumentar la temperatura de la sala a unos valores más acordes a la nueva recomendación ASHRAE 90.4, sobre los 27°C a la entrada del servidor.
  • Utilizar sistemas de gestión de la capacidad para controlar el consumo eléctrico detectando racks sobrecargados, el espacio disponible dentro de cada armario y también medir la temperatura de entrada del aire a los servidores, para poder anticiparse a futuros problemas de sobrecalentamiento.

¿Te ha parecido útil este contenido?

 

Javier Zurera Andrés
Telecommunication Engineer Data Center Specialist de Software Greenhouse, S.A.

bool(true) object(WP_Post)#16681 (24) { ["ID"]=> int(1278) ["post_author"]=> string(1) "2" ["post_date"]=> string(19) "2019-05-16 16:55:36" ["post_date_gmt"]=> string(19) "2019-05-16 14:55:36" ["post_content"]=> string(1426) "Software Greenhouse, empresa fundada en 1992, realiza proyectos de implantación e integración de productos de software altamente especializados en las áreas de Continuidad de Negocio, Gestión de la Eficiencia Energética de Infraestructuras y Operaciones del Centro de Datos, y Business Intelligence. Estas soluciones aportan ahorros significativos y aumento de la disponibilidad de los servicios TI a las empresas. Software Greenhouse es partner y distribuidor de valor añadido de dos grandes fabricantes de soluciones como son Precisely (soluciones de continuidad de negocio e Integración de Datos) y Schneider Electric (solución de DCIM) y colabora como especialista con prácticamente todos los grandes proveedores de TI en España. Además, desarrolla y mantiene productos propios de Business Intelligence e implementa proyectos de desarrollo de software a medida y de RPA (Automatización de Procesos). Entre sus más de 300 clientes figuran muchas de las empresas más importantes de España, este posicionamiento se debe a una labor dedicada de más de 20 años, caracterizada por una cuidadosa selección de su equipo humano y consecuente mentalidad de especialización y vocación de excelencia profesional. Para ampliar esta información consulta el siguiente enlace: Web Software Greenhouse: https://www.swgreenhouse.com Perfil empresa en enerTIC: https://enertic.org/organizacion/software-greenhouse/" ["post_title"]=> string(19) "Software Greenhouse" ["post_excerpt"]=> string(1331) "Software Greenhouse, empresa fundada en 1992, realiza proyectos de implantación e integración de productos de software altamente especializados en las áreas de Continuidad de Negocio, Gestión de la Eficiencia Energética de Infraestructuras y Operaciones del Centro de Datos, y Business Intelligence. Estas soluciones aportan ahorros significativos y aumento de la disponibilidad de los servicios TI a las empresas. Software Greenhouse es partner y distribuidor de valor añadido de dos grandes fabricantes de soluciones como son Vision Solutions (soluciones de continuidad de negocio multiplataforma) y Schneider Electric (solución de DCIM) y colabora como especialista con prácticamente todos los grandes proveedores de TI en España. Además, desarrolla y mantiene productos propios de Business Intelligence e implementa proyectos de desarrollo de software a medida y de integración de diferentes sistemas de gestión. Entre sus más de 300 clientes figuran muchas de las empresas más importantes de España, este posicionamiento se debe a una labor dedicada de más de 20 años, caracterizada por una cuidadosa selección de su equipo humano y consecuente mentalidad de especialización y vocación de excelencia profesional. Para ampliar esta información consulta el siguiente enlace: https://www.swgreenhouse.com" ["post_status"]=> string(7) "publish" ["comment_status"]=> string(4) "open" ["ping_status"]=> string(4) "open" ["post_password"]=> string(0) "" ["post_name"]=> string(19) "software-greenhouse" ["to_ping"]=> string(0) "" ["pinged"]=> string(0) "" ["post_modified"]=> string(19) "2024-02-28 23:16:39" ["post_modified_gmt"]=> string(19) "2024-02-28 22:16:39" ["post_content_filtered"]=> string(0) "" ["post_parent"]=> int(0) ["guid"]=> string(60) "https://enertic.plug-in.es/organizacion/software-greenhouse/" ["menu_order"]=> int(0) ["post_type"]=> string(12) "organizacion" ["post_mime_type"]=> string(0) "" ["comment_count"]=> string(1) "0" ["filter"]=> string(3) "raw" }
array(3) { [0]=> int(267) [1]=> int(74) [2]=> int(200) } bool(false)