Articulo
11
Jun
2018

Software: el motor para gestionar el nuevo modelo de arquitectura de los centros de datos.

En este año 2018 ya estamos inmersos de lleno en la 4ª revolución industrial. Aquellas tendencias que se vislumbraban hace unos años, como el Internet de las cosas y el crecimiento del Big Data, ya son una realidad. La industria está cambiando a pasos agigantados, y muchos procesos que antes se realizaban de forma manual, hoy en día se están digitalizando o incluso automatizando.

Valora esta entrada

|

En este año 2018 ya estamos inmersos de lleno en la 4ª revolución industrial. Aquellas tendencias que se vislumbraban hace unos años, como el Internet de las cosas y el crecimiento del Big Data, ya son una realidad. La industria está cambiando a pasos agigantados, y muchos procesos que antes se realizaban de forma manual, hoy en día se están digitalizando o incluso automatizando.

Este modelo de Industria 4.0, está llevando consigo nuevos cambios en el sector de los data centers. Las factorías cada vez cuentan con más sensores y más datos a analizar en tiempo real. Estos datos ya no pueden ser procesados en un data center remoto, por lo que tienen que ser computados en el extremo de la factoría. Esto ha dado origen al concepto de Edge Computing, llevando carga de proceso que antes se realizaba de forma centralizada en un centro de datos remoto, al extremo donde se origina la información.

A su vez estos entornos industriales no suelen contar con zonas técnicas habilitadas para poder albergar las máquinas necesarias para realizar todo el proceso de cálculo que demanda la compañía. Los típicos cuartos de comunicaciones de un rack con switches, un pequeño SAI y un split de aire acondicionado, no están preparados para poder alojar nuevos equipos que soportarán todo la producción de una factoría. Debido a esto han surgido los Micro Data Centers. En algunos casos como racks individuales que alojan en su interior todo lo necesario para poder trabajar de forma independiente: climatización, alimentación ininterrumpida, electrónica… y en otro casos, como centros de datos de más tamaño que un rack alojados en contenedores.

En grandes organizaciones este nuevo modelo computación genera una gran capilaridad teniendo pequeños centros de datos desplegados por todo el planeta. El responsable IT de la compañía tiene que hacer frente a la gestión de una gran cantidad de activos dispersos en muchas localizaciones y las altas exigencias que llegan desde negocio para desplegar nuevas aplicaciones. Todo esto requiere un aumento del nivel de exigencia y eficiencia operacional en su gestión.

Además del IoT, hay otros actores que están haciendo que los datos almacenados en la red estén creciendo de forma exponencial. Un ejemplo es el auge de los servicios de video bajo demanda, cada vez con más calidad, hablando ya del 8K que hace que un video ocupe cientos de GBs. Las empresas que ofrecen servicios en la nube son el otro factor que está haciendo que cada vez haya más tráfico en la red. Según IDC, empresas como Amazon Web Services, Google Cloud o Azure sufrieron un aumento del 57% en 2017 respecto a 2016.

Todo este gran volumen de datos hace que cada vez los centros de datos tengan que ser más grandes para poder albergar tanta información. A la vez que han surgido los micro data centers debido a la demanda del edge computing, los centros de datos de hiperscala han aparecido para poder dar servicio de una forma más eficiente a las grandes empresas que ofrecen sus servicios en la nube. Si los pronósticos de la consultora Gartner se cumplen, para el año 2025 se prevé que los centros de datos consuman el 25% de la energía eléctrica del planeta.

Por todo esto es fundamental conseguir una gestión lo más eficiente y sostenible de los centros de datos. Es por ello, que es necesario aumentar el nivel de utilización TI y alinear los recursos con la demanda real por parte de negocio en todo momento, eliminando de esta manera las ineficiencias y aumentando la competitividad.

Para conseguirlo son necesarias herramientas de software altamente especializadas y evolucionadas que posibiliten afrontar dichos retos en la gestión. Es fundamental contar una capa de software de gestión (DCIM) capaz de abstraer los recursos físicos del centro de datos (Potencia, Climatización y Espacio) y que haga de nexo de unión con los servicios TI de negocio, por lo que estas soluciones tienen que integrarse perfectamente con el resto de soluciones de gestión actuales del centro de datos.

En Software Greenhouse empresa con más de 25 años de experiencia, tenemos una misión clara que es la de ayudar a nuestros clientes a implementar una Gestión Integrada de las infraestructuras y servicios TI relacionados con el centro de datos.

Aplicamos soluciones innovadoras de software a través de nuestros servicios, entre los que se encuentran:

  • Consultoría de procesos y modelos de gestión
  • Implantación y parametrización de herramientas de gestión para los Centros de Datos (Monitorización, DCIM, inventario, etiquetado)
  • Integración con herramientas y procesos existentes
  • Planes de mejora continua (auditorías y revisiones periódicas preventivas)

Este nuevo modelo de gestión aporta grandes beneficios, tanto en la eficiencia operacional como en la eficiencia energética, en concreto conseguiremos mayor flexibilidad, eficiencia y disponibilidad con unos costes menores, aumentando de esta manera la rentabilidad.

Una de las empresas que han podido contar con nuestros servicios es EJIE (Sociedad Informática del Gobierno Vasco), con la cual se realizó un proyecto de implantación de una solución DCIM. Este proyecto fue premiado por la plataforma enerTIC (Smart Data Center y Smart IT Infrastructure), y tuvo como objetivo el gestionar y monitorizar la infraestructura y las operaciones de los centros de datos de EJIE a través de una plataforma centralizada y de esta manera ser capaz de alinear su gestión con las mejores prácticas y avanzar en su objetivo de ser un instrumento común de referencia en el Sector Público Vasco.

Los beneficios principales obtenidos por EJIE fueron:

  • Mejora cualitativa de la monitorización: Ampliación de los elementos monitorizados y detección de posibles incidencias con mucha más antelación o incluso con anticipación detectando impactos asociados entre todos los elementos.
  • Gestión integral de la plataforma basada en una metodología ITIL.
  • Procesos robustos de operación: con una visión global se permitió mejorar la gestión de la capacidad, gestión del cambio para evitar posibles incidencias y gestión de activos a través de una conexión permanente con la CMDB teniendo el inventario en todo momento actualizado.
  • Reducción de consumo: Las estimaciones de la reducción del consumo son del 12% al 15% y puntualmente hasta el 20%. La información del DCIM en tiempo real permite subir la temperatura ambiente del Data Center sin riesgo de provocar puntos calientes.
Javier Zurera
Jefe de Proyecto - Especialista en Data Centers Software Greenhouse