sábado, 4 de mayo de 2013

DCIM mucho más que una Herramienta de Gestión


La administración de la infraestructura de un Data Center es una tarea compleja, pero por suerte en el mercado existen herramientas relativamente nuevas llamadas DCIM, Data Center Infrastructure Management que proveen la capacidad de lograr un buen rendimiento de los recursos administrados, buscando la optimización y planificación continua de una manera simple, considerando que cada vez hay más interdependencia entre la capa física y la capa lógica de la infraestructura. Esto se logra por medio de un monitoreo integral que facilita la gestión, la eficiencia y mantiene la disponibilidad.
Cuántas veces los administradores de Data Centers escuchamos este diálogo cuando hablamos con los Administradores de red:
¿Para qué se utiliza ese servidor que está encendido allí?
Creo que ese equipo no lo utiliza nadie, pero estaba funcionando desde antes de que ingresara a la empresa. 
Esa respuesta puede parecer ilógica, pero resulta bastante habitual en la práctica, sobre todo en ambientes medianos a grandes. Probablemente ese equipo está encendido desde hace años y nadie lo usa o quizás la aplicación fue migrada a otro servidor, generando calor, consumiendo energía, es decir, haciéndole perder dinero a la empresa innecesariamente.

Antiguamente la misión del responsable del Data Center era solo dar soporte a las necesidades de negocio, cumpliendo con los planes actuales. Pero hoy en día, la tendencia es distinta, la gestión administrada debe ser capaz de brindar una ventaja competitiva para lograr el éxito del negocio, haciéndolo ágil y eficiente de manera confiable.  Los cambios de las economías son muy rápidos y el no ser capaz de responder de forma satisfactoria puede hacer fracasar un proyecto o perder una oportunidad única. Por eso, los ojos deben estar puestos en el futuro y en las próximas tendencias.
Los desafíos pueden tener orígenes muy variados: económicos, tecnológicos, el ámbito de los negocios y lo relacionado con el cumplimiento de normativas o regulaciones, por ello surgieron en los últimos años herramientas como DCIM que facilitan esta tarea, por ejemplo ayudándonos a medir el PUE en tiempo real.

Las funcionalidades de información deseables de una herramienta de gestión DCIM son:
·    Centralización: toda la información puede ser consultada desde un solo lugar.
·    Autodescubrimiento: a medida que se agrega nuevo hardware, deberá ser visualizado en la consola (sea físico o virtual), quizás haya una limitación por fabricante o modelo.
·    Visualización: la herramienta debe ser capaz de mostrar gráficos de capacidad en tiempo real y extraer reportes, para efectuar comparaciones a futuro de la capacidad actual del Data Center, como ser: red, electricidad, UPS, PUE, almacenamiento, temperatura, espacio en Racks, etcétera.
·   Comunicación: capacidad de enviar notificaciones, alertas, correos u otras notificaciones, dadas determinadas condiciones.
·   Generación de alertas preventivas: Mediante la inteligencia predictiva puede ser capaz de notificar los problemas de capacidad a corto plazo. Cabe destacar que un reciente estudio de la consultora IDC concluyó que el 84% de los encuestados han tenido problemas de planificación de la capacidad de la infraestructura (ver paper aquí).


La decisión de adquirir un software de DCIM no es simple, ya que el software es costoso y requiere dedicación de recursos adicionales en la configuración y puesta a punto del sistema. Dichas implementaciones no son simples y pueden llevar tiempo. El objetivo final de una herramienta DCIM es tener el control centralizado de los recursos, generar reportes sobre la base de la información recolectada, y tomar decisiones que permitan optimizar los recursos, generando ahorros en la operatoria, y si bien es una herramienta que se encuentra en amplio crecimiento es importante que elijamos la que mejor se adapta a nuestra infraestructura ya que existen gran variedad de proveedores en el mercado de DCIM y no todos son iguales (ni los precios tampoco, ya que son bastante caras). En 2010 Gartnet predijo que este tipo de herramientas van a tener un crecimiento en penetración en el mercado del 1% al 60% para el año 2014.

El objetivo final de una herramienta DCIM es lograr evolucionar desde el “Caos” que son las planillas del cálculos, a un ambiente “Informado y con aplicaciones consolidadas” para luego evolucionar en un proceso de “Optimización” y por último llegar a un modelo de “Data Center planificado estratégicamente”. Como resultado final de una buena implementación de una herramienta de DCIM se puede ver una Infraestructura inteligente, optimizada y hasta que es capaz de reducir los costos operativos, para más detalles les recomiendo este paper que se puede bajar aquí: "Getting started with DCIM". También les recomiendo este paper sobre planificación estratégica de “Data Center Knowledge Guide to Data Center Infrastructure Management (DCIM)” que se puede bajar aquí.

Para evitar el uso de planillas de cálculo como control de inventario de los equipos dentro del Data Center, que suelen ser estáticas y no están actualizadas debidamente (en especial, cuando hay varios sitios que administrar y el crecimiento es grande), existen herramientas dinámicas que facilitan la tarea de DCIM, como ser:  CA DCIM 4.0 de Computer Associates; Asset Point de Align Communications; InfraStruXure de APC; Operations Manager de HP; Nlyte, OpenData Software de Modius; o Avocent de Emerson, solo por nombrar alguas. Muchos de ellos poseen funcionalidad que les permiten tomar la información de manera automática según el hardware. Les recomiendo leer el paper que se puede bajar aquí: “Enterprise Managment associates – Radar for Data Center Infrastructure Management (DCIM)” publicado en Diciembre del 2012, donde se evalúan muchos de estos productos según sus características más importantes, ya que no todos son iguales, variando en niveles de integración, funcionalidades operativas y de gestión.

Cabe destacar que existe una solución económica (pero estática con pocas funcionalidades) basada en software libre llamada Open DCIM http://www.opendcim.org y que se instala fácilmente, basándose en una solución Web para reemplazar las planillas de cálculos. Complementariamente en el sitio http://www.dcimexpert.com/ se pueden ingresar sugerencias y recomendaciones para mejorar las tareas de gestión.



"Por muy hermosa que sea la estrategia, de vez en cuando debes mirar los resultados" Winston Churchill (1874–1965) Político, escritor británico. Premio Nobel de Literatura en 1953.


domingo, 24 de marzo de 2013

Madurez del Data Center - DCMM

A menudo hablamos de optimización y mejores prácticas para logra un Data Center ecológico y sustentable manteniendo una relación eficiente entre disponibilidad y costos. Otra perspectiva de ver los mismos objetivos es a través del análisis de los distintos componentes que lo integran, analizando la “madurez” del Data Center en base a un modelo referencial desarrollado por la organización “The Green Grid” llamado DCMM (Data Center Maturity Model) publicado en 2011, el cual permite clasificar el nivel de “madurez” de los componentes del Data Center. Este modelo es similar al popular estándar ingenieril para el desarrollo de software: CMM  o también llamado CMMI que establece 5 niveles de perfeccionamiento en la forma que se construye software.
Del mismo modo el DCMM evalúa y clasifica de 0 a 5 los niveles de cada uno de los componentes, donde 0 es el nivel mínimo o también llamado “nivel de caos” y siendo 5 el más eficiente o también llamado “nivel visionario”.

DCMM analiza el Data Center y sus elementos en base a dos puntos principales, como ser la infraestructura física y la tecnología allí alojada en función de la eficiencia y la inversión de recursos.

Infraestructura del Data Center:
  • Alimentación eléctrica: Principalmente toma como base el porcentaje de eficiencia eléctrica, operación, monitoreo, materiales utilizados entre otras variables y determina valores de 0 a 5.
  • Refrigeración: Analiza el PUE de los equipos de refrigeración, los materiales, operatoria, control ambiental y emisiones, entre otros parámetros y en base a eso determina niveles de 0 a 5.
  • Otros: Evalúa de 0 a 5 la capacidad real con respecto a la que se está utilizando, la construcción, los materiales comprados, la iluminación, etc.
  • Gestión: Similar a los puntos anteriores, considerando la eficiencia de consumo eléctrico, de agua, reutilización del calor generado, como se colecta la información (centralizada o descentralizada), etc.

Tecnología de los equipos:
  •  Procesamiento: Evalúa la utilización de procesamiento total del Data Center, adopción de estándares, forma de operación, gestión eléctrica integrada, cantidad de servidores, y en función de cuáles son las aplicaciones que se ejecutan basado en las mejores prácticas y lo clasifica de 0 a 5.
  • Almacenamiento: Se analiza la cantidad de datos almacenados en función de la capacidad disponible, la forma de gestión y operación, la arquitectura, la tecnología y la asignación de espacio, en donde la mejor calificación posible es también 5.
  • Red: Para clasificarlos se tiene en cuenta la utilización de la red, el tráfico de paquetes, la forma de operación, la tecnología utilizada, la topología, la performance y el aprovisionamiento del ancho de banda.
  • Otros: Se analiza la capacidad total de los elementos tecnológicos, la utilización de los mismos, certificaciones de los componentes, documentación relacionada a los equipos (por ejemplo un catálogo), estrategias de reciclado, políticas, etc.
El en gráfico se puede ver como interactuan los distintos componentes para poder alcanzar los distintos niveles en función de la eficiencia y los recursos en base a los distintos niveles alcanzados para cada elemento interviniente en el Data Center.



Para aquellos que deseen profundizar sobre este tema los invito a ver la página oficial de DCMM (en inglés)
Para descargar el gráfico completo detallado en formato pdf hacer click aquí. (en inglés)



"El orden y la simplificación son los primeros pasos hacia el dominio de un tema, el enemigo real es lo desconocido"  -- Thomas Mann  (1875-1955) Escritor alemán. Premio Nobel de Literatura en 1929



jueves, 7 de febrero de 2013

Estándares en el Data Center


En la etapa de diseño del Data Center se evalúan cuales son los estándares que se desearán alcanzar. En ese momento surgen muchas dudas y preguntas relacionadas con el establecimiento de cuáles son los estándares correctos para lograr satisfacer las necesidades del negocio o lo mismo ocurre si  se está evaluando un Data Center de un proveedor. Los cuestionamientos sobre la calidad y los niveles de servicios ofrecidos pueden generar incertidumbre en los clientes. Esta es una tarea dificultosa ya que cumplir con las exigencias de un estándar es muy complejo y costoso. Además en el mercado existen muchos y no es posible cumplir con todos al mismo tiempo ya que tiene objetivos y requerimientos distintos.
Con objetivo de tener una visión simplificada de todos los estándares y como se relacionan entre ellos, he desarrollado un gráfico a modo de resumen, en el cual se que pueden observar como se encuentran agrupados los estándares y Frameworks más importantes en el mundo IT. Además se puede observar la interrelación entre las diversas áreas ya que se hallan agrupados por módulos, que van desde la gestión de los recursos del Data Center, hasta la gestión estrategia del Gobierno de IT.




Los módulos se encuentran agrupados por color según el área de aplicación dentro de IT y se destacan principalmente las siguientes:

  • Gestión Nivel de Servicio: Organización de servicio y Gestión de Incidentes
  • Gestión de Seguridad: Protección de información y Seguridad Física
  • Gestión de Proyectos
  • Gestión de Infraestructura: Gestión de Red (Cableado y Rotulado), Espacio físico, Prevención de incendios, Electricidad, Temperatura y humedad, Racks
  • Gestión de servicios: Gestión de riesgos, Gestión edilicia, Gestión de Infraestructura.
  • Gestión Ambiental.
  • Monitoreo y control de métricas.
  • Continuidad del negocio: Gestión de BCP (Business Continuity Plan), Gestión de DR (Disaster Recovery) y BCP
  • Gobierno de IT, Gestión de RRHH y Gestión administrativa.

Para acceder al gráfico en tamaño alta resolución haga click aquí

A modo de aclaración se debe tener en cuenta la diferencia que existen:  mejores prácticas o Frameworks, regulaciones o estándares, aquí el detalle:

  • Regulaciones: son de carácter obligatorio según el tipo de actividad. Están reguladas por una ley, y no cumplirla puede hacer que el organismo regulador quite la licencia de habilitación al negocio para desarrollar la actividad. Como por ejemplo SOX, HIPAA, etc.
  • Estándares: son disposiciones concretas sugeridas por organismos reconocidos, que en el marco del cumplimiento con las normas establecidas certifican que la empresa cumple con los criterios delineados en el modelo.  Como por ejemplo las normas ISO entre otras.
  • Frameworks: como el nombre de la palabra lo indica, son marcos de trabajo, son los más flexibles, ya que no están regulados. Ofrecen una metodología sugerida de trabajo que se adaptará a las necesidades operativas del negocio. Como por ejemplo ITIL, COBIT, etc.


En caso de existir una regulación local que especifique ciertas medidas que se deban cumplir en el Data Center, estas estarán por encima de las regulaciones internacionales, salvo que los parámetros establecidos en las normas internacionales sean más exigentes que las locales.
Aquí hemos nombrado solo algunos de los estándares más importantes, pero existen muchísimos más, en especial en materia de regulaciones, ya que dependen de cada país y rubro comercial.
Para esta investigación solo se consideraron los últimos estándares aprobados a la fecha o aquellos que se encuentran en etapa de revisión. Los estándares viejos o que fueron reemplazados por otros más nuevos no han sido incluidos con el fin de mantener el gráfico lo más simple posible.

Nota: Se actualizó el gráfico en la sección de construcción edilicia. Se particular se eliminó la norma NBE-CPI-96, derogada desde la aparición del CTE (Código Técnico de la Edificiación).
Gracias a Ana Otin Marcos por tu comentario.

sábado, 12 de enero de 2013

Camino al Data Center Ecológico


Cuando se habla de eficiencia y ecología dentro del Data Center, lo primero que se nos viene a la mente es la métrica PUE (Power Usage Effectiveness) que mide el valor de la eficiencia eléctrica de los equipos de IT en relación al consumo eléctrico total, creada por la organización The Green Grid 

                  Consumo eléctrico total               100 kW
PUE =    -------------------------------------------   =   --------------  =  1,7
                  Consumo equipos de IT                58 kW

Si bien el organismo no establece un valor mínimo, mientras menor sea el valor PUE, mejor será el aprovechamiento eléctrico, lo que se traduce en menores costos y emisiones de CO2, permitiendo reducir la llamada huella de carbono.
Por los general el valor de PUE de los Data Centers del mercado oscila entre 1,2 y 4, aunque el valor perfecto sería un PUE = 1.0 que resulta prácticamente imposible de alcanzar, ya que quiere decir que toda la energía consumida por los equipos es igual a la ingresada en el Data Center para que funcione completamente, y donde la refrigeración, UPS, entre otros, no tuvieron consumo eléctrico alguno. Esto es realmente difícil de que suceda. Un PUE = 2 representa que los sistemas que forma la infraestructura consumen los mismo que todos los equipos de IT.
Pero la pregunta es ¿ Si el PUE de un Data Center es practicamente =1, estamos frente a una instalación ecológicamente sustentable ?
La respuesta es claramente NO. Si bien es cierto que el PUE bajo es uno de los mayores determinantes para asegurar emisiones reducidas, aquí en entran en juego otras variables a analizar, como por ejemplo los materiales usados en el Data Center, la frecuencia renovación de equipos que generan basura electrónica y contaminan si no se toman acciones para su reciclaje: 
Para explicar este punto veamos un ejemplo: El PUE actual de nuestro Data Center es 1,5, sin embargo para disminuir el consumo eléctrico se decide aumentar la temperatura de operación del Data Center, pasando de 21 ºC a un máximo de 32 ºC, sin dudas el consumo eléctrico será menor, ya que los equipos de refrigeración funcionarán menos, haciendo que el PUE disminuya hasta por ejemplo 1,2. Pero esta decisión tiene un efecto colateral con el paso del tiempo: la degradación de componentes, que hará tener que reemplazar piezas más frecuentemente, según la Ley de Arrhenius  o también conocida como la Regla de los 10 grados. Esta regla dice que la vida de un componente o material se reduce a la mitad por cada 10 ºC de aumento en la temperatura; aplicado inversamente: por 10 ºC de disminución de temperatura, la vida útil de un semiconductor se duplicará, También causará que la vida útil de las baterías que conforman la UPS sea menor a la establecida por el fabricante, aumentando costos y generando mas desperdicios. Por eso un PUE bajo no asegura que estemos frente a un Data Center sustentable con el medio ambiente a largo plazo.
Aquí se enumeran algunas recomendaciones para lograr un Data Center realmente ecológico:
  • Analizar la eficiencia eléctrica interna de todos los componentes que se compran.
  • Aprovechar al máximo los recursos, la Virtualización es de gran ayuda para lograr este objetivo.
  • Utilizar distribución de Corriente Continua en todos los casos que sea posible, más detalles aquí.
  • Reemplazar los tubos fluorescentes por LEDs, consumen menos, generan menos calor y proveen buena iluminación (asegurar que proveen iluminación suficiente para las cámaras de seguridad).
  • Colocar los equipos que generan más calor próximos a los enfriadores.





martes, 11 de diciembre de 2012

Eficiencia de la Corriente Continua en el Data Center


Dentro del Data Center como en nuestra vida cotidiana interactuamos tanto con la corriente alterna (CA – corriente que circula en ambos sentidos) como con la corriente continua (CC – corriente que circula en un solo sentido) según las necesidades del equipamiento que estemos utilizando, pero debido a la gran cantidad de energía que se consume dentro del Data Center y las pérdidas de energía entre cada conversión, una distribución final de CC podría ser la varita mágica para los problemas de eficiencia y ahorrar millones en costos eléctricos.
Para entender un poco más el problema hagamos un repaso histórico del origen de ambas corrientes. A finales del siglo XIX, Thomas Edison, gran inventor Estadounidense (aunque sus biógrafos más estudiosos lo reconocen como mejor empresario que científico y fundador de General Electric) impulsaba la CC que había descubierto; por el otro lado el brillante científico Serbio Nikolo Testa, promovía la CA que había inventado mientras trabajaba para la empresa Westinghouse, y si bien Testa había trabajado para Edison en 1884 ayudándolo a mejorar sus sistemas de CC, abandonó su posición en 1886 para emprender otro proyecto de generación de electricidad que sea más eficiente. Durante un período que duró años esas dos alternativas de corriente se disputaban cual sería el estándar para la masificación y no en vano fue llamado “La guerra de las corrientes” ya que ambas empresas querían imponer sistema eléctrico. Tan despiadada era la campaña, que para desprestigiar e intimidar a la población sobre el uso de la CA, personas allegadas a Edison electrocutaban públicamente vacas, caballos, perros y gatos usando CA, incluso llegaron a electrocutar un elefante llamado Topsy en 1903, aunque para ese entonces la CC ya había perdido la batalla, ya que la CA había demostrado ser más eficiente y económica cuando en 1893 obtuvo la licitación para iluminar la Feria Mundial de Chicago por un precio que era la mitad del presentado por su competidor. Para contrarrestar esos efectos de imagen negativa de la CA Testa sometió su cuerpo al paso de CA logrando desmitificar la excesiva peligrosidad que querían demostrar los defensores de la CC y pese a todos esos intentos de desprestigio Edison no logró imponer su sistema eléctrico ya que presentaba ciertas ventajas y ciertas desventajas que lo hacían útiles para ciertas cosas e ineficientes para otras.
Con el paso de los años la CA se quedó con el triunfo de la distribución masiva por su capacidad de recorrer grandes distancias sin sufrir pérdidas de tensión, pero el problema es que no se puede almacenar para utilizarla en otro momento y la CC se impuso en lugares donde se requiere almacenar energía, como: pilas o  baterías y en equipos que requieran baja potencia para funcionar, pero su principal defecto es que no se puede transportar en líneas de alta tensión por grandes distancias ya que las pérdidas eléctricas por km son muy grandes.  Por ello en el Data Center se necesitan de ambas como se ve en el gráfico de un ejemplo típico de cómo fluye la electricidad:


Volviendo a la pregunta inicial: ¿Es realmente posible una solución donde solo se utilice CC en un Data Center? La respuesta es compleja, pero podríamos decir que si es posible, ya que la manera de lograrlo sería mejorando la eficiencia, y eso se puede hacer eliminando los puntos donde se realizan las conversiones de CA/CC y viceversa.
Como se puede ver en el gráfico anterior los componentes internos de los equipos de IT utilizan CC para su funcionamiento, pero para que la corriente llegue hasta allí, debe pasar por muchos pasos, desde la red eléctrica (CA), convertirse a (CC) para poder almacenarse en la UPS, luego se rectifica la corriente para llegar a la PDU (CA), desde allí llegará a los equipos y por último la fuente interna la transformará por última vez (CC) para alimentar a los procesadores, memorias, y otros circuitos internos.
Cada una de estas transformaciones de corrientes genera pérdidas de eficiencia, que se transforman en pérdidas económicas. Pero ¿qué pasaría si el proveedor de red eléctrica suministrara CC, cargara la UPS, pasara por la PDU y llegara a los equipos directamente sin transformaciones? Este escenario sería óptimo, ya que las pérdidas dentro del Data Center serían muy pocas y la eficiencia sería muy alta. Pero en la práctica resulta muy difícil que eso pueda suceder por diversos factores:
Prácticamente no existen proveedores de red eléctrica que suministren CC, por la deficiencia que presenta al transportarlo en largas distancias.
Hay muy pocos proveedores en el mercado de IT que ofrezcan equipos para ser alimentados directamente con CC y los pocos que hay tiene precios más elevados que los alimentados con CA.
Por estos factores limitantes podemos decir que es realmente difícil lograrlo, salvo que se diseñe un gran Data Center con su propia central eléctrica ubicada en las cercanías y que provea CC a un costo apropiado y sin pérdidas de eficiencia.

En el siguiente: link se pueden apreciar las innovaciones tecnológicas propuestas por la empresa ABB sobre este tema.