jueves, 7 de febrero de 2013

Estándares en el Data Center


En la etapa de diseño del Data Center se evalúan cuales son los estándares que se desearán alcanzar. En ese momento surgen muchas dudas y preguntas relacionadas con el establecimiento de cuáles son los estándares correctos para lograr satisfacer las necesidades del negocio o lo mismo ocurre si  se está evaluando un Data Center de un proveedor. Los cuestionamientos sobre la calidad y los niveles de servicios ofrecidos pueden generar incertidumbre en los clientes. Esta es una tarea dificultosa ya que cumplir con las exigencias de un estándar es muy complejo y costoso. Además en el mercado existen muchos y no es posible cumplir con todos al mismo tiempo ya que tiene objetivos y requerimientos distintos.
Con objetivo de tener una visión simplificada de todos los estándares y como se relacionan entre ellos, he desarrollado un gráfico a modo de resumen, en el cual se que pueden observar como se encuentran agrupados los estándares y Frameworks más importantes en el mundo IT. Además se puede observar la interrelación entre las diversas áreas ya que se hallan agrupados por módulos, que van desde la gestión de los recursos del Data Center, hasta la gestión estrategia del Gobierno de IT.




Los módulos se encuentran agrupados por color según el área de aplicación dentro de IT y se destacan principalmente las siguientes:

  • Gestión Nivel de Servicio: Organización de servicio y Gestión de Incidentes
  • Gestión de Seguridad: Protección de información y Seguridad Física
  • Gestión de Proyectos
  • Gestión de Infraestructura: Gestión de Red (Cableado y Rotulado), Espacio físico, Prevención de incendios, Electricidad, Temperatura y humedad, Racks
  • Gestión de servicios: Gestión de riesgos, Gestión edilicia, Gestión de Infraestructura.
  • Gestión Ambiental.
  • Monitoreo y control de métricas.
  • Continuidad del negocio: Gestión de BCP (Business Continuity Plan), Gestión de DR (Disaster Recovery) y BCP
  • Gobierno de IT, Gestión de RRHH y Gestión administrativa.

Para acceder al gráfico en tamaño alta resolución haga click aquí

A modo de aclaración se debe tener en cuenta la diferencia que existen:  mejores prácticas o Frameworks, regulaciones o estándares, aquí el detalle:

  • Regulaciones: son de carácter obligatorio según el tipo de actividad. Están reguladas por una ley, y no cumplirla puede hacer que el organismo regulador quite la licencia de habilitación al negocio para desarrollar la actividad. Como por ejemplo SOX, HIPAA, etc.
  • Estándares: son disposiciones concretas sugeridas por organismos reconocidos, que en el marco del cumplimiento con las normas establecidas certifican que la empresa cumple con los criterios delineados en el modelo.  Como por ejemplo las normas ISO entre otras.
  • Frameworks: como el nombre de la palabra lo indica, son marcos de trabajo, son los más flexibles, ya que no están regulados. Ofrecen una metodología sugerida de trabajo que se adaptará a las necesidades operativas del negocio. Como por ejemplo ITIL, COBIT, etc.


En caso de existir una regulación local que especifique ciertas medidas que se deban cumplir en el Data Center, estas estarán por encima de las regulaciones internacionales, salvo que los parámetros establecidos en las normas internacionales sean más exigentes que las locales.
Aquí hemos nombrado solo algunos de los estándares más importantes, pero existen muchísimos más, en especial en materia de regulaciones, ya que dependen de cada país y rubro comercial.
Para esta investigación solo se consideraron los últimos estándares aprobados a la fecha o aquellos que se encuentran en etapa de revisión. Los estándares viejos o que fueron reemplazados por otros más nuevos no han sido incluidos con el fin de mantener el gráfico lo más simple posible.

Nota: Se actualizó el gráfico en la sección de construcción edilicia. Se particular se eliminó la norma NBE-CPI-96, derogada desde la aparición del CTE (Código Técnico de la Edificiación).
Gracias a Ana Otin Marcos por tu comentario.

sábado, 12 de enero de 2013

Camino al Data Center Ecológico


Cuando se habla de eficiencia y ecología dentro del Data Center, lo primero que se nos viene a la mente es la métrica PUE (Power Usage Effectiveness) que mide el valor de la eficiencia eléctrica de los equipos de IT en relación al consumo eléctrico total, creada por la organización The Green Grid 

                  Consumo eléctrico total               100 kW
PUE =    -------------------------------------------   =   --------------  =  1,7
                  Consumo equipos de IT                58 kW

Si bien el organismo no establece un valor mínimo, mientras menor sea el valor PUE, mejor será el aprovechamiento eléctrico, lo que se traduce en menores costos y emisiones de CO2, permitiendo reducir la llamada huella de carbono.
Por los general el valor de PUE de los Data Centers del mercado oscila entre 1,2 y 4, aunque el valor perfecto sería un PUE = 1.0 que resulta prácticamente imposible de alcanzar, ya que quiere decir que toda la energía consumida por los equipos es igual a la ingresada en el Data Center para que funcione completamente, y donde la refrigeración, UPS, entre otros, no tuvieron consumo eléctrico alguno. Esto es realmente difícil de que suceda. Un PUE = 2 representa que los sistemas que forma la infraestructura consumen los mismo que todos los equipos de IT.
Pero la pregunta es ¿ Si el PUE de un Data Center es practicamente =1, estamos frente a una instalación ecológicamente sustentable ?
La respuesta es claramente NO. Si bien es cierto que el PUE bajo es uno de los mayores determinantes para asegurar emisiones reducidas, aquí en entran en juego otras variables a analizar, como por ejemplo los materiales usados en el Data Center, la frecuencia renovación de equipos que generan basura electrónica y contaminan si no se toman acciones para su reciclaje: 
Para explicar este punto veamos un ejemplo: El PUE actual de nuestro Data Center es 1,5, sin embargo para disminuir el consumo eléctrico se decide aumentar la temperatura de operación del Data Center, pasando de 21 ºC a un máximo de 32 ºC, sin dudas el consumo eléctrico será menor, ya que los equipos de refrigeración funcionarán menos, haciendo que el PUE disminuya hasta por ejemplo 1,2. Pero esta decisión tiene un efecto colateral con el paso del tiempo: la degradación de componentes, que hará tener que reemplazar piezas más frecuentemente, según la Ley de Arrhenius  o también conocida como la Regla de los 10 grados. Esta regla dice que la vida de un componente o material se reduce a la mitad por cada 10 ºC de aumento en la temperatura; aplicado inversamente: por 10 ºC de disminución de temperatura, la vida útil de un semiconductor se duplicará, También causará que la vida útil de las baterías que conforman la UPS sea menor a la establecida por el fabricante, aumentando costos y generando mas desperdicios. Por eso un PUE bajo no asegura que estemos frente a un Data Center sustentable con el medio ambiente a largo plazo.
Aquí se enumeran algunas recomendaciones para lograr un Data Center realmente ecológico:
  • Analizar la eficiencia eléctrica interna de todos los componentes que se compran.
  • Aprovechar al máximo los recursos, la Virtualización es de gran ayuda para lograr este objetivo.
  • Utilizar distribución de Corriente Continua en todos los casos que sea posible, más detalles aquí.
  • Reemplazar los tubos fluorescentes por LEDs, consumen menos, generan menos calor y proveen buena iluminación (asegurar que proveen iluminación suficiente para las cámaras de seguridad).
  • Colocar los equipos que generan más calor próximos a los enfriadores.





martes, 11 de diciembre de 2012

Eficiencia de la Corriente Continua en el Data Center


Dentro del Data Center como en nuestra vida cotidiana interactuamos tanto con la corriente alterna (CA – corriente que circula en ambos sentidos) como con la corriente continua (CC – corriente que circula en un solo sentido) según las necesidades del equipamiento que estemos utilizando, pero debido a la gran cantidad de energía que se consume dentro del Data Center y las pérdidas de energía entre cada conversión, una distribución final de CC podría ser la varita mágica para los problemas de eficiencia y ahorrar millones en costos eléctricos.
Para entender un poco más el problema hagamos un repaso histórico del origen de ambas corrientes. A finales del siglo XIX, Thomas Edison, gran inventor Estadounidense (aunque sus biógrafos más estudiosos lo reconocen como mejor empresario que científico y fundador de General Electric) impulsaba la CC que había descubierto; por el otro lado el brillante científico Serbio Nikolo Testa, promovía la CA que había inventado mientras trabajaba para la empresa Westinghouse, y si bien Testa había trabajado para Edison en 1884 ayudándolo a mejorar sus sistemas de CC, abandonó su posición en 1886 para emprender otro proyecto de generación de electricidad que sea más eficiente. Durante un período que duró años esas dos alternativas de corriente se disputaban cual sería el estándar para la masificación y no en vano fue llamado “La guerra de las corrientes” ya que ambas empresas querían imponer sistema eléctrico. Tan despiadada era la campaña, que para desprestigiar e intimidar a la población sobre el uso de la CA, personas allegadas a Edison electrocutaban públicamente vacas, caballos, perros y gatos usando CA, incluso llegaron a electrocutar un elefante llamado Topsy en 1903, aunque para ese entonces la CC ya había perdido la batalla, ya que la CA había demostrado ser más eficiente y económica cuando en 1893 obtuvo la licitación para iluminar la Feria Mundial de Chicago por un precio que era la mitad del presentado por su competidor. Para contrarrestar esos efectos de imagen negativa de la CA Testa sometió su cuerpo al paso de CA logrando desmitificar la excesiva peligrosidad que querían demostrar los defensores de la CC y pese a todos esos intentos de desprestigio Edison no logró imponer su sistema eléctrico ya que presentaba ciertas ventajas y ciertas desventajas que lo hacían útiles para ciertas cosas e ineficientes para otras.
Con el paso de los años la CA se quedó con el triunfo de la distribución masiva por su capacidad de recorrer grandes distancias sin sufrir pérdidas de tensión, pero el problema es que no se puede almacenar para utilizarla en otro momento y la CC se impuso en lugares donde se requiere almacenar energía, como: pilas o  baterías y en equipos que requieran baja potencia para funcionar, pero su principal defecto es que no se puede transportar en líneas de alta tensión por grandes distancias ya que las pérdidas eléctricas por km son muy grandes.  Por ello en el Data Center se necesitan de ambas como se ve en el gráfico de un ejemplo típico de cómo fluye la electricidad:


Volviendo a la pregunta inicial: ¿Es realmente posible una solución donde solo se utilice CC en un Data Center? La respuesta es compleja, pero podríamos decir que si es posible, ya que la manera de lograrlo sería mejorando la eficiencia, y eso se puede hacer eliminando los puntos donde se realizan las conversiones de CA/CC y viceversa.
Como se puede ver en el gráfico anterior los componentes internos de los equipos de IT utilizan CC para su funcionamiento, pero para que la corriente llegue hasta allí, debe pasar por muchos pasos, desde la red eléctrica (CA), convertirse a (CC) para poder almacenarse en la UPS, luego se rectifica la corriente para llegar a la PDU (CA), desde allí llegará a los equipos y por último la fuente interna la transformará por última vez (CC) para alimentar a los procesadores, memorias, y otros circuitos internos.
Cada una de estas transformaciones de corrientes genera pérdidas de eficiencia, que se transforman en pérdidas económicas. Pero ¿qué pasaría si el proveedor de red eléctrica suministrara CC, cargara la UPS, pasara por la PDU y llegara a los equipos directamente sin transformaciones? Este escenario sería óptimo, ya que las pérdidas dentro del Data Center serían muy pocas y la eficiencia sería muy alta. Pero en la práctica resulta muy difícil que eso pueda suceder por diversos factores:
Prácticamente no existen proveedores de red eléctrica que suministren CC, por la deficiencia que presenta al transportarlo en largas distancias.
Hay muy pocos proveedores en el mercado de IT que ofrezcan equipos para ser alimentados directamente con CC y los pocos que hay tiene precios más elevados que los alimentados con CA.
Por estos factores limitantes podemos decir que es realmente difícil lograrlo, salvo que se diseñe un gran Data Center con su propia central eléctrica ubicada en las cercanías y que provea CC a un costo apropiado y sin pérdidas de eficiencia.

En el siguiente: link se pueden apreciar las innovaciones tecnológicas propuestas por la empresa ABB sobre este tema.


lunes, 29 de octubre de 2012

Procedimientos: su Impacto e Importancia al Data Center


Cuando nos referimos a los procedimientos de emergencia de un Data Center muchas veces no se toma en consideración las implicancias de ejecutarlos erróneamente o simplemente no tenerlos. Para ejemplificarlo voy a relatar un caso  real ocurrido un par de años atrás en una empresa a la que asesoraba eventualmente sobre algunos temas de IT, que por razones de discrecionalidad no revelaré.
En el verano de 2010 dicha organización disponía de una buena infraestructura para poder soportar interrupciones eléctricas, aunque no siempre todo sale según lo planeado.
El Data Center está ubicado en un 9no piso de un edificio bastante viejo que contaba con un piso técnico, una UPS capaz de soportar la carga total con una autonomía de 15 minutos y sistema de refrigeración por expansión directa (DX). En ese momento había 17 Racks a un consumo promedio de 9 kVA cada uno. El aire acondicionado y las UPS consumían 30 kVA, lo que en total sumaba un consumo de 183 kVA. Además es edificio poseía un generador que había sido adquirido 10 años atrás con una capacidad operativa de 200 kVA, si bien no era de lo más moderno estaba bien mantenido y las dos veces anteriores que se había usado, respondió adecuadamente.
Un sábado caluroso de verano a las 19:00 ocurre el imprevisto: se corta la red eléctrica. Como el Data Center estaba bien planificado no se presentaron problemas, ya que las UPS habían sido correctamente mantenidas y funcionaron sin problemas, pasaron 8 minutos y como la electricidad seguía sin funcionar se encendió el generador normalmente. A los 14 minutos las baterías de la UPS agotaron su carga completamente, pero como el generador ya estaba funcionando, comenzó a brindar energía eléctrica a los equipos del Data Center….hasta allí iba todo perfecto, porque en consumo total del Data Center era 183 kVA y la potencia máxima del generador era 200 kVA. Pese a lo inconveniente de la situación, no había ningún impacto, pero ocurrió lo inesperado…… a alguien se le ocurrió usar el ascensor !!!!
La ignición del motor del generó un pico de consumo eléctrico de 30 kVA que superó el máximo de carga del generador, saturando el sistema eléctrico y causando una interrupción total en el Data Center.
En el gráfico se puede apreciar el pico de consumo eléctrico que generan los elevadores en promedio cuando inician el ascenso según el peso de la carga:


Como consecuencia se apagaron abruptamente todos los equipos del Data Center, lo que causó la rotura de dos discos rígidos, una fuente de alimentación y muchas horas de trabajo para los administradores que tuvieron que encender los equipos manualmente cuando regresó la energía eléctrica una hora después. Debido al horario, el impacto al negocio no fue muy grande.

¿Qué medidas se debería haber tomado para que no pase ese incidente?
Definir y aplicar un procedimiento de emergencia para aplicar en casos de interrupción eléctrica, en el cual, los responsables del edificio deberían haber procedido como cuando se evacua el edificio en caso de incendio, enviado los ascensores a planta bajar y abrir las puertas, dejándolos fuera de funcionamiento hasta que se restaure el servicio eléctrico. Dicha acción hubiera evitado la interrupción en el Data Center, no todo se reduce a la planificación de los recursos, sino que también es importante la forma de usarlos adecuadamente.