Mostrando entradas con la etiqueta Data Center. Mostrar todas las entradas
Mostrando entradas con la etiqueta Data Center. Mostrar todas las entradas

lunes, 8 de mayo de 2017

Continuidad del negocio en el Data Center

Al desarrollar un plan de recuperación, el objetivo es regresar la operación del negocio al nivel en que estaba el día antes de la catástrofe. Si su negocio es tomar pedidos por medio de una línea telefónica y continuar con la entrega de productos, el esfuerzo de recuperación debería estar dirigido hacia el restablecimiento de la operación telefónica y la conexión del personal a los sistemas de procesamiento informático y telefónico, lo cual permitirá que continúen los envíos.
El plan final podrá incluir una instalación redundante en otro sitio remoto que tenga acceso a los datos obtenidos de las copias de seguridad. Si la operación no es tan crítica o la instalación redundante no ha sido considerada por razones presupuestarias, es imprescindible un buen plan de recuperación.
Cada hora perdida decidiendo sobre un enfoque o experimentando con diferentes técnicas es una hora de interrupción al negocio que genera pérdidas.
Las empresas deberán desarrollar un plan integral, de forma artesanal para así enfrentar las consecuencias el día del desastre, ya que no existe una solución única, sino que es propia de cada empresa, diseñada a medida.

Un BCP no es un plan del área de IT solamente, sino que involucra a toda la empresa por completo desde la restauración de servidores hasta las tareas operativas, ejecutivas y directivas.

En el plan interactúan las personas de la organización con la tecnología, los procesos y la infraestructura.
Ciclo de vida del Plan de Continuidad del Negocio:




  • Análisis y planificación: cuando se inicia el proyecto se debe tener en consideración todo el negocio por completo, haciendo un estudio de necesidades y evaluando la situación actual. Luego, se debe hacer un minucioso análisis de riesgos del impacto al negocio (BIA, Business Impact Analysis), análisis de pérdidas, cuantificación de consecuencias, etcétera e identificar las aplicaciones críticas, que forman el núcleo operativo: inventarios de aplicaciones y servidores, diagramas de red e infraestructura. Adicionalmente, hay que identificar los posibles escenarios y análisis de amenazas. En esta etapa, se definirán bajo qué condiciones se activarán los procesos de contingencia y cómo será el camino que se tome para volver a la situación de operación normal.
  • Diseño de solución: se buscará la manera en que se pueda llevar a cabo el plan de contingencia de manera integral desarrollando una estrategia de mitigación. Debe ser comunicado correctamente a todas las áreas, preferentemente siguiendo los estándares. Además se procederá con la elaboración de una lista de prioridades con un orden específico y se confeccionará un checklist para los equipos con identificación de contactos internos y proveedores clave. Se definirán los equipos y los procesos de recuperación así como la selección de la estrategia de backup y los objetivos de los tiempos de recuperación (RTO). Asimismo se establecerá el tiempo máximo de interrupción tolerable (MTPOD), el punto de recuperación objetivo (RPO), la forma de interactuar y los roles clave. 
    • RPO: refleja el punto tolerable de restauración de los datos. Por ejemplo, se define si es aceptable contar con los datos de las 00:00 h del día en que ocurre el desastre, o si se prefiere las 00:00 h del último domingo de la semana en que ocurrió el desastre. Obviamente esto está relacionado con la solución de backup elegida, que será detallada más adelante en este capítulo.
    • RTO: es el tiempo en que se desean tener los datos recuperados y disponibles. Por ejemplo, en cinco horas, diez horas, etcétera.
    • MTPOD: es el tiempo aceptable de recuperación total. Luego de haber alcanzado el RTO, queda pendiente restaurar las operaciones al punto normal. Esto puede requerir configuraciones adicionales que agregan más tiempo a la restauración del servicio.
  • Implementación: es el desarrollo del plan, incluye la puesta en marcha de un ejercicio de simulación, que quizás para empresas chicas o medianas pueda ser inviable por razones presupuestarias, pero que son realmente importantes, como los ejercicios de evacuación de incendios en los edificios, entrenamiento, documentación y capacitación. Es recomendable que todas las tareas sean coordinadas por un Comité de Crisis que debe estar previamente designado y conformado por personas que conozcan bien el negocio, tengan poder y capacidad para tomar decisiones.  Lo importante se debe anteponer a lo urgente, ya que una mala decisión puede ser contraproducente.
  • Testeo y aceptación: en el momento de ejecución del ejercicio de simulación o cuando se  activa el BCP, realmente, la comunicación entre todas las partes tiene un rol fundamental para alcanzar el éxito. Se deberá hacer la verificación, corroborar los pasos correctos, determinar desvíos, identificar puntos débiles, análisis de costos y luego tomar medidas correctivas, llamadas lecciones aprendidas (lesson learned). Ellas realimentarán el proceso de diseño de la solución a fin de introducir mejoras.Es recomendado hacer una prueba completa de todo el BCP al menos una vez al año, aunque pueden hacerse pruebas parciales con menor frecuencia para probar nuevas tecnologías o soluciones parciales para ciertos eventos.
  • Mantenimiento: se debe comunicar y mantener actualizado el plan aprobado, asegurando que el personal esté debidamente entrenado. Hay que mantener un monitoreo continuo para el establecimiento de políticas estratégicas, además de identificar nuevas tecnologías o cambios operativos, legales, regulatorios directivos que permitan mejorar el diseño de la solución.

Se recomienda tener un repositorio de versiones y además un documento de control de cambios entre las distintas versiones para ver de manera simple cuales fueron las mejoras introducidas.
Sin duda estas planificaciones requieren dedicación de recursos, tiempo, recolección de información, infraestructura, etcétera, que en definitiva es dinero, pero si la catástrofe ocurre las consecuencias económicas serían mucho peores.


RTO: Recovery Time Objective. Se mide en horas.
MTPOD: Maximum Tolerable Period of Distruption. Se mide en horas
RPO:Recovery Point Objective es el objetivo deseado de recuperación.

martes, 26 de enero de 2016

Hollywood ya sabe la importancia del Data Center

Una de las funciones básicas de un Data Center bien diseñado es eliminar los riesgos potenciales que causarían pérdidas evitables, y minimizar el impacto de las no evitables como las catástrofes naturales. Las empresas que sufren situaciones de desastre en sus sistemas, quedan con un daño irreversible que puede llevar a la compañía a su cierre parcial o, en algunos casos, definitivo.

Los guionistas de cine y  televisión ya son consientes que para eliminar completamente a "los malos", no solo basta con deshacerse de los personajes, sino que también deben destruir su Data Center.

Una investigación de la Universidad de Texas revela que de las empresas que sufren una pérdida masiva en sus sistemas de información, el 43% nunca vuelve a abrir, el 51% cierra antes de los dos años, y solo el 6% puede continuar con su actividad, enfrentando grandes pérdidas en sus sistemas de información.
Según otro informe de la Agencia Nacional de Archivos y Registros en Washington D.C. (National Archives and Records Administration), el 93% de los negocios que tienen una interrupción importante en sus Data Center por más de 10 días, quedan en bancarrota en menos de un año.
La contundencia de estos números deja a la vista cuán importante son los datos de las empresas para poder permanecer con las puertas abiertas.

Tratando de no spoilear películas, a continuación les dejo algunos casos donde para que "los buenos" derroten a "los malos" y tengamos un final feliz con nuestras panzas llenas de pochoclo (también llamadas palomitas), el protagonista debe destruir el Data Center enemigo para poder derrotarlo definitivamente.

  • Terminator 2 (1991): Terminator personificado por Arnold Schwarzenegger junto con Sarah y John Connor logran convencer al científico  Miles Dyson que deben volar el laboratorio de investigación de Cyberdyne Systems, junto con toda la información existente con fin de destruir por completo a Skynet (los malos). Pese a que todo termina con una gran explosión, cuando los planes salen perfectos, los guionistas aprovechar a dejar puertas abiertas para futuras zagas. 
  • Prision Break - Temp 4 (2009): Los hermanos Michael Scofield y Lincoln Burrow, luego de tres temporadas deciden que deben destruir a "Scylla" un repositorio de información ultrasecreto ultraprotegido que guarda los mayores pecados de los malos.
  • Ant-Man (2015):  Dr. Hank Pym quiere evitar que una tecnología de avanzada que el mismo descubrió, caiga en las manos equivocadas debido a su gran potencial (en este caso Darren Cross). Para ello se propone destruir el Data Center de Pym Technologies (el laboratorio que el mismo creo) así como también todos los datos almacenados en los backups.

Los invito a dejar comentarios en este post de otras películas donde las destrucción del Data Center sea sinónimo de acabar con los malos.



lunes, 23 de febrero de 2015

El incremento en la densidad de los Data Centers

Uno de los mayores desafíos que enfrentan los responsables de los Data Centers es el aumento de la densidad de consumo kW por rack, ya que por un lado requieren se mayor suministro eléctrico y al mismo tiempo se genera más calor en la misma superficie, debido a las tendencias de optimización que evolucionan permanentemente.
El motor impulsor principal de esos cambios es el avance tecnológico de los componentes de los servidores (en especial procesadores y memorias). Hoy en día existen dispositivos con mayores prestaciones, que funcionan en espacio mas reducido, pero que generan más calor en comparación con el espacio que ocupaban los mismos equipos un tiempo atrás.
Otro actor importante que tomó un rol protagónico hace ya unos años es la virtualización, que permite aprovechar los recursos ociosos.

Para poner un ejemplo, para realizar tareas de procesamiento centralizado 2005 un Data Center tradicional con 315 servidores de 2U cada uno requería unos 15 racks en promedio y podría tener un consumo promedio total de 4 kW por rack. Actualmente esa misma capacidad de cálculo puede ser reemplaza por 21 servidores que ocupan un solo rack, pero que tiene un consumo de 11 kW por rack

A medida que pasan los años, se produce una reducción de la superficie ocupada dentro del Data Center, eso hace que también aumente la densidad de cables por cada rack, y la capacidad de enfriamiento debe ser superior, ya que la densidad del calor generado tiene más concentración.
Si bien el costo de la inversión inicial del nuevo equipamiento puede ser elevado, se deben evaluar cuáles son los costos totales asociados al su funcionamiento a lo largo de la vida útil, ya que las capacidades de los procesadores aumentan permanentemente. La clave es encontrar el punto de equilibrio entre la inversión, la vida útil proyecta, el TCO y la disponibilidad deseada, para renovar los equipos periódicamente, y así producir ahorros a mediano o largo plazo

Uno de los primeros pasos que se debe seguir cuando se releva información sobre el Data Center ya existente o próximo a construir, es la definición del consumo de kW/rack actual, y el estimado para los próximos años. De esa forma, se determinará la densidad de calor generado por rack medido en kW, lo cual no es una tarea sencilla ya que no todos los rack tiene el mismo consumo, por ejemplo los equipos te comunicaciones, red, telefonía generan muy poco calor. Por el contrario, los servidores, que tienen muchos procesadores en un espacio reducido generarán más calor. Por eso, hay que identificar los distintos consumos por rack.
Luego de tener una clara definición de cuánto calor genera cada rack, hay que establecer la estrategia de refrigeración. En particular, al momento de la ubicación, conviene definir diferentes tipos de zonas o identificar posibles riesgos. Una vez efectuado esto, también es necesario saber la densidad de calor generado kW/m2 y la densidad promedio kW sobre la superficie total del Data Center. Esa información nos ayudará a definir la estrategia de refrigeración que elegiremos.

En los Data Centers actuales es común encontrar racks que tiene un consumo de 20 kW o más. Esta es una tendencia en aumento a partir del año 2004 con la aparición de servidores de 1U y los servidores Blade

Clasificación según el consumo promedio por Rack:
  • Densidad baja (tradicional): 1 a 3 kW
  • Densidad moderada (promedio actual):  3 a 8 kW (hasta 2 servidores Blade)
  • Densidad media (tendencia): 9 a 14 kW (hasta 3 servidores Blade)
  • Densidad alta: 15 a 20 kW (hasta 4 servidores Blade)
  • Densidad extrema: más de 20 kW
Si bien la virtualización simplifica la tarea de los administradores de los servidores, y permite agilizar el área de IT con menores costos, para los responsables de la infraestructura de los Data Centers es un arma de doble filo, ya que para aprovechar la solución mencionada de forma ideal, se deberá reemplazar el hardware existente, comprando equipos más potentes y pequeños, que también generan más calor en una superficie menor. Además, éstos pueden requerir actualización en la infraestructura de red ya que en estas soluciones requieren redes de alta velocidad y grandes capacidades de almacenamiento para aprovechar todas las ventajas que ofrecen los productos.


Con el aumento de la concentración de la cantidad de cables que entran y salen a cada rack, es fundamental tenerlos prolijamente ordenados para que el flujo de aire no se vea obstruido y se dificulte el correcto flujo de circulación de aire frío y aire caliente.


martes, 7 de octubre de 2014

Recuperación de Desastres en el Data Center


Desarrollar un plan de recuperación tiene como objetivo regresar a la operativa del negocio al mismo nivel en el que estaba antes de la catástrofe. Si su negocio es tomar pedidos por medio de una línea telefónica y continuar con la entrega de productos, el esfuerzo de recuperación debería estar dirigido hacia el restablecimiento de la operación telefónica y la conexión del personal a los sistemas de procesamiento informático y telefónico, lo cual permitirá que continúen los envíos.
El plan final podrá incluir una instalación redundante en otro sitio remoto que tenga acceso a los datos obtenidos de las copias de seguridad. Si la operación no es tan crítica o la instalación redundante no ha sido considerada por razones presupuestarias, es imprescindible un buen plan de recuperación.


Un Data Center de respaldo consiste en un sitio de contingencia que reemplazará al de producción solo con las aplicaciones definidas como críticas para el BCP (Business Continuity Plan). A continuación se describen las características de los cuatro tipos de Data Centers que se pueden utilizar para el diseño de un plan de recuperación de desastres:

  • Data Center de contingencia estándar: Consiste en disponer de un espacio físico vacío con la capacidad de contener y soportar las aplicaciones pertenecientes al grupo de DR; preparado con la estructura eléctrica y de refrigeración mínima para cubrir la contingencia de esos equipos. Se debe considerar  con la posibilidad de que los equipos se demoren en conseguir en la zona, por ejemplo, Firewalls (cortafuegos) o algún reemplazo similar. Este método tiene un costo bajo, salvo por el desaprovechamiento del espacio, pero los tiempos de restauración son muy lentos (de días a semanas), ya que se debe conseguir el equipamiento, armar la infraestructura, luego instalar las aplicaciones; y finalmente, restaurar los datos de las cintas.
  • Data Center en la nube: Utiliza los servicios ofrecidos por los proveedores basados en Internet o a través de un enlace punto a punto por medio de un proveedor que ofrezca una conexión privada. Los costos son menores y la velocidad de instalación de los nuevos servidores es muy rápida, están basados en máquinas virtuales, pero lo que demandará más tiempo será la restauración de los datos, porque las cintas de contingencia deben ser enviadas hacia el proveedor, también habrá que restaurar las aplicaciones; y luego, restaurar los datos.
  • Data Center asincrónico (mirror off-line): Consiste en tener otro Data Center duplicado en una ubicación remota en donde se replican todos los servidores críticos de manera asincrónica. Esto puede realizarse en un sitio privado o contratado por a algún proveedor, pero con la salvedad de que los datos de esas aplicaciones críticas se copian al Data Center de contingencia de manera automática fuera del horario de operatoria diaria; por ejemplo, por las noches, mediante diversas herramientas. Tiene un costo alto, ya que todos los servidores están disponibles, pero sólo se utiliza la red dedicada para la transferencia de datos al Data Center de respaldo cuando no afecta las operaciones en horario central; por lo cual, en caso de desastre, el tiempo de recuperación es menor a un día. Generalmente este servicio es empleado por empresas que procesan sus operaciones más importantes en servidores Mainframe, del rubro bancario, por ejemplo, ya que en caso de desastre no pueden quedarse sin operar, y tener un Mainframe de respaldo resulta impráctico debido a su altísimo costo, pudiendo costar varios millones de dólares solo un Mainframe.
  • Data Center sincrónico (mirror on- line): Llamado espejado o (mirroring), es una estrategia donde en el Data Center de respaldo propio o rentado a algún proveedor replica todos los datos de la aplicaciones críticas, tomándolos desde el Data Center de producción, de modo constante en tiempo real, copiando bloque a bloque; de manera tal, que si ocurre un desastre, la recuperación es instantánea, pudiendo tomar tan solo algunos minutos. Es la estrategia más rápida y costosa, ya que requiere tener todos los servidores duplicados y exige tener un gran ancho de banda disponible solo para la copia de los datos en tiempo real. Por lo que los costos en infraestructura de red son altos, además del mantenimiento e la implementación del software encargado de hacer que esa replicación funcione: Softek de IBM, Stream de Oracle, u otras soluciones provistas por los fabricantes de la SAN. Está claro que este tipo de soluciones están reservadas para empresas grandes que manejan presupuestos de infraestructura millonarios y no pueden sufrir interrupciones en la operatoria de sus servicios debido a sus altísimos costos.

Importante: Si se elige una estrategia sincrónica es fundamental que dicho proceso sea monitoreado constantemente a fin de corregir los desvíos, ya que de nada sirve una inversión tan grande para luego tener problemas de inconsistencia de datos por problemas de sincronismo.
Ambas estrategias, asincrónicas o sincrónicas son válidas mientras sean adecuadas entre el balance de costo y tiempo de RTO (Recovery Time Objective), adecuando el tipo de método de replicación elegido, ya sea por SAN, por red o a nivel de servidores o de base de datos, ya que los tiempos de recuperación de datos por medio de las cintas magnéticas son lentos para las necesidades de negocio de muchas empresas.
Los fabricantes de SAN como EMC, IBM, HP, Hitachi o Dell, entre otros ofrecen soluciones de replicación que se ajustan a cualquiera de los dos tipos. También para replicación por red a nivel de sistema operativo o replicación por red con productos que optimizan el tráfico de manera segura y eficiente.

Para decidir cuál va a ser la metodología elegida para el Data Center de contingencia, se deberán analizar los costos por las pérdidas y los costos por la implementación de la solución, además de la variación en horas por cada tipo de solución sobre la base de la complejidad de las aplicaciones que se restaurarán.

viernes, 8 de agosto de 2014

Cálculo del costo de las interrupciones en el Data Center

Una de las funciones básicas de un Data Center bien diseñado es eliminar los riesgos potenciales que causarían pérdidas de gran magnitud, y minimizar el impacto de los eventos no evitables, como las catástrofes naturales. Pero la pregunta es: ¿Sabemos medir económicamente el impacto en la interrupción o degradación de servicios de nuestro Data Center?

Esta es una pregunta que debemos tener en cuenta desde la etapa de diseño hasta el fin de ciclo de vida.

Es altamente recomendable tener una estimación monetaria de cuanto cuesta por hora la indisponibilidad de una aplicación o un servidor en particular, ya que nos puede ayudar a buscar un nuevo diseño de solución cuando sea necesario y la variable económica se torne fundamental a la hora de convencer a los ejecutivos, en caso de que se requiera una inversión adicional para dicha solución.
Existen tres tipos de costos que deben tenerse en consideración:

  • Costos de Oportunidad: representa a todas aquellas utilidades que se perdieron de ganar por indisponibilidad. No poder vender en ese momento, o aun peor: el cliente se va a la competencia (no solo se pierde la venta, sino el cliente).
  • Costos Directosson los que influyen directamente en las finanzas de la empresa, por eso son más fáciles de medir como :
    • Empleados esperando para poder trabajar o pérdida de transacciones y operaciones.
    • Tiempo de recuperación de servicio.
    • Tiempo de testeo post recuperación.
    • Demandas legales por incumplimiento de obligaciones.
  • Costos Indirectos: son los costos asociados a posibles situaciones de las cuales no se tiene un gran nivel de certeza, pero se sabe que existen. Por eso son mucho más difíciles de medir, pero impactan en el negocio de la misma manera:
    • Disminución del grado de satisfacción del cliente.
    • Pérdida de clientes
    • Daños a la imagen de la compañía


El cálculo del costo de la interrupción debe incluir las variables negativas que impactan en todos los aspectos anteriormente mencionados, ya sea que se calcula por servidor o por aplicación.

                                  Costo = P * A * E * H

P = Número de personas afectadas
A = Porcentaje medio de cuanto fueron afectados en sus tareas
E = Costo promedio de la hora del personal afectado
H = Cantidad de horas de interrupción.

El valor más difícil de calcular es sin duda el costo promedio por hora de interrupción. Es importante aclarar que no se está considerando el costo potencial de las acciones que derivarían de la interrupción. Por ejemplo: costo por transacción perdida, potencial pérdida de clientes, pérdida de imagen corporativa, demandas legales, etcétera. El daño a la imagen de la marca es la pérdida más difícil de cuantificar económicamente, ya que no existe una fórmula; se pueden hacer estimaciones,
pero siempre con un índice de confiabilidad bajo.


domingo, 25 de mayo de 2014

Libro publicado y sorteo

Me complace anunciar que ha sido publicado el primer libro sobre infraestructura de Data Centers en español y también los invito a participar del sorteo de 2 ejemplares.
Este libro está concebido para todos aquellos que desean abordar por primera vez la comprensión de los elementos que integran un Data Center o están ya familiarizados con el tema, pero desean profundizar y ampliar sus conocimientos previos. Por ese motivo, esta obra es una herramienta práctica tanto para los estudiantes universitarios como para los responsables del planeamiento, diseño, implementación y operación de un Data Center en las empresas.
Los consejos, estrategias y recomendaciones que se encuentran a lo largo del libro son el resultado de una extensa investigación Se inspiran en las nuevas técnicas, los estándares más novedosos y las últimas tendencias a fin de optimizar el funcionamiento actual del Data Center, y brindarle al negocio una mejora competitiva. En ese sentido, se desarrollan una serie de propuestas destinadas a la mejora de las prácticas actuales de la industria así como al diseño de planes de contingencia.

El libro cuenta con el prólogo del Lic. Carlos Tomassino.





El libro está editado por Alfaomega ya encuentra disponible para adquirir en formato electrónico (formato ePub). La edición en papel esta llegando a los diversos países.


SORTEO:

El día 24/06/2014 se sortearán 2 ejemplares en formato electrónico ePub. Para participar concurso deberás enviar tus datos personales (nombre, apellido, correo electrónico, país de residencia)  a datacentershoy@hotmail.com
Los ganadores serán anunciados el 25/6/2014 en este mismo post.

GANADORES
Felicitamos a los ganadores del sorteo: Yuri Perales de Perú y a Pablo Astrada de Argentina.

Muchas gracias a la gente de Argentina, España, Perú, México, Chile, Ecuador, Guatemala, Costa Rica, Colombia, República Dominicana y Venezuela por haber participado.


sábado, 22 de marzo de 2014

Cúal es la Humedad Correcta de un Data Center?

La humedad es la amenaza menos visible a los equipos dentro de un Data Center. Incluso hasta algunas personas llegan a omitirla dentro de sus consideraciones al momento de monitorear.
La humedad ambiental es la cantidad de vapor de agua presente en el aire. Se puede expresar de dos formas: mediante la humedad absoluta, y de forma relativa o grado de humedad (también conocido por las siglas HR). La humedad relativa es la relación porcentual entre la cantidad de vapor de agua real que contiene el aire y la que necesitaría contener para saturarse a la misma temperatura. Por ejemplo, una humedad relativa del 60% quiere decir que de la totalidad de vapor de agua (el 100%) que podría contener el aire a esta temperatura, solo tiene el 60% de vapor.
Otro término importante es el punto de condensación o punto de rocío, representado por la temperatura a la cual el agua que está en el aire cambia de estado de gaseoso a líquido, es decir, cuando la HR = 100%. Entonces, el aire se considera saturado.
A medida que aumenta la temperatura del aire, aumenta la capacidad para retener agua, lo cual es otro buen motivo para mantener la temperatura controlada. Esto es un efecto secundario del consumo de aire frío por parte de los equipos informáticos.  Cuando el aire frío pasa desde el frente de los servidores, sale con mayor temperatura y con mayor capacidad de retener agua.

¿Como cambia el aire cuando circula por dentro del servidor para mantener los componentes a una temperatura regulada?
El aire que ingresa por el frente del servidor para refrigerarlo tiene propiedades distintas cuando sale por la parte trasera. A mayor temperatura, menor HR e igual punto de condensación.Supongamos que por el frente del servidor ingresa el aire a 22°C, probablemente a la salida del equipo la temperatura sea aproximadamente 37°C. Así mismo la humedad relativa disminuye de 50% a 22% y el punto de condensación se mantiene igual a 12°C

Existen dos posibles amenazas relacionadas con la humedad relativa dentro del Data Center:
  • Descargas electroestáticas: las posibilidades de descargas electroestáticas, también conocidas como ESD (electrostatic discharge) se producen cuando la humedad baja. Asimismo, esas posibilidades aumentan aún más si la temperatura es baja. Las descargas electroestáticas pueden ser apenas perceptibles para las personas, pero no causan ningún tipo de daño. En cambio, una descarga de 10 Volts, ya es capaz de dañar un equipo.
  • Corrosión: ocurre cuando un elemento metálico es expuesto al agua, ya sea porque se moja o se generan pequeñas gotas causadas por la condensación de agua en el aire. Por ejemplo; en un ambiente con una humedad alta. Los elementos dentro de los servidores se pueden dañar y sufrir una pérdida de datos.


La clave es encontrar un equilibrio justo para tener lograr tener la humedad en un rango óptimo donde se eviten las descargas estéticas y de condensación. Por ello, el rango más adecuado de humedad es entre el 40% y el 55% (también es el rango recomendado por la norma TIA/EIA 942)


Por arriba del 55% podría haber síntomas de corrosión, y por debajo del 40% comenzarían a aumentar los riesgos de descargas estáticas.

En el mercado existen distintos tipos de soluciones para controlar la humedad del ambiente dentro del Data Center, como por ejemplo instalar humificadores: que son dispositivos que tiene sensores, los cuales envían señales para comenzar a funcionar cuando el umbral para el cual están configurados es alcanzado.
Como medida adicional de protección se pueden instalar supresores de sobretensiones transitorias o TVSS (Transient Voltage Surge Supressors) definidos por las normas eléctricas internacionales con el fin de proteger las instalaciones eléctricas de incrementos o picos de voltaje generados por fenómenos de carácter transitorios (lapso muy reducido de tiempo). Estos fenómenos inesperados pueden causar serios problemas en las instalaciones y en los equipos sensibles.  Por esta razón, su importancia clave dentro del sistema de protecciones.
La sobrecarga puede tener dos fuentes de origen:
  • Interno: asociados con las sobretensiones relacionadas con maniobra y conmutación entre circuitos dentro de la propia instalación.
  • Externo: causado principalmente por descargas eléctricas provenientes de la atmósfera como pueden ser los rayos.



En 2011 el primer Data Center de Facebook ubicado en Prineville, Oregon (EEUU) sufrió un incidente a causa de sus sistemas de refrigeración donde la humedad relativa superó el 95%, generando condensación de agua sobre los equipos que generaron reinicios no programados a los servidores por problemas eléctricos. Artículo completo original aquí.


domingo, 28 de julio de 2013

Cúal es la Temperatura Correcta de un Data Center?

Dentro del Data Center, mantener la temperatura adecuada de forma estabilizada y controlada es una pauta fundamental del control ambiental, permitiendo el establecimiento y ejecución de una política claramente definida que contribuya a tener un Data Center robusto, confiable y durable.
El rango de temperatura óptimo para un Data Center es entre 17 °C y 21 °C. Es necesario aclarar que esa temperatura no es de carácter obligatorio e inamovible, sino que existe también un margen aceptable de operación que sería de 15 °C y 25 °C.
Cualquier temperatura mayor a 25 °C deberá ser corregida de manera inmediata, ya que implica poner en riesgo el equipamiento del Data Center.

Este rango de temperatura operacional es el indicado por los fabricantes de circuitos integrados para lograr un funcionamiento ideal en rendimiento y durabilidad, devenido de la Ley de Arrhenius [Svante August Arrhenius (1859-1927)  fue un científico físico-químico sueco, galardonado con el Premio Nobel de Química, en 1903] o también conocida como la Regla de los 10 grados. Esta regla dice que la vida de un componente o material se reduce a la mitad por cada 10 ºC de aumento en la temperatura; aplicado inversamente: por 10 ºC de disminución de temperatura, la vida útil de un semiconductor se duplicará.
En los grandes Data Centers, la temperatura es difícil de medir, ya que no existe un único punto de referencia para tomar la muestra. Por ello se debe realizar por pasillos, y hasta en algunos casos, se puede llegar a tomar la temperatura en varios Racks.
Actualmente en el mundo de IT, existe una discusión sobre cuál es la temperatura ideal para operar un Data Center debido a la publicación de las mejores prácticas recomendadas por el reconocido organismo ASHRAE [American Society of Heating, Refrigerating and Air Conditioning Engineers] en 2011, donde la entidad sugiere un rango de operación permitido más amplio según el tipo de Data Center, es decir, más elevado que lo afirmado en su previa publicación en 2008, y más aún comparada contra la versión del 2004.
En 2004 la recomendación de operación era entre 20 °C y 25 °C; en la publicación del año 2008, el rango recomendado se amplió a 18 °C y 27 °C. En el año 2011, el rango recomendado se mantuvo, pero se amplió el rango permitido de 5 °C a 40 °C (cabe aclarar que esto no es para todos los tipos de Data Centers, sino que varía según su clasificación).
El principal impulsor para ampliar los límites provino de la necesidad de la industria de tener mayor flexibilidad, y al mismo tiempo, de reducir costos en enfriamiento, para lo cual se debe tener un claro conocimiento de la edad de los servidores y su política de renovación. No es lo mismo renovar los equipos cada tres, cinco o siete años, si bien cuando se compran los equipos nadie lo hace pensando que van durar 10 años; en la práctica termina siendo mucho más habitual de lo que creemos, ya sea por razones presupuestarias o dificultades de migración.


Si sabemos que nuestros equipos se renuevan siempre cada tres años probablemente no tengamos problemas operando nuestro Data Center a 27 °C. En cambio, si sabemos que la vida útil de nuestros servidores va a ser mucho más extendida, deberíamos pensar en un rango de operación más bajo para así prolongar la duración de los equipos. Como se citó anteriormente, según la Regla de los 10 grados, a menor temperatura, mayor es la durabilidad de los componentes.
Por otra parte la norma TIA/EIA-942 recomienda como rango aceptable de temperatura entre 20 °C y 25 °C.

¿Qué rango de temperatura recomiendan los principales fabricantes de servidores?

  • IBM: 22 °C
  • Dell: 23 °C
  • HP: 22 °C


¿A qué temperatura operan los Data Centers de las grandes empresas?

  • Google: 26 °C (*)
  • Sun: 27 °C   (*)
  • Cisco: 25 °C   (*)
  • Facebook: 22°C   (*)

(*) Información disponible en la sección “Video Tour” de la página http://www.datacenterknowledge.com/


domingo, 9 de junio de 2013

Data Centers Extremos

Un Data Center o también llamado CDP (Centro de Procesamiento de Datos) es un espacio con determinadas características físicas especiales de refrigeración, protección y redundancia, cuyo objetivo es alojar todo el equipamiento tecnológico de la compañía brindando seguridad y confiabilidad. 
La variedad y calidad de los niveles de servicio que pueden alcanzar son muy variados, dependiendo principalmente de las necesidades del negocio se desean satisfacer, ya que no es lo mismo ser un proveedor de servidores "cloud" de misión crítica, que alojar algunos servidores de uso interno de una organización donde la actividad principal es por ejemplo el análisis y procesamiento de información para investigaciones poblacionales.
Estas variedades son enormes y también así de diversos los costos asociados, ya que se puede pasar de un Data Center sin redundancia a uno son varios niveles de redundancia por cada componente.
A continuación se ejemplificarán algunos de los Data Centers más extremos del mundo según esas necesidades o estrategias de diseño.

Extremos en seguridad:
Un ejemplo de Data Center con medidas de seguridad extremas podría ser el que terminará de construir para 2013 la agencia estadounidense NSA (National Security Agency) en Bluffdale, Utah, destinado a almacenar el sistema de espionaje más complejo del mundo, capaz de analizar: búsquedas de ciertas palabras claves, correos electrónicos, llamadas telefónicas, datos bancarios, fotos, etcétera. La revista Wired reveló en abril de 2012 que el programa tiene un presupuesto estimado en 2.000 millones de dólares para una superficie aproximada 9.000 m2, capaz de albergar cientos de Racks, además contará con otro espacio mucho más grande para oficinas administrativas y técnicas, lo que lo convierte también es uno de los más costosos. Solo para el programa antiterrorista perimetral se destinaron 10 millones de dólares, que incluye una valla diseñada para detener un vehículo de hasta 6 toneladas circulando a 80 km/h. Además posee su propia subestación eléctrica para una demanda de 65 MW, combustible para operar los generadores por tres días consecutivos y un sistema de enfriamiento capaz de proporcionar 60.000 toneladas de enfriamiento con tanques de agua que pueden acumular más de 6 millones de litros de agua

Otro ejemplo es el del ISP sueco, Bahnhof, que en 2008 rediseñó las instalaciones de un bunker militar antinuclear construido en Escolmo durante la guerra fría, como espacio físico para alojar sus equipos.
Ubicado a 30 metros bajo tierra, con puertas de 40 cm de ancho, 2 motores diesel de submarino con capacidad de 1,5 MW cada uno para generar energía en caso de interrupción, tres cableados principales de Internet redundantes ( dos de fibra óptica y uno de cobre)
Si desean ver las fotos completas, remitirse al artículo original aquí



Extremos en velocidad de red:

¿Cual es el Data Center que ofrece mayor velocidad? Realmente la respuesta es difícil, ya que actualmente en el mercado existen equipos de red con capacidades de transmitir por fibra óptica a cortas distancias a 40 Gb, obviamente, para los gigantes informáticos como Google, IBM, Cisco, etc, comprar varios de estos dispositivos y ampliar la capacidad de red a 100Gb no es tarea compleja, pero actualmente científicos del Laboratorio Nacional Los Alamos, de la Universidad de California, desarrollaron un prototipo de muchísimo más rápida llamada: red cuántica que lleva más de dos años en actividad.
Además de conseguir velocidades nunca antes alcanzadas y sería invulnerable ya que utiliza un nuevo paradigma computacional. Si bien desde hace un tiempo se habla de la computación cuántica, el retraso en su implementación se debe a que todavía está lejos de ser una realidad comercial. Ver nota recomendada aquí. Actualmente los científicos que trabajan en ella estiman que no será masiva hasta dentro de 10 años.

Extremos en condiciones ambientales ecológicas:

Existen muchos ejemplos de Data Centers ecológicos, ya que la forma en que refrigeran los equipos y como generan la energía eléctrica son las dos variables que más influyen a la hora de determinar la eficiencia ecológica y varían según la ubicación geográfica.
Google terminó de construir en Hamina, Finlandia, ubicado en una antigua papelera, con una inversión de 252 millones de dólares, y para el cual utilizarán un sistema de refrigeración por agua. Gracias a su excelente ubicación geográfica puede tomar el agua fría del Mar Báltico, ahorrando así una considerable cantidad de dólares por año en refrigeración. Este tipo de estrategias le permiten a Google reducir año a año de manera continua el uso de energía necesaria para mantener operativo sus servidores, como lo muestra una publicación reciente de la firma en su blog.  Y más aún cuando se inaugure en 2015 la central eólica ubicada en Maevaara que proveerá energía eléctrica no contaminante.

Otro caso es el de la empresa de hosting estadounidense AISO que en su Data Center de 
2.000 m2, dispone de 120 paneles solares, lo que le hace ahorrar hasta 3.000 dólares mensuales en electricidad. Para la iluminación de sus oficinas tiene montado un sistema de tubos que redirigen la luz solar hacia las lamparas del interior. Adicionalmente 
posee de un sistema recolector de agua de lluvia, que luego es utilizado en la refrigeración para el aire acondicionado de los equipos, lo que le permite tener un PUE = 1,14. Este podría ser en definitiva uno de los centros de datos más “verdes” del planeta.
Facebook también está innovando en este área inaugurando un nuevo Data Center en Lulea, suecia.con un PUE=1,07 basado en energía hidroeléctrica 100% renovable, ver link con el anuncio oficial aquí.

Extremos en tamaño:

El Data Center más grande del mundo está ubicado en Langfang, China. El proyecto ocupa un área de 1.341.867 m2, con  2.622.470 m2 de construcción, de los cuales 620.000 m2 estará destinados al sector exclusivo para Data Center, lo convierte en el mayor emprendimiento del mundo.



sábado, 4 de mayo de 2013

DCIM mucho más que una Herramienta de Gestión


La administración de la infraestructura de un Data Center es una tarea compleja, pero por suerte en el mercado existen herramientas relativamente nuevas llamadas DCIM, Data Center Infrastructure Management que proveen la capacidad de lograr un buen rendimiento de los recursos administrados, buscando la optimización y planificación continua de una manera simple, considerando que cada vez hay más interdependencia entre la capa física y la capa lógica de la infraestructura. Esto se logra por medio de un monitoreo integral que facilita la gestión, la eficiencia y mantiene la disponibilidad.
Cuántas veces los administradores de Data Centers escuchamos este diálogo cuando hablamos con los Administradores de red:
¿Para qué se utiliza ese servidor que está encendido allí?
Creo que ese equipo no lo utiliza nadie, pero estaba funcionando desde antes de que ingresara a la empresa. 
Esa respuesta puede parecer ilógica, pero resulta bastante habitual en la práctica, sobre todo en ambientes medianos a grandes. Probablemente ese equipo está encendido desde hace años y nadie lo usa o quizás la aplicación fue migrada a otro servidor, generando calor, consumiendo energía, es decir, haciéndole perder dinero a la empresa innecesariamente.

Antiguamente la misión del responsable del Data Center era solo dar soporte a las necesidades de negocio, cumpliendo con los planes actuales. Pero hoy en día, la tendencia es distinta, la gestión administrada debe ser capaz de brindar una ventaja competitiva para lograr el éxito del negocio, haciéndolo ágil y eficiente de manera confiable.  Los cambios de las economías son muy rápidos y el no ser capaz de responder de forma satisfactoria puede hacer fracasar un proyecto o perder una oportunidad única. Por eso, los ojos deben estar puestos en el futuro y en las próximas tendencias.
Los desafíos pueden tener orígenes muy variados: económicos, tecnológicos, el ámbito de los negocios y lo relacionado con el cumplimiento de normativas o regulaciones, por ello surgieron en los últimos años herramientas como DCIM que facilitan esta tarea, por ejemplo ayudándonos a medir el PUE en tiempo real.

Las funcionalidades de información deseables de una herramienta de gestión DCIM son:
·    Centralización: toda la información puede ser consultada desde un solo lugar.
·    Autodescubrimiento: a medida que se agrega nuevo hardware, deberá ser visualizado en la consola (sea físico o virtual), quizás haya una limitación por fabricante o modelo.
·    Visualización: la herramienta debe ser capaz de mostrar gráficos de capacidad en tiempo real y extraer reportes, para efectuar comparaciones a futuro de la capacidad actual del Data Center, como ser: red, electricidad, UPS, PUE, almacenamiento, temperatura, espacio en Racks, etcétera.
·   Comunicación: capacidad de enviar notificaciones, alertas, correos u otras notificaciones, dadas determinadas condiciones.
·   Generación de alertas preventivas: Mediante la inteligencia predictiva puede ser capaz de notificar los problemas de capacidad a corto plazo. Cabe destacar que un reciente estudio de la consultora IDC concluyó que el 84% de los encuestados han tenido problemas de planificación de la capacidad de la infraestructura (ver paper aquí).


La decisión de adquirir un software de DCIM no es simple, ya que el software es costoso y requiere dedicación de recursos adicionales en la configuración y puesta a punto del sistema. Dichas implementaciones no son simples y pueden llevar tiempo. El objetivo final de una herramienta DCIM es tener el control centralizado de los recursos, generar reportes sobre la base de la información recolectada, y tomar decisiones que permitan optimizar los recursos, generando ahorros en la operatoria, y si bien es una herramienta que se encuentra en amplio crecimiento es importante que elijamos la que mejor se adapta a nuestra infraestructura ya que existen gran variedad de proveedores en el mercado de DCIM y no todos son iguales (ni los precios tampoco, ya que son bastante caras). En 2010 Gartnet predijo que este tipo de herramientas van a tener un crecimiento en penetración en el mercado del 1% al 60% para el año 2014.

El objetivo final de una herramienta DCIM es lograr evolucionar desde el “Caos” que son las planillas del cálculos, a un ambiente “Informado y con aplicaciones consolidadas” para luego evolucionar en un proceso de “Optimización” y por último llegar a un modelo de “Data Center planificado estratégicamente”. Como resultado final de una buena implementación de una herramienta de DCIM se puede ver una Infraestructura inteligente, optimizada y hasta que es capaz de reducir los costos operativos, para más detalles les recomiendo este paper que se puede bajar aquí: "Getting started with DCIM". También les recomiendo este paper sobre planificación estratégica de “Data Center Knowledge Guide to Data Center Infrastructure Management (DCIM)” que se puede bajar aquí.

Para evitar el uso de planillas de cálculo como control de inventario de los equipos dentro del Data Center, que suelen ser estáticas y no están actualizadas debidamente (en especial, cuando hay varios sitios que administrar y el crecimiento es grande), existen herramientas dinámicas que facilitan la tarea de DCIM, como ser:  CA DCIM 4.0 de Computer Associates; Asset Point de Align Communications; InfraStruXure de APC; Operations Manager de HP; Nlyte, OpenData Software de Modius; o Avocent de Emerson, solo por nombrar alguas. Muchos de ellos poseen funcionalidad que les permiten tomar la información de manera automática según el hardware. Les recomiendo leer el paper que se puede bajar aquí: “Enterprise Managment associates – Radar for Data Center Infrastructure Management (DCIM)” publicado en Diciembre del 2012, donde se evalúan muchos de estos productos según sus características más importantes, ya que no todos son iguales, variando en niveles de integración, funcionalidades operativas y de gestión.

Cabe destacar que existe una solución económica (pero estática con pocas funcionalidades) basada en software libre llamada Open DCIM http://www.opendcim.org y que se instala fácilmente, basándose en una solución Web para reemplazar las planillas de cálculos. Complementariamente en el sitio http://www.dcimexpert.com/ se pueden ingresar sugerencias y recomendaciones para mejorar las tareas de gestión.



"Por muy hermosa que sea la estrategia, de vez en cuando debes mirar los resultados" Winston Churchill (1874–1965) Político, escritor británico. Premio Nobel de Literatura en 1953.


domingo, 24 de marzo de 2013

Madurez del Data Center - DCMM

A menudo hablamos de optimización y mejores prácticas para logra un Data Center ecológico y sustentable manteniendo una relación eficiente entre disponibilidad y costos. Otra perspectiva de ver los mismos objetivos es a través del análisis de los distintos componentes que lo integran, analizando la “madurez” del Data Center en base a un modelo referencial desarrollado por la organización “The Green Grid” llamado DCMM (Data Center Maturity Model) publicado en 2011, el cual permite clasificar el nivel de “madurez” de los componentes del Data Center. Este modelo es similar al popular estándar ingenieril para el desarrollo de software: CMM  o también llamado CMMI que establece 5 niveles de perfeccionamiento en la forma que se construye software.
Del mismo modo el DCMM evalúa y clasifica de 0 a 5 los niveles de cada uno de los componentes, donde 0 es el nivel mínimo o también llamado “nivel de caos” y siendo 5 el más eficiente o también llamado “nivel visionario”.

DCMM analiza el Data Center y sus elementos en base a dos puntos principales, como ser la infraestructura física y la tecnología allí alojada en función de la eficiencia y la inversión de recursos.

Infraestructura del Data Center:
  • Alimentación eléctrica: Principalmente toma como base el porcentaje de eficiencia eléctrica, operación, monitoreo, materiales utilizados entre otras variables y determina valores de 0 a 5.
  • Refrigeración: Analiza el PUE de los equipos de refrigeración, los materiales, operatoria, control ambiental y emisiones, entre otros parámetros y en base a eso determina niveles de 0 a 5.
  • Otros: Evalúa de 0 a 5 la capacidad real con respecto a la que se está utilizando, la construcción, los materiales comprados, la iluminación, etc.
  • Gestión: Similar a los puntos anteriores, considerando la eficiencia de consumo eléctrico, de agua, reutilización del calor generado, como se colecta la información (centralizada o descentralizada), etc.

Tecnología de los equipos:
  •  Procesamiento: Evalúa la utilización de procesamiento total del Data Center, adopción de estándares, forma de operación, gestión eléctrica integrada, cantidad de servidores, y en función de cuáles son las aplicaciones que se ejecutan basado en las mejores prácticas y lo clasifica de 0 a 5.
  • Almacenamiento: Se analiza la cantidad de datos almacenados en función de la capacidad disponible, la forma de gestión y operación, la arquitectura, la tecnología y la asignación de espacio, en donde la mejor calificación posible es también 5.
  • Red: Para clasificarlos se tiene en cuenta la utilización de la red, el tráfico de paquetes, la forma de operación, la tecnología utilizada, la topología, la performance y el aprovisionamiento del ancho de banda.
  • Otros: Se analiza la capacidad total de los elementos tecnológicos, la utilización de los mismos, certificaciones de los componentes, documentación relacionada a los equipos (por ejemplo un catálogo), estrategias de reciclado, políticas, etc.
El en gráfico se puede ver como interactuan los distintos componentes para poder alcanzar los distintos niveles en función de la eficiencia y los recursos en base a los distintos niveles alcanzados para cada elemento interviniente en el Data Center.



Para aquellos que deseen profundizar sobre este tema los invito a ver la página oficial de DCMM (en inglés)
Para descargar el gráfico completo detallado en formato pdf hacer click aquí. (en inglés)



"El orden y la simplificación son los primeros pasos hacia el dominio de un tema, el enemigo real es lo desconocido"  -- Thomas Mann  (1875-1955) Escritor alemán. Premio Nobel de Literatura en 1929



jueves, 7 de febrero de 2013

Estándares en el Data Center


En la etapa de diseño del Data Center se evalúan cuales son los estándares que se desearán alcanzar. En ese momento surgen muchas dudas y preguntas relacionadas con el establecimiento de cuáles son los estándares correctos para lograr satisfacer las necesidades del negocio o lo mismo ocurre si  se está evaluando un Data Center de un proveedor. Los cuestionamientos sobre la calidad y los niveles de servicios ofrecidos pueden generar incertidumbre en los clientes. Esta es una tarea dificultosa ya que cumplir con las exigencias de un estándar es muy complejo y costoso. Además en el mercado existen muchos y no es posible cumplir con todos al mismo tiempo ya que tiene objetivos y requerimientos distintos.
Con objetivo de tener una visión simplificada de todos los estándares y como se relacionan entre ellos, he desarrollado un gráfico a modo de resumen, en el cual se que pueden observar como se encuentran agrupados los estándares y Frameworks más importantes en el mundo IT. Además se puede observar la interrelación entre las diversas áreas ya que se hallan agrupados por módulos, que van desde la gestión de los recursos del Data Center, hasta la gestión estrategia del Gobierno de IT.




Los módulos se encuentran agrupados por color según el área de aplicación dentro de IT y se destacan principalmente las siguientes:

  • Gestión Nivel de Servicio: Organización de servicio y Gestión de Incidentes
  • Gestión de Seguridad: Protección de información y Seguridad Física
  • Gestión de Proyectos
  • Gestión de Infraestructura: Gestión de Red (Cableado y Rotulado), Espacio físico, Prevención de incendios, Electricidad, Temperatura y humedad, Racks
  • Gestión de servicios: Gestión de riesgos, Gestión edilicia, Gestión de Infraestructura.
  • Gestión Ambiental.
  • Monitoreo y control de métricas.
  • Continuidad del negocio: Gestión de BCP (Business Continuity Plan), Gestión de DR (Disaster Recovery) y BCP
  • Gobierno de IT, Gestión de RRHH y Gestión administrativa.

Para acceder al gráfico en tamaño alta resolución haga click aquí

A modo de aclaración se debe tener en cuenta la diferencia que existen:  mejores prácticas o Frameworks, regulaciones o estándares, aquí el detalle:

  • Regulaciones: son de carácter obligatorio según el tipo de actividad. Están reguladas por una ley, y no cumplirla puede hacer que el organismo regulador quite la licencia de habilitación al negocio para desarrollar la actividad. Como por ejemplo SOX, HIPAA, etc.
  • Estándares: son disposiciones concretas sugeridas por organismos reconocidos, que en el marco del cumplimiento con las normas establecidas certifican que la empresa cumple con los criterios delineados en el modelo.  Como por ejemplo las normas ISO entre otras.
  • Frameworks: como el nombre de la palabra lo indica, son marcos de trabajo, son los más flexibles, ya que no están regulados. Ofrecen una metodología sugerida de trabajo que se adaptará a las necesidades operativas del negocio. Como por ejemplo ITIL, COBIT, etc.


En caso de existir una regulación local que especifique ciertas medidas que se deban cumplir en el Data Center, estas estarán por encima de las regulaciones internacionales, salvo que los parámetros establecidos en las normas internacionales sean más exigentes que las locales.
Aquí hemos nombrado solo algunos de los estándares más importantes, pero existen muchísimos más, en especial en materia de regulaciones, ya que dependen de cada país y rubro comercial.
Para esta investigación solo se consideraron los últimos estándares aprobados a la fecha o aquellos que se encuentran en etapa de revisión. Los estándares viejos o que fueron reemplazados por otros más nuevos no han sido incluidos con el fin de mantener el gráfico lo más simple posible.

Nota: Se actualizó el gráfico en la sección de construcción edilicia. Se particular se eliminó la norma NBE-CPI-96, derogada desde la aparición del CTE (Código Técnico de la Edificiación).
Gracias a Ana Otin Marcos por tu comentario.

sábado, 12 de enero de 2013

Camino al Data Center Ecológico


Cuando se habla de eficiencia y ecología dentro del Data Center, lo primero que se nos viene a la mente es la métrica PUE (Power Usage Effectiveness) que mide el valor de la eficiencia eléctrica de los equipos de IT en relación al consumo eléctrico total, creada por la organización The Green Grid 

                  Consumo eléctrico total               100 kW
PUE =    -------------------------------------------   =   --------------  =  1,7
                  Consumo equipos de IT                58 kW

Si bien el organismo no establece un valor mínimo, mientras menor sea el valor PUE, mejor será el aprovechamiento eléctrico, lo que se traduce en menores costos y emisiones de CO2, permitiendo reducir la llamada huella de carbono.
Por los general el valor de PUE de los Data Centers del mercado oscila entre 1,2 y 4, aunque el valor perfecto sería un PUE = 1.0 que resulta prácticamente imposible de alcanzar, ya que quiere decir que toda la energía consumida por los equipos es igual a la ingresada en el Data Center para que funcione completamente, y donde la refrigeración, UPS, entre otros, no tuvieron consumo eléctrico alguno. Esto es realmente difícil de que suceda. Un PUE = 2 representa que los sistemas que forma la infraestructura consumen los mismo que todos los equipos de IT.
Pero la pregunta es ¿ Si el PUE de un Data Center es practicamente =1, estamos frente a una instalación ecológicamente sustentable ?
La respuesta es claramente NO. Si bien es cierto que el PUE bajo es uno de los mayores determinantes para asegurar emisiones reducidas, aquí en entran en juego otras variables a analizar, como por ejemplo los materiales usados en el Data Center, la frecuencia renovación de equipos que generan basura electrónica y contaminan si no se toman acciones para su reciclaje: 
Para explicar este punto veamos un ejemplo: El PUE actual de nuestro Data Center es 1,5, sin embargo para disminuir el consumo eléctrico se decide aumentar la temperatura de operación del Data Center, pasando de 21 ºC a un máximo de 32 ºC, sin dudas el consumo eléctrico será menor, ya que los equipos de refrigeración funcionarán menos, haciendo que el PUE disminuya hasta por ejemplo 1,2. Pero esta decisión tiene un efecto colateral con el paso del tiempo: la degradación de componentes, que hará tener que reemplazar piezas más frecuentemente, según la Ley de Arrhenius  o también conocida como la Regla de los 10 grados. Esta regla dice que la vida de un componente o material se reduce a la mitad por cada 10 ºC de aumento en la temperatura; aplicado inversamente: por 10 ºC de disminución de temperatura, la vida útil de un semiconductor se duplicará, También causará que la vida útil de las baterías que conforman la UPS sea menor a la establecida por el fabricante, aumentando costos y generando mas desperdicios. Por eso un PUE bajo no asegura que estemos frente a un Data Center sustentable con el medio ambiente a largo plazo.
Aquí se enumeran algunas recomendaciones para lograr un Data Center realmente ecológico:
  • Analizar la eficiencia eléctrica interna de todos los componentes que se compran.
  • Aprovechar al máximo los recursos, la Virtualización es de gran ayuda para lograr este objetivo.
  • Utilizar distribución de Corriente Continua en todos los casos que sea posible, más detalles aquí.
  • Reemplazar los tubos fluorescentes por LEDs, consumen menos, generan menos calor y proveen buena iluminación (asegurar que proveen iluminación suficiente para las cámaras de seguridad).
  • Colocar los equipos que generan más calor próximos a los enfriadores.





martes, 11 de diciembre de 2012

Eficiencia de la Corriente Continua en el Data Center


Dentro del Data Center como en nuestra vida cotidiana interactuamos tanto con la corriente alterna (CA – corriente que circula en ambos sentidos) como con la corriente continua (CC – corriente que circula en un solo sentido) según las necesidades del equipamiento que estemos utilizando, pero debido a la gran cantidad de energía que se consume dentro del Data Center y las pérdidas de energía entre cada conversión, una distribución final de CC podría ser la varita mágica para los problemas de eficiencia y ahorrar millones en costos eléctricos.
Para entender un poco más el problema hagamos un repaso histórico del origen de ambas corrientes. A finales del siglo XIX, Thomas Edison, gran inventor Estadounidense (aunque sus biógrafos más estudiosos lo reconocen como mejor empresario que científico y fundador de General Electric) impulsaba la CC que había descubierto; por el otro lado el brillante científico Serbio Nikolo Testa, promovía la CA que había inventado mientras trabajaba para la empresa Westinghouse, y si bien Testa había trabajado para Edison en 1884 ayudándolo a mejorar sus sistemas de CC, abandonó su posición en 1886 para emprender otro proyecto de generación de electricidad que sea más eficiente. Durante un período que duró años esas dos alternativas de corriente se disputaban cual sería el estándar para la masificación y no en vano fue llamado “La guerra de las corrientes” ya que ambas empresas querían imponer sistema eléctrico. Tan despiadada era la campaña, que para desprestigiar e intimidar a la población sobre el uso de la CA, personas allegadas a Edison electrocutaban públicamente vacas, caballos, perros y gatos usando CA, incluso llegaron a electrocutar un elefante llamado Topsy en 1903, aunque para ese entonces la CC ya había perdido la batalla, ya que la CA había demostrado ser más eficiente y económica cuando en 1893 obtuvo la licitación para iluminar la Feria Mundial de Chicago por un precio que era la mitad del presentado por su competidor. Para contrarrestar esos efectos de imagen negativa de la CA Testa sometió su cuerpo al paso de CA logrando desmitificar la excesiva peligrosidad que querían demostrar los defensores de la CC y pese a todos esos intentos de desprestigio Edison no logró imponer su sistema eléctrico ya que presentaba ciertas ventajas y ciertas desventajas que lo hacían útiles para ciertas cosas e ineficientes para otras.
Con el paso de los años la CA se quedó con el triunfo de la distribución masiva por su capacidad de recorrer grandes distancias sin sufrir pérdidas de tensión, pero el problema es que no se puede almacenar para utilizarla en otro momento y la CC se impuso en lugares donde se requiere almacenar energía, como: pilas o  baterías y en equipos que requieran baja potencia para funcionar, pero su principal defecto es que no se puede transportar en líneas de alta tensión por grandes distancias ya que las pérdidas eléctricas por km son muy grandes.  Por ello en el Data Center se necesitan de ambas como se ve en el gráfico de un ejemplo típico de cómo fluye la electricidad:


Volviendo a la pregunta inicial: ¿Es realmente posible una solución donde solo se utilice CC en un Data Center? La respuesta es compleja, pero podríamos decir que si es posible, ya que la manera de lograrlo sería mejorando la eficiencia, y eso se puede hacer eliminando los puntos donde se realizan las conversiones de CA/CC y viceversa.
Como se puede ver en el gráfico anterior los componentes internos de los equipos de IT utilizan CC para su funcionamiento, pero para que la corriente llegue hasta allí, debe pasar por muchos pasos, desde la red eléctrica (CA), convertirse a (CC) para poder almacenarse en la UPS, luego se rectifica la corriente para llegar a la PDU (CA), desde allí llegará a los equipos y por último la fuente interna la transformará por última vez (CC) para alimentar a los procesadores, memorias, y otros circuitos internos.
Cada una de estas transformaciones de corrientes genera pérdidas de eficiencia, que se transforman en pérdidas económicas. Pero ¿qué pasaría si el proveedor de red eléctrica suministrara CC, cargara la UPS, pasara por la PDU y llegara a los equipos directamente sin transformaciones? Este escenario sería óptimo, ya que las pérdidas dentro del Data Center serían muy pocas y la eficiencia sería muy alta. Pero en la práctica resulta muy difícil que eso pueda suceder por diversos factores:
Prácticamente no existen proveedores de red eléctrica que suministren CC, por la deficiencia que presenta al transportarlo en largas distancias.
Hay muy pocos proveedores en el mercado de IT que ofrezcan equipos para ser alimentados directamente con CC y los pocos que hay tiene precios más elevados que los alimentados con CA.
Por estos factores limitantes podemos decir que es realmente difícil lograrlo, salvo que se diseñe un gran Data Center con su propia central eléctrica ubicada en las cercanías y que provea CC a un costo apropiado y sin pérdidas de eficiencia.

En el siguiente: link se pueden apreciar las innovaciones tecnológicas propuestas por la empresa ABB sobre este tema.


lunes, 29 de octubre de 2012

Procedimientos: su Impacto e Importancia al Data Center


Cuando nos referimos a los procedimientos de emergencia de un Data Center muchas veces no se toma en consideración las implicancias de ejecutarlos erróneamente o simplemente no tenerlos. Para ejemplificarlo voy a relatar un caso  real ocurrido un par de años atrás en una empresa a la que asesoraba eventualmente sobre algunos temas de IT, que por razones de discrecionalidad no revelaré.
En el verano de 2010 dicha organización disponía de una buena infraestructura para poder soportar interrupciones eléctricas, aunque no siempre todo sale según lo planeado.
El Data Center está ubicado en un 9no piso de un edificio bastante viejo que contaba con un piso técnico, una UPS capaz de soportar la carga total con una autonomía de 15 minutos y sistema de refrigeración por expansión directa (DX). En ese momento había 17 Racks a un consumo promedio de 9 kVA cada uno. El aire acondicionado y las UPS consumían 30 kVA, lo que en total sumaba un consumo de 183 kVA. Además es edificio poseía un generador que había sido adquirido 10 años atrás con una capacidad operativa de 200 kVA, si bien no era de lo más moderno estaba bien mantenido y las dos veces anteriores que se había usado, respondió adecuadamente.
Un sábado caluroso de verano a las 19:00 ocurre el imprevisto: se corta la red eléctrica. Como el Data Center estaba bien planificado no se presentaron problemas, ya que las UPS habían sido correctamente mantenidas y funcionaron sin problemas, pasaron 8 minutos y como la electricidad seguía sin funcionar se encendió el generador normalmente. A los 14 minutos las baterías de la UPS agotaron su carga completamente, pero como el generador ya estaba funcionando, comenzó a brindar energía eléctrica a los equipos del Data Center….hasta allí iba todo perfecto, porque en consumo total del Data Center era 183 kVA y la potencia máxima del generador era 200 kVA. Pese a lo inconveniente de la situación, no había ningún impacto, pero ocurrió lo inesperado…… a alguien se le ocurrió usar el ascensor !!!!
La ignición del motor del generó un pico de consumo eléctrico de 30 kVA que superó el máximo de carga del generador, saturando el sistema eléctrico y causando una interrupción total en el Data Center.
En el gráfico se puede apreciar el pico de consumo eléctrico que generan los elevadores en promedio cuando inician el ascenso según el peso de la carga:


Como consecuencia se apagaron abruptamente todos los equipos del Data Center, lo que causó la rotura de dos discos rígidos, una fuente de alimentación y muchas horas de trabajo para los administradores que tuvieron que encender los equipos manualmente cuando regresó la energía eléctrica una hora después. Debido al horario, el impacto al negocio no fue muy grande.

¿Qué medidas se debería haber tomado para que no pase ese incidente?
Definir y aplicar un procedimiento de emergencia para aplicar en casos de interrupción eléctrica, en el cual, los responsables del edificio deberían haber procedido como cuando se evacua el edificio en caso de incendio, enviado los ascensores a planta bajar y abrir las puertas, dejándolos fuera de funcionamiento hasta que se restaure el servicio eléctrico. Dicha acción hubiera evitado la interrupción en el Data Center, no todo se reduce a la planificación de los recursos, sino que también es importante la forma de usarlos adecuadamente.