domingo, 28 de julio de 2013

Cúal es la Temperatura Correcta de un Data Center?

Dentro del Data Center, mantener la temperatura adecuada de forma estabilizada y controlada es una pauta fundamental del control ambiental, permitiendo el establecimiento y ejecución de una política claramente definida que contribuya a tener un Data Center robusto, confiable y durable.
El rango de temperatura óptimo para un Data Center es entre 17 °C y 21 °C. Es necesario aclarar que esa temperatura no es de carácter obligatorio e inamovible, sino que existe también un margen aceptable de operación que sería de 15 °C y 25 °C.
Cualquier temperatura mayor a 25 °C deberá ser corregida de manera inmediata, ya que implica poner en riesgo el equipamiento del Data Center.

Este rango de temperatura operacional es el indicado por los fabricantes de circuitos integrados para lograr un funcionamiento ideal en rendimiento y durabilidad, devenido de la Ley de Arrhenius [Svante August Arrhenius (1859-1927)  fue un científico físico-químico sueco, galardonado con el Premio Nobel de Química, en 1903] o también conocida como la Regla de los 10 grados. Esta regla dice que la vida de un componente o material se reduce a la mitad por cada 10 ºC de aumento en la temperatura; aplicado inversamente: por 10 ºC de disminución de temperatura, la vida útil de un semiconductor se duplicará.
En los grandes Data Centers, la temperatura es difícil de medir, ya que no existe un único punto de referencia para tomar la muestra. Por ello se debe realizar por pasillos, y hasta en algunos casos, se puede llegar a tomar la temperatura en varios Racks.
Actualmente en el mundo de IT, existe una discusión sobre cuál es la temperatura ideal para operar un Data Center debido a la publicación de las mejores prácticas recomendadas por el reconocido organismo ASHRAE [American Society of Heating, Refrigerating and Air Conditioning Engineers] en 2011, donde la entidad sugiere un rango de operación permitido más amplio según el tipo de Data Center, es decir, más elevado que lo afirmado en su previa publicación en 2008, y más aún comparada contra la versión del 2004.
En 2004 la recomendación de operación era entre 20 °C y 25 °C; en la publicación del año 2008, el rango recomendado se amplió a 18 °C y 27 °C. En el año 2011, el rango recomendado se mantuvo, pero se amplió el rango permitido de 5 °C a 40 °C (cabe aclarar que esto no es para todos los tipos de Data Centers, sino que varía según su clasificación).
El principal impulsor para ampliar los límites provino de la necesidad de la industria de tener mayor flexibilidad, y al mismo tiempo, de reducir costos en enfriamiento, para lo cual se debe tener un claro conocimiento de la edad de los servidores y su política de renovación. No es lo mismo renovar los equipos cada tres, cinco o siete años, si bien cuando se compran los equipos nadie lo hace pensando que van durar 10 años; en la práctica termina siendo mucho más habitual de lo que creemos, ya sea por razones presupuestarias o dificultades de migración.


Si sabemos que nuestros equipos se renuevan siempre cada tres años probablemente no tengamos problemas operando nuestro Data Center a 27 °C. En cambio, si sabemos que la vida útil de nuestros servidores va a ser mucho más extendida, deberíamos pensar en un rango de operación más bajo para así prolongar la duración de los equipos. Como se citó anteriormente, según la Regla de los 10 grados, a menor temperatura, mayor es la durabilidad de los componentes.
Por otra parte la norma TIA/EIA-942 recomienda como rango aceptable de temperatura entre 20 °C y 25 °C.

¿Qué rango de temperatura recomiendan los principales fabricantes de servidores?

  • IBM: 22 °C
  • Dell: 23 °C
  • HP: 22 °C


¿A qué temperatura operan los Data Centers de las grandes empresas?

  • Google: 26 °C (*)
  • Sun: 27 °C   (*)
  • Cisco: 25 °C   (*)
  • Facebook: 22°C   (*)

(*) Información disponible en la sección “Video Tour” de la página http://www.datacenterknowledge.com/


domingo, 9 de junio de 2013

Data Centers Extremos

Un Data Center o también llamado CDP (Centro de Procesamiento de Datos) es un espacio con determinadas características físicas especiales de refrigeración, protección y redundancia, cuyo objetivo es alojar todo el equipamiento tecnológico de la compañía brindando seguridad y confiabilidad. 
La variedad y calidad de los niveles de servicio que pueden alcanzar son muy variados, dependiendo principalmente de las necesidades del negocio se desean satisfacer, ya que no es lo mismo ser un proveedor de servidores "cloud" de misión crítica, que alojar algunos servidores de uso interno de una organización donde la actividad principal es por ejemplo el análisis y procesamiento de información para investigaciones poblacionales.
Estas variedades son enormes y también así de diversos los costos asociados, ya que se puede pasar de un Data Center sin redundancia a uno son varios niveles de redundancia por cada componente.
A continuación se ejemplificarán algunos de los Data Centers más extremos del mundo según esas necesidades o estrategias de diseño.

Extremos en seguridad:
Un ejemplo de Data Center con medidas de seguridad extremas podría ser el que terminará de construir para 2013 la agencia estadounidense NSA (National Security Agency) en Bluffdale, Utah, destinado a almacenar el sistema de espionaje más complejo del mundo, capaz de analizar: búsquedas de ciertas palabras claves, correos electrónicos, llamadas telefónicas, datos bancarios, fotos, etcétera. La revista Wired reveló en abril de 2012 que el programa tiene un presupuesto estimado en 2.000 millones de dólares para una superficie aproximada 9.000 m2, capaz de albergar cientos de Racks, además contará con otro espacio mucho más grande para oficinas administrativas y técnicas, lo que lo convierte también es uno de los más costosos. Solo para el programa antiterrorista perimetral se destinaron 10 millones de dólares, que incluye una valla diseñada para detener un vehículo de hasta 6 toneladas circulando a 80 km/h. Además posee su propia subestación eléctrica para una demanda de 65 MW, combustible para operar los generadores por tres días consecutivos y un sistema de enfriamiento capaz de proporcionar 60.000 toneladas de enfriamiento con tanques de agua que pueden acumular más de 6 millones de litros de agua

Otro ejemplo es el del ISP sueco, Bahnhof, que en 2008 rediseñó las instalaciones de un bunker militar antinuclear construido en Escolmo durante la guerra fría, como espacio físico para alojar sus equipos.
Ubicado a 30 metros bajo tierra, con puertas de 40 cm de ancho, 2 motores diesel de submarino con capacidad de 1,5 MW cada uno para generar energía en caso de interrupción, tres cableados principales de Internet redundantes ( dos de fibra óptica y uno de cobre)
Si desean ver las fotos completas, remitirse al artículo original aquí



Extremos en velocidad de red:

¿Cual es el Data Center que ofrece mayor velocidad? Realmente la respuesta es difícil, ya que actualmente en el mercado existen equipos de red con capacidades de transmitir por fibra óptica a cortas distancias a 40 Gb, obviamente, para los gigantes informáticos como Google, IBM, Cisco, etc, comprar varios de estos dispositivos y ampliar la capacidad de red a 100Gb no es tarea compleja, pero actualmente científicos del Laboratorio Nacional Los Alamos, de la Universidad de California, desarrollaron un prototipo de muchísimo más rápida llamada: red cuántica que lleva más de dos años en actividad.
Además de conseguir velocidades nunca antes alcanzadas y sería invulnerable ya que utiliza un nuevo paradigma computacional. Si bien desde hace un tiempo se habla de la computación cuántica, el retraso en su implementación se debe a que todavía está lejos de ser una realidad comercial. Ver nota recomendada aquí. Actualmente los científicos que trabajan en ella estiman que no será masiva hasta dentro de 10 años.

Extremos en condiciones ambientales ecológicas:

Existen muchos ejemplos de Data Centers ecológicos, ya que la forma en que refrigeran los equipos y como generan la energía eléctrica son las dos variables que más influyen a la hora de determinar la eficiencia ecológica y varían según la ubicación geográfica.
Google terminó de construir en Hamina, Finlandia, ubicado en una antigua papelera, con una inversión de 252 millones de dólares, y para el cual utilizarán un sistema de refrigeración por agua. Gracias a su excelente ubicación geográfica puede tomar el agua fría del Mar Báltico, ahorrando así una considerable cantidad de dólares por año en refrigeración. Este tipo de estrategias le permiten a Google reducir año a año de manera continua el uso de energía necesaria para mantener operativo sus servidores, como lo muestra una publicación reciente de la firma en su blog.  Y más aún cuando se inaugure en 2015 la central eólica ubicada en Maevaara que proveerá energía eléctrica no contaminante.

Otro caso es el de la empresa de hosting estadounidense AISO que en su Data Center de 
2.000 m2, dispone de 120 paneles solares, lo que le hace ahorrar hasta 3.000 dólares mensuales en electricidad. Para la iluminación de sus oficinas tiene montado un sistema de tubos que redirigen la luz solar hacia las lamparas del interior. Adicionalmente 
posee de un sistema recolector de agua de lluvia, que luego es utilizado en la refrigeración para el aire acondicionado de los equipos, lo que le permite tener un PUE = 1,14. Este podría ser en definitiva uno de los centros de datos más “verdes” del planeta.
Facebook también está innovando en este área inaugurando un nuevo Data Center en Lulea, suecia.con un PUE=1,07 basado en energía hidroeléctrica 100% renovable, ver link con el anuncio oficial aquí.

Extremos en tamaño:

El Data Center más grande del mundo está ubicado en Langfang, China. El proyecto ocupa un área de 1.341.867 m2, con  2.622.470 m2 de construcción, de los cuales 620.000 m2 estará destinados al sector exclusivo para Data Center, lo convierte en el mayor emprendimiento del mundo.



sábado, 4 de mayo de 2013

DCIM mucho más que una Herramienta de Gestión


La administración de la infraestructura de un Data Center es una tarea compleja, pero por suerte en el mercado existen herramientas relativamente nuevas llamadas DCIM, Data Center Infrastructure Management que proveen la capacidad de lograr un buen rendimiento de los recursos administrados, buscando la optimización y planificación continua de una manera simple, considerando que cada vez hay más interdependencia entre la capa física y la capa lógica de la infraestructura. Esto se logra por medio de un monitoreo integral que facilita la gestión, la eficiencia y mantiene la disponibilidad.
Cuántas veces los administradores de Data Centers escuchamos este diálogo cuando hablamos con los Administradores de red:
¿Para qué se utiliza ese servidor que está encendido allí?
Creo que ese equipo no lo utiliza nadie, pero estaba funcionando desde antes de que ingresara a la empresa. 
Esa respuesta puede parecer ilógica, pero resulta bastante habitual en la práctica, sobre todo en ambientes medianos a grandes. Probablemente ese equipo está encendido desde hace años y nadie lo usa o quizás la aplicación fue migrada a otro servidor, generando calor, consumiendo energía, es decir, haciéndole perder dinero a la empresa innecesariamente.

Antiguamente la misión del responsable del Data Center era solo dar soporte a las necesidades de negocio, cumpliendo con los planes actuales. Pero hoy en día, la tendencia es distinta, la gestión administrada debe ser capaz de brindar una ventaja competitiva para lograr el éxito del negocio, haciéndolo ágil y eficiente de manera confiable.  Los cambios de las economías son muy rápidos y el no ser capaz de responder de forma satisfactoria puede hacer fracasar un proyecto o perder una oportunidad única. Por eso, los ojos deben estar puestos en el futuro y en las próximas tendencias.
Los desafíos pueden tener orígenes muy variados: económicos, tecnológicos, el ámbito de los negocios y lo relacionado con el cumplimiento de normativas o regulaciones, por ello surgieron en los últimos años herramientas como DCIM que facilitan esta tarea, por ejemplo ayudándonos a medir el PUE en tiempo real.

Las funcionalidades de información deseables de una herramienta de gestión DCIM son:
·    Centralización: toda la información puede ser consultada desde un solo lugar.
·    Autodescubrimiento: a medida que se agrega nuevo hardware, deberá ser visualizado en la consola (sea físico o virtual), quizás haya una limitación por fabricante o modelo.
·    Visualización: la herramienta debe ser capaz de mostrar gráficos de capacidad en tiempo real y extraer reportes, para efectuar comparaciones a futuro de la capacidad actual del Data Center, como ser: red, electricidad, UPS, PUE, almacenamiento, temperatura, espacio en Racks, etcétera.
·   Comunicación: capacidad de enviar notificaciones, alertas, correos u otras notificaciones, dadas determinadas condiciones.
·   Generación de alertas preventivas: Mediante la inteligencia predictiva puede ser capaz de notificar los problemas de capacidad a corto plazo. Cabe destacar que un reciente estudio de la consultora IDC concluyó que el 84% de los encuestados han tenido problemas de planificación de la capacidad de la infraestructura (ver paper aquí).


La decisión de adquirir un software de DCIM no es simple, ya que el software es costoso y requiere dedicación de recursos adicionales en la configuración y puesta a punto del sistema. Dichas implementaciones no son simples y pueden llevar tiempo. El objetivo final de una herramienta DCIM es tener el control centralizado de los recursos, generar reportes sobre la base de la información recolectada, y tomar decisiones que permitan optimizar los recursos, generando ahorros en la operatoria, y si bien es una herramienta que se encuentra en amplio crecimiento es importante que elijamos la que mejor se adapta a nuestra infraestructura ya que existen gran variedad de proveedores en el mercado de DCIM y no todos son iguales (ni los precios tampoco, ya que son bastante caras). En 2010 Gartnet predijo que este tipo de herramientas van a tener un crecimiento en penetración en el mercado del 1% al 60% para el año 2014.

El objetivo final de una herramienta DCIM es lograr evolucionar desde el “Caos” que son las planillas del cálculos, a un ambiente “Informado y con aplicaciones consolidadas” para luego evolucionar en un proceso de “Optimización” y por último llegar a un modelo de “Data Center planificado estratégicamente”. Como resultado final de una buena implementación de una herramienta de DCIM se puede ver una Infraestructura inteligente, optimizada y hasta que es capaz de reducir los costos operativos, para más detalles les recomiendo este paper que se puede bajar aquí: "Getting started with DCIM". También les recomiendo este paper sobre planificación estratégica de “Data Center Knowledge Guide to Data Center Infrastructure Management (DCIM)” que se puede bajar aquí.

Para evitar el uso de planillas de cálculo como control de inventario de los equipos dentro del Data Center, que suelen ser estáticas y no están actualizadas debidamente (en especial, cuando hay varios sitios que administrar y el crecimiento es grande), existen herramientas dinámicas que facilitan la tarea de DCIM, como ser:  CA DCIM 4.0 de Computer Associates; Asset Point de Align Communications; InfraStruXure de APC; Operations Manager de HP; Nlyte, OpenData Software de Modius; o Avocent de Emerson, solo por nombrar alguas. Muchos de ellos poseen funcionalidad que les permiten tomar la información de manera automática según el hardware. Les recomiendo leer el paper que se puede bajar aquí: “Enterprise Managment associates – Radar for Data Center Infrastructure Management (DCIM)” publicado en Diciembre del 2012, donde se evalúan muchos de estos productos según sus características más importantes, ya que no todos son iguales, variando en niveles de integración, funcionalidades operativas y de gestión.

Cabe destacar que existe una solución económica (pero estática con pocas funcionalidades) basada en software libre llamada Open DCIM http://www.opendcim.org y que se instala fácilmente, basándose en una solución Web para reemplazar las planillas de cálculos. Complementariamente en el sitio http://www.dcimexpert.com/ se pueden ingresar sugerencias y recomendaciones para mejorar las tareas de gestión.



"Por muy hermosa que sea la estrategia, de vez en cuando debes mirar los resultados" Winston Churchill (1874–1965) Político, escritor británico. Premio Nobel de Literatura en 1953.


domingo, 24 de marzo de 2013

Madurez del Data Center - DCMM

A menudo hablamos de optimización y mejores prácticas para logra un Data Center ecológico y sustentable manteniendo una relación eficiente entre disponibilidad y costos. Otra perspectiva de ver los mismos objetivos es a través del análisis de los distintos componentes que lo integran, analizando la “madurez” del Data Center en base a un modelo referencial desarrollado por la organización “The Green Grid” llamado DCMM (Data Center Maturity Model) publicado en 2011, el cual permite clasificar el nivel de “madurez” de los componentes del Data Center. Este modelo es similar al popular estándar ingenieril para el desarrollo de software: CMM  o también llamado CMMI que establece 5 niveles de perfeccionamiento en la forma que se construye software.
Del mismo modo el DCMM evalúa y clasifica de 0 a 5 los niveles de cada uno de los componentes, donde 0 es el nivel mínimo o también llamado “nivel de caos” y siendo 5 el más eficiente o también llamado “nivel visionario”.

DCMM analiza el Data Center y sus elementos en base a dos puntos principales, como ser la infraestructura física y la tecnología allí alojada en función de la eficiencia y la inversión de recursos.

Infraestructura del Data Center:
  • Alimentación eléctrica: Principalmente toma como base el porcentaje de eficiencia eléctrica, operación, monitoreo, materiales utilizados entre otras variables y determina valores de 0 a 5.
  • Refrigeración: Analiza el PUE de los equipos de refrigeración, los materiales, operatoria, control ambiental y emisiones, entre otros parámetros y en base a eso determina niveles de 0 a 5.
  • Otros: Evalúa de 0 a 5 la capacidad real con respecto a la que se está utilizando, la construcción, los materiales comprados, la iluminación, etc.
  • Gestión: Similar a los puntos anteriores, considerando la eficiencia de consumo eléctrico, de agua, reutilización del calor generado, como se colecta la información (centralizada o descentralizada), etc.

Tecnología de los equipos:
  •  Procesamiento: Evalúa la utilización de procesamiento total del Data Center, adopción de estándares, forma de operación, gestión eléctrica integrada, cantidad de servidores, y en función de cuáles son las aplicaciones que se ejecutan basado en las mejores prácticas y lo clasifica de 0 a 5.
  • Almacenamiento: Se analiza la cantidad de datos almacenados en función de la capacidad disponible, la forma de gestión y operación, la arquitectura, la tecnología y la asignación de espacio, en donde la mejor calificación posible es también 5.
  • Red: Para clasificarlos se tiene en cuenta la utilización de la red, el tráfico de paquetes, la forma de operación, la tecnología utilizada, la topología, la performance y el aprovisionamiento del ancho de banda.
  • Otros: Se analiza la capacidad total de los elementos tecnológicos, la utilización de los mismos, certificaciones de los componentes, documentación relacionada a los equipos (por ejemplo un catálogo), estrategias de reciclado, políticas, etc.
El en gráfico se puede ver como interactuan los distintos componentes para poder alcanzar los distintos niveles en función de la eficiencia y los recursos en base a los distintos niveles alcanzados para cada elemento interviniente en el Data Center.



Para aquellos que deseen profundizar sobre este tema los invito a ver la página oficial de DCMM (en inglés)
Para descargar el gráfico completo detallado en formato pdf hacer click aquí. (en inglés)



"El orden y la simplificación son los primeros pasos hacia el dominio de un tema, el enemigo real es lo desconocido"  -- Thomas Mann  (1875-1955) Escritor alemán. Premio Nobel de Literatura en 1929



jueves, 7 de febrero de 2013

Estándares en el Data Center


En la etapa de diseño del Data Center se evalúan cuales son los estándares que se desearán alcanzar. En ese momento surgen muchas dudas y preguntas relacionadas con el establecimiento de cuáles son los estándares correctos para lograr satisfacer las necesidades del negocio o lo mismo ocurre si  se está evaluando un Data Center de un proveedor. Los cuestionamientos sobre la calidad y los niveles de servicios ofrecidos pueden generar incertidumbre en los clientes. Esta es una tarea dificultosa ya que cumplir con las exigencias de un estándar es muy complejo y costoso. Además en el mercado existen muchos y no es posible cumplir con todos al mismo tiempo ya que tiene objetivos y requerimientos distintos.
Con objetivo de tener una visión simplificada de todos los estándares y como se relacionan entre ellos, he desarrollado un gráfico a modo de resumen, en el cual se que pueden observar como se encuentran agrupados los estándares y Frameworks más importantes en el mundo IT. Además se puede observar la interrelación entre las diversas áreas ya que se hallan agrupados por módulos, que van desde la gestión de los recursos del Data Center, hasta la gestión estrategia del Gobierno de IT.




Los módulos se encuentran agrupados por color según el área de aplicación dentro de IT y se destacan principalmente las siguientes:

  • Gestión Nivel de Servicio: Organización de servicio y Gestión de Incidentes
  • Gestión de Seguridad: Protección de información y Seguridad Física
  • Gestión de Proyectos
  • Gestión de Infraestructura: Gestión de Red (Cableado y Rotulado), Espacio físico, Prevención de incendios, Electricidad, Temperatura y humedad, Racks
  • Gestión de servicios: Gestión de riesgos, Gestión edilicia, Gestión de Infraestructura.
  • Gestión Ambiental.
  • Monitoreo y control de métricas.
  • Continuidad del negocio: Gestión de BCP (Business Continuity Plan), Gestión de DR (Disaster Recovery) y BCP
  • Gobierno de IT, Gestión de RRHH y Gestión administrativa.

Para acceder al gráfico en tamaño alta resolución haga click aquí

A modo de aclaración se debe tener en cuenta la diferencia que existen:  mejores prácticas o Frameworks, regulaciones o estándares, aquí el detalle:

  • Regulaciones: son de carácter obligatorio según el tipo de actividad. Están reguladas por una ley, y no cumplirla puede hacer que el organismo regulador quite la licencia de habilitación al negocio para desarrollar la actividad. Como por ejemplo SOX, HIPAA, etc.
  • Estándares: son disposiciones concretas sugeridas por organismos reconocidos, que en el marco del cumplimiento con las normas establecidas certifican que la empresa cumple con los criterios delineados en el modelo.  Como por ejemplo las normas ISO entre otras.
  • Frameworks: como el nombre de la palabra lo indica, son marcos de trabajo, son los más flexibles, ya que no están regulados. Ofrecen una metodología sugerida de trabajo que se adaptará a las necesidades operativas del negocio. Como por ejemplo ITIL, COBIT, etc.


En caso de existir una regulación local que especifique ciertas medidas que se deban cumplir en el Data Center, estas estarán por encima de las regulaciones internacionales, salvo que los parámetros establecidos en las normas internacionales sean más exigentes que las locales.
Aquí hemos nombrado solo algunos de los estándares más importantes, pero existen muchísimos más, en especial en materia de regulaciones, ya que dependen de cada país y rubro comercial.
Para esta investigación solo se consideraron los últimos estándares aprobados a la fecha o aquellos que se encuentran en etapa de revisión. Los estándares viejos o que fueron reemplazados por otros más nuevos no han sido incluidos con el fin de mantener el gráfico lo más simple posible.

Nota: Se actualizó el gráfico en la sección de construcción edilicia. Se particular se eliminó la norma NBE-CPI-96, derogada desde la aparición del CTE (Código Técnico de la Edificiación).
Gracias a Ana Otin Marcos por tu comentario.