domingo, 9 de junio de 2013

Data Centers Extremos

Un Data Center o también llamado CDP (Centro de Procesamiento de Datos) es un espacio con determinadas características físicas especiales de refrigeración, protección y redundancia, cuyo objetivo es alojar todo el equipamiento tecnológico de la compañía brindando seguridad y confiabilidad. 
La variedad y calidad de los niveles de servicio que pueden alcanzar son muy variados, dependiendo principalmente de las necesidades del negocio se desean satisfacer, ya que no es lo mismo ser un proveedor de servidores "cloud" de misión crítica, que alojar algunos servidores de uso interno de una organización donde la actividad principal es por ejemplo el análisis y procesamiento de información para investigaciones poblacionales.
Estas variedades son enormes y también así de diversos los costos asociados, ya que se puede pasar de un Data Center sin redundancia a uno son varios niveles de redundancia por cada componente.
A continuación se ejemplificarán algunos de los Data Centers más extremos del mundo según esas necesidades o estrategias de diseño.

Extremos en seguridad:
Un ejemplo de Data Center con medidas de seguridad extremas podría ser el que terminará de construir para 2013 la agencia estadounidense NSA (National Security Agency) en Bluffdale, Utah, destinado a almacenar el sistema de espionaje más complejo del mundo, capaz de analizar: búsquedas de ciertas palabras claves, correos electrónicos, llamadas telefónicas, datos bancarios, fotos, etcétera. La revista Wired reveló en abril de 2012 que el programa tiene un presupuesto estimado en 2.000 millones de dólares para una superficie aproximada 9.000 m2, capaz de albergar cientos de Racks, además contará con otro espacio mucho más grande para oficinas administrativas y técnicas, lo que lo convierte también es uno de los más costosos. Solo para el programa antiterrorista perimetral se destinaron 10 millones de dólares, que incluye una valla diseñada para detener un vehículo de hasta 6 toneladas circulando a 80 km/h. Además posee su propia subestación eléctrica para una demanda de 65 MW, combustible para operar los generadores por tres días consecutivos y un sistema de enfriamiento capaz de proporcionar 60.000 toneladas de enfriamiento con tanques de agua que pueden acumular más de 6 millones de litros de agua

Otro ejemplo es el del ISP sueco, Bahnhof, que en 2008 rediseñó las instalaciones de un bunker militar antinuclear construido en Escolmo durante la guerra fría, como espacio físico para alojar sus equipos.
Ubicado a 30 metros bajo tierra, con puertas de 40 cm de ancho, 2 motores diesel de submarino con capacidad de 1,5 MW cada uno para generar energía en caso de interrupción, tres cableados principales de Internet redundantes ( dos de fibra óptica y uno de cobre)
Si desean ver las fotos completas, remitirse al artículo original aquí



Extremos en velocidad de red:

¿Cual es el Data Center que ofrece mayor velocidad? Realmente la respuesta es difícil, ya que actualmente en el mercado existen equipos de red con capacidades de transmitir por fibra óptica a cortas distancias a 40 Gb, obviamente, para los gigantes informáticos como Google, IBM, Cisco, etc, comprar varios de estos dispositivos y ampliar la capacidad de red a 100Gb no es tarea compleja, pero actualmente científicos del Laboratorio Nacional Los Alamos, de la Universidad de California, desarrollaron un prototipo de muchísimo más rápida llamada: red cuántica que lleva más de dos años en actividad.
Además de conseguir velocidades nunca antes alcanzadas y sería invulnerable ya que utiliza un nuevo paradigma computacional. Si bien desde hace un tiempo se habla de la computación cuántica, el retraso en su implementación se debe a que todavía está lejos de ser una realidad comercial. Ver nota recomendada aquí. Actualmente los científicos que trabajan en ella estiman que no será masiva hasta dentro de 10 años.

Extremos en condiciones ambientales ecológicas:

Existen muchos ejemplos de Data Centers ecológicos, ya que la forma en que refrigeran los equipos y como generan la energía eléctrica son las dos variables que más influyen a la hora de determinar la eficiencia ecológica y varían según la ubicación geográfica.
Google terminó de construir en Hamina, Finlandia, ubicado en una antigua papelera, con una inversión de 252 millones de dólares, y para el cual utilizarán un sistema de refrigeración por agua. Gracias a su excelente ubicación geográfica puede tomar el agua fría del Mar Báltico, ahorrando así una considerable cantidad de dólares por año en refrigeración. Este tipo de estrategias le permiten a Google reducir año a año de manera continua el uso de energía necesaria para mantener operativo sus servidores, como lo muestra una publicación reciente de la firma en su blog.  Y más aún cuando se inaugure en 2015 la central eólica ubicada en Maevaara que proveerá energía eléctrica no contaminante.

Otro caso es el de la empresa de hosting estadounidense AISO que en su Data Center de 
2.000 m2, dispone de 120 paneles solares, lo que le hace ahorrar hasta 3.000 dólares mensuales en electricidad. Para la iluminación de sus oficinas tiene montado un sistema de tubos que redirigen la luz solar hacia las lamparas del interior. Adicionalmente 
posee de un sistema recolector de agua de lluvia, que luego es utilizado en la refrigeración para el aire acondicionado de los equipos, lo que le permite tener un PUE = 1,14. Este podría ser en definitiva uno de los centros de datos más “verdes” del planeta.
Facebook también está innovando en este área inaugurando un nuevo Data Center en Lulea, suecia.con un PUE=1,07 basado en energía hidroeléctrica 100% renovable, ver link con el anuncio oficial aquí.

Extremos en tamaño:

El Data Center más grande del mundo está ubicado en Langfang, China. El proyecto ocupa un área de 1.341.867 m2, con  2.622.470 m2 de construcción, de los cuales 620.000 m2 estará destinados al sector exclusivo para Data Center, lo convierte en el mayor emprendimiento del mundo.



sábado, 4 de mayo de 2013

DCIM mucho más que una Herramienta de Gestión


La administración de la infraestructura de un Data Center es una tarea compleja, pero por suerte en el mercado existen herramientas relativamente nuevas llamadas DCIM, Data Center Infrastructure Management que proveen la capacidad de lograr un buen rendimiento de los recursos administrados, buscando la optimización y planificación continua de una manera simple, considerando que cada vez hay más interdependencia entre la capa física y la capa lógica de la infraestructura. Esto se logra por medio de un monitoreo integral que facilita la gestión, la eficiencia y mantiene la disponibilidad.
Cuántas veces los administradores de Data Centers escuchamos este diálogo cuando hablamos con los Administradores de red:
¿Para qué se utiliza ese servidor que está encendido allí?
Creo que ese equipo no lo utiliza nadie, pero estaba funcionando desde antes de que ingresara a la empresa. 
Esa respuesta puede parecer ilógica, pero resulta bastante habitual en la práctica, sobre todo en ambientes medianos a grandes. Probablemente ese equipo está encendido desde hace años y nadie lo usa o quizás la aplicación fue migrada a otro servidor, generando calor, consumiendo energía, es decir, haciéndole perder dinero a la empresa innecesariamente.

Antiguamente la misión del responsable del Data Center era solo dar soporte a las necesidades de negocio, cumpliendo con los planes actuales. Pero hoy en día, la tendencia es distinta, la gestión administrada debe ser capaz de brindar una ventaja competitiva para lograr el éxito del negocio, haciéndolo ágil y eficiente de manera confiable.  Los cambios de las economías son muy rápidos y el no ser capaz de responder de forma satisfactoria puede hacer fracasar un proyecto o perder una oportunidad única. Por eso, los ojos deben estar puestos en el futuro y en las próximas tendencias.
Los desafíos pueden tener orígenes muy variados: económicos, tecnológicos, el ámbito de los negocios y lo relacionado con el cumplimiento de normativas o regulaciones, por ello surgieron en los últimos años herramientas como DCIM que facilitan esta tarea, por ejemplo ayudándonos a medir el PUE en tiempo real.

Las funcionalidades de información deseables de una herramienta de gestión DCIM son:
·    Centralización: toda la información puede ser consultada desde un solo lugar.
·    Autodescubrimiento: a medida que se agrega nuevo hardware, deberá ser visualizado en la consola (sea físico o virtual), quizás haya una limitación por fabricante o modelo.
·    Visualización: la herramienta debe ser capaz de mostrar gráficos de capacidad en tiempo real y extraer reportes, para efectuar comparaciones a futuro de la capacidad actual del Data Center, como ser: red, electricidad, UPS, PUE, almacenamiento, temperatura, espacio en Racks, etcétera.
·   Comunicación: capacidad de enviar notificaciones, alertas, correos u otras notificaciones, dadas determinadas condiciones.
·   Generación de alertas preventivas: Mediante la inteligencia predictiva puede ser capaz de notificar los problemas de capacidad a corto plazo. Cabe destacar que un reciente estudio de la consultora IDC concluyó que el 84% de los encuestados han tenido problemas de planificación de la capacidad de la infraestructura (ver paper aquí).


La decisión de adquirir un software de DCIM no es simple, ya que el software es costoso y requiere dedicación de recursos adicionales en la configuración y puesta a punto del sistema. Dichas implementaciones no son simples y pueden llevar tiempo. El objetivo final de una herramienta DCIM es tener el control centralizado de los recursos, generar reportes sobre la base de la información recolectada, y tomar decisiones que permitan optimizar los recursos, generando ahorros en la operatoria, y si bien es una herramienta que se encuentra en amplio crecimiento es importante que elijamos la que mejor se adapta a nuestra infraestructura ya que existen gran variedad de proveedores en el mercado de DCIM y no todos son iguales (ni los precios tampoco, ya que son bastante caras). En 2010 Gartnet predijo que este tipo de herramientas van a tener un crecimiento en penetración en el mercado del 1% al 60% para el año 2014.

El objetivo final de una herramienta DCIM es lograr evolucionar desde el “Caos” que son las planillas del cálculos, a un ambiente “Informado y con aplicaciones consolidadas” para luego evolucionar en un proceso de “Optimización” y por último llegar a un modelo de “Data Center planificado estratégicamente”. Como resultado final de una buena implementación de una herramienta de DCIM se puede ver una Infraestructura inteligente, optimizada y hasta que es capaz de reducir los costos operativos, para más detalles les recomiendo este paper que se puede bajar aquí: "Getting started with DCIM". También les recomiendo este paper sobre planificación estratégica de “Data Center Knowledge Guide to Data Center Infrastructure Management (DCIM)” que se puede bajar aquí.

Para evitar el uso de planillas de cálculo como control de inventario de los equipos dentro del Data Center, que suelen ser estáticas y no están actualizadas debidamente (en especial, cuando hay varios sitios que administrar y el crecimiento es grande), existen herramientas dinámicas que facilitan la tarea de DCIM, como ser:  CA DCIM 4.0 de Computer Associates; Asset Point de Align Communications; InfraStruXure de APC; Operations Manager de HP; Nlyte, OpenData Software de Modius; o Avocent de Emerson, solo por nombrar alguas. Muchos de ellos poseen funcionalidad que les permiten tomar la información de manera automática según el hardware. Les recomiendo leer el paper que se puede bajar aquí: “Enterprise Managment associates – Radar for Data Center Infrastructure Management (DCIM)” publicado en Diciembre del 2012, donde se evalúan muchos de estos productos según sus características más importantes, ya que no todos son iguales, variando en niveles de integración, funcionalidades operativas y de gestión.

Cabe destacar que existe una solución económica (pero estática con pocas funcionalidades) basada en software libre llamada Open DCIM http://www.opendcim.org y que se instala fácilmente, basándose en una solución Web para reemplazar las planillas de cálculos. Complementariamente en el sitio http://www.dcimexpert.com/ se pueden ingresar sugerencias y recomendaciones para mejorar las tareas de gestión.



"Por muy hermosa que sea la estrategia, de vez en cuando debes mirar los resultados" Winston Churchill (1874–1965) Político, escritor británico. Premio Nobel de Literatura en 1953.


domingo, 24 de marzo de 2013

Madurez del Data Center - DCMM

A menudo hablamos de optimización y mejores prácticas para logra un Data Center ecológico y sustentable manteniendo una relación eficiente entre disponibilidad y costos. Otra perspectiva de ver los mismos objetivos es a través del análisis de los distintos componentes que lo integran, analizando la “madurez” del Data Center en base a un modelo referencial desarrollado por la organización “The Green Grid” llamado DCMM (Data Center Maturity Model) publicado en 2011, el cual permite clasificar el nivel de “madurez” de los componentes del Data Center. Este modelo es similar al popular estándar ingenieril para el desarrollo de software: CMM  o también llamado CMMI que establece 5 niveles de perfeccionamiento en la forma que se construye software.
Del mismo modo el DCMM evalúa y clasifica de 0 a 5 los niveles de cada uno de los componentes, donde 0 es el nivel mínimo o también llamado “nivel de caos” y siendo 5 el más eficiente o también llamado “nivel visionario”.

DCMM analiza el Data Center y sus elementos en base a dos puntos principales, como ser la infraestructura física y la tecnología allí alojada en función de la eficiencia y la inversión de recursos.

Infraestructura del Data Center:
  • Alimentación eléctrica: Principalmente toma como base el porcentaje de eficiencia eléctrica, operación, monitoreo, materiales utilizados entre otras variables y determina valores de 0 a 5.
  • Refrigeración: Analiza el PUE de los equipos de refrigeración, los materiales, operatoria, control ambiental y emisiones, entre otros parámetros y en base a eso determina niveles de 0 a 5.
  • Otros: Evalúa de 0 a 5 la capacidad real con respecto a la que se está utilizando, la construcción, los materiales comprados, la iluminación, etc.
  • Gestión: Similar a los puntos anteriores, considerando la eficiencia de consumo eléctrico, de agua, reutilización del calor generado, como se colecta la información (centralizada o descentralizada), etc.

Tecnología de los equipos:
  •  Procesamiento: Evalúa la utilización de procesamiento total del Data Center, adopción de estándares, forma de operación, gestión eléctrica integrada, cantidad de servidores, y en función de cuáles son las aplicaciones que se ejecutan basado en las mejores prácticas y lo clasifica de 0 a 5.
  • Almacenamiento: Se analiza la cantidad de datos almacenados en función de la capacidad disponible, la forma de gestión y operación, la arquitectura, la tecnología y la asignación de espacio, en donde la mejor calificación posible es también 5.
  • Red: Para clasificarlos se tiene en cuenta la utilización de la red, el tráfico de paquetes, la forma de operación, la tecnología utilizada, la topología, la performance y el aprovisionamiento del ancho de banda.
  • Otros: Se analiza la capacidad total de los elementos tecnológicos, la utilización de los mismos, certificaciones de los componentes, documentación relacionada a los equipos (por ejemplo un catálogo), estrategias de reciclado, políticas, etc.
El en gráfico se puede ver como interactuan los distintos componentes para poder alcanzar los distintos niveles en función de la eficiencia y los recursos en base a los distintos niveles alcanzados para cada elemento interviniente en el Data Center.



Para aquellos que deseen profundizar sobre este tema los invito a ver la página oficial de DCMM (en inglés)
Para descargar el gráfico completo detallado en formato pdf hacer click aquí. (en inglés)



"El orden y la simplificación son los primeros pasos hacia el dominio de un tema, el enemigo real es lo desconocido"  -- Thomas Mann  (1875-1955) Escritor alemán. Premio Nobel de Literatura en 1929



jueves, 7 de febrero de 2013

Estándares en el Data Center


En la etapa de diseño del Data Center se evalúan cuales son los estándares que se desearán alcanzar. En ese momento surgen muchas dudas y preguntas relacionadas con el establecimiento de cuáles son los estándares correctos para lograr satisfacer las necesidades del negocio o lo mismo ocurre si  se está evaluando un Data Center de un proveedor. Los cuestionamientos sobre la calidad y los niveles de servicios ofrecidos pueden generar incertidumbre en los clientes. Esta es una tarea dificultosa ya que cumplir con las exigencias de un estándar es muy complejo y costoso. Además en el mercado existen muchos y no es posible cumplir con todos al mismo tiempo ya que tiene objetivos y requerimientos distintos.
Con objetivo de tener una visión simplificada de todos los estándares y como se relacionan entre ellos, he desarrollado un gráfico a modo de resumen, en el cual se que pueden observar como se encuentran agrupados los estándares y Frameworks más importantes en el mundo IT. Además se puede observar la interrelación entre las diversas áreas ya que se hallan agrupados por módulos, que van desde la gestión de los recursos del Data Center, hasta la gestión estrategia del Gobierno de IT.




Los módulos se encuentran agrupados por color según el área de aplicación dentro de IT y se destacan principalmente las siguientes:

  • Gestión Nivel de Servicio: Organización de servicio y Gestión de Incidentes
  • Gestión de Seguridad: Protección de información y Seguridad Física
  • Gestión de Proyectos
  • Gestión de Infraestructura: Gestión de Red (Cableado y Rotulado), Espacio físico, Prevención de incendios, Electricidad, Temperatura y humedad, Racks
  • Gestión de servicios: Gestión de riesgos, Gestión edilicia, Gestión de Infraestructura.
  • Gestión Ambiental.
  • Monitoreo y control de métricas.
  • Continuidad del negocio: Gestión de BCP (Business Continuity Plan), Gestión de DR (Disaster Recovery) y BCP
  • Gobierno de IT, Gestión de RRHH y Gestión administrativa.

Para acceder al gráfico en tamaño alta resolución haga click aquí

A modo de aclaración se debe tener en cuenta la diferencia que existen:  mejores prácticas o Frameworks, regulaciones o estándares, aquí el detalle:

  • Regulaciones: son de carácter obligatorio según el tipo de actividad. Están reguladas por una ley, y no cumplirla puede hacer que el organismo regulador quite la licencia de habilitación al negocio para desarrollar la actividad. Como por ejemplo SOX, HIPAA, etc.
  • Estándares: son disposiciones concretas sugeridas por organismos reconocidos, que en el marco del cumplimiento con las normas establecidas certifican que la empresa cumple con los criterios delineados en el modelo.  Como por ejemplo las normas ISO entre otras.
  • Frameworks: como el nombre de la palabra lo indica, son marcos de trabajo, son los más flexibles, ya que no están regulados. Ofrecen una metodología sugerida de trabajo que se adaptará a las necesidades operativas del negocio. Como por ejemplo ITIL, COBIT, etc.


En caso de existir una regulación local que especifique ciertas medidas que se deban cumplir en el Data Center, estas estarán por encima de las regulaciones internacionales, salvo que los parámetros establecidos en las normas internacionales sean más exigentes que las locales.
Aquí hemos nombrado solo algunos de los estándares más importantes, pero existen muchísimos más, en especial en materia de regulaciones, ya que dependen de cada país y rubro comercial.
Para esta investigación solo se consideraron los últimos estándares aprobados a la fecha o aquellos que se encuentran en etapa de revisión. Los estándares viejos o que fueron reemplazados por otros más nuevos no han sido incluidos con el fin de mantener el gráfico lo más simple posible.

Nota: Se actualizó el gráfico en la sección de construcción edilicia. Se particular se eliminó la norma NBE-CPI-96, derogada desde la aparición del CTE (Código Técnico de la Edificiación).
Gracias a Ana Otin Marcos por tu comentario.

sábado, 12 de enero de 2013

Camino al Data Center Ecológico


Cuando se habla de eficiencia y ecología dentro del Data Center, lo primero que se nos viene a la mente es la métrica PUE (Power Usage Effectiveness) que mide el valor de la eficiencia eléctrica de los equipos de IT en relación al consumo eléctrico total, creada por la organización The Green Grid 

                  Consumo eléctrico total               100 kW
PUE =    -------------------------------------------   =   --------------  =  1,7
                  Consumo equipos de IT                58 kW

Si bien el organismo no establece un valor mínimo, mientras menor sea el valor PUE, mejor será el aprovechamiento eléctrico, lo que se traduce en menores costos y emisiones de CO2, permitiendo reducir la llamada huella de carbono.
Por los general el valor de PUE de los Data Centers del mercado oscila entre 1,2 y 4, aunque el valor perfecto sería un PUE = 1.0 que resulta prácticamente imposible de alcanzar, ya que quiere decir que toda la energía consumida por los equipos es igual a la ingresada en el Data Center para que funcione completamente, y donde la refrigeración, UPS, entre otros, no tuvieron consumo eléctrico alguno. Esto es realmente difícil de que suceda. Un PUE = 2 representa que los sistemas que forma la infraestructura consumen los mismo que todos los equipos de IT.
Pero la pregunta es ¿ Si el PUE de un Data Center es practicamente =1, estamos frente a una instalación ecológicamente sustentable ?
La respuesta es claramente NO. Si bien es cierto que el PUE bajo es uno de los mayores determinantes para asegurar emisiones reducidas, aquí en entran en juego otras variables a analizar, como por ejemplo los materiales usados en el Data Center, la frecuencia renovación de equipos que generan basura electrónica y contaminan si no se toman acciones para su reciclaje: 
Para explicar este punto veamos un ejemplo: El PUE actual de nuestro Data Center es 1,5, sin embargo para disminuir el consumo eléctrico se decide aumentar la temperatura de operación del Data Center, pasando de 21 ºC a un máximo de 32 ºC, sin dudas el consumo eléctrico será menor, ya que los equipos de refrigeración funcionarán menos, haciendo que el PUE disminuya hasta por ejemplo 1,2. Pero esta decisión tiene un efecto colateral con el paso del tiempo: la degradación de componentes, que hará tener que reemplazar piezas más frecuentemente, según la Ley de Arrhenius  o también conocida como la Regla de los 10 grados. Esta regla dice que la vida de un componente o material se reduce a la mitad por cada 10 ºC de aumento en la temperatura; aplicado inversamente: por 10 ºC de disminución de temperatura, la vida útil de un semiconductor se duplicará, También causará que la vida útil de las baterías que conforman la UPS sea menor a la establecida por el fabricante, aumentando costos y generando mas desperdicios. Por eso un PUE bajo no asegura que estemos frente a un Data Center sustentable con el medio ambiente a largo plazo.
Aquí se enumeran algunas recomendaciones para lograr un Data Center realmente ecológico:
  • Analizar la eficiencia eléctrica interna de todos los componentes que se compran.
  • Aprovechar al máximo los recursos, la Virtualización es de gran ayuda para lograr este objetivo.
  • Utilizar distribución de Corriente Continua en todos los casos que sea posible, más detalles aquí.
  • Reemplazar los tubos fluorescentes por LEDs, consumen menos, generan menos calor y proveen buena iluminación (asegurar que proveen iluminación suficiente para las cámaras de seguridad).
  • Colocar los equipos que generan más calor próximos a los enfriadores.