Mostrando entradas con la etiqueta PUE. Mostrar todas las entradas
Mostrando entradas con la etiqueta PUE. Mostrar todas las entradas

domingo, 9 de junio de 2013

Data Centers Extremos

Un Data Center o también llamado CDP (Centro de Procesamiento de Datos) es un espacio con determinadas características físicas especiales de refrigeración, protección y redundancia, cuyo objetivo es alojar todo el equipamiento tecnológico de la compañía brindando seguridad y confiabilidad. 
La variedad y calidad de los niveles de servicio que pueden alcanzar son muy variados, dependiendo principalmente de las necesidades del negocio se desean satisfacer, ya que no es lo mismo ser un proveedor de servidores "cloud" de misión crítica, que alojar algunos servidores de uso interno de una organización donde la actividad principal es por ejemplo el análisis y procesamiento de información para investigaciones poblacionales.
Estas variedades son enormes y también así de diversos los costos asociados, ya que se puede pasar de un Data Center sin redundancia a uno son varios niveles de redundancia por cada componente.
A continuación se ejemplificarán algunos de los Data Centers más extremos del mundo según esas necesidades o estrategias de diseño.

Extremos en seguridad:
Un ejemplo de Data Center con medidas de seguridad extremas podría ser el que terminará de construir para 2013 la agencia estadounidense NSA (National Security Agency) en Bluffdale, Utah, destinado a almacenar el sistema de espionaje más complejo del mundo, capaz de analizar: búsquedas de ciertas palabras claves, correos electrónicos, llamadas telefónicas, datos bancarios, fotos, etcétera. La revista Wired reveló en abril de 2012 que el programa tiene un presupuesto estimado en 2.000 millones de dólares para una superficie aproximada 9.000 m2, capaz de albergar cientos de Racks, además contará con otro espacio mucho más grande para oficinas administrativas y técnicas, lo que lo convierte también es uno de los más costosos. Solo para el programa antiterrorista perimetral se destinaron 10 millones de dólares, que incluye una valla diseñada para detener un vehículo de hasta 6 toneladas circulando a 80 km/h. Además posee su propia subestación eléctrica para una demanda de 65 MW, combustible para operar los generadores por tres días consecutivos y un sistema de enfriamiento capaz de proporcionar 60.000 toneladas de enfriamiento con tanques de agua que pueden acumular más de 6 millones de litros de agua

Otro ejemplo es el del ISP sueco, Bahnhof, que en 2008 rediseñó las instalaciones de un bunker militar antinuclear construido en Escolmo durante la guerra fría, como espacio físico para alojar sus equipos.
Ubicado a 30 metros bajo tierra, con puertas de 40 cm de ancho, 2 motores diesel de submarino con capacidad de 1,5 MW cada uno para generar energía en caso de interrupción, tres cableados principales de Internet redundantes ( dos de fibra óptica y uno de cobre)
Si desean ver las fotos completas, remitirse al artículo original aquí



Extremos en velocidad de red:

¿Cual es el Data Center que ofrece mayor velocidad? Realmente la respuesta es difícil, ya que actualmente en el mercado existen equipos de red con capacidades de transmitir por fibra óptica a cortas distancias a 40 Gb, obviamente, para los gigantes informáticos como Google, IBM, Cisco, etc, comprar varios de estos dispositivos y ampliar la capacidad de red a 100Gb no es tarea compleja, pero actualmente científicos del Laboratorio Nacional Los Alamos, de la Universidad de California, desarrollaron un prototipo de muchísimo más rápida llamada: red cuántica que lleva más de dos años en actividad.
Además de conseguir velocidades nunca antes alcanzadas y sería invulnerable ya que utiliza un nuevo paradigma computacional. Si bien desde hace un tiempo se habla de la computación cuántica, el retraso en su implementación se debe a que todavía está lejos de ser una realidad comercial. Ver nota recomendada aquí. Actualmente los científicos que trabajan en ella estiman que no será masiva hasta dentro de 10 años.

Extremos en condiciones ambientales ecológicas:

Existen muchos ejemplos de Data Centers ecológicos, ya que la forma en que refrigeran los equipos y como generan la energía eléctrica son las dos variables que más influyen a la hora de determinar la eficiencia ecológica y varían según la ubicación geográfica.
Google terminó de construir en Hamina, Finlandia, ubicado en una antigua papelera, con una inversión de 252 millones de dólares, y para el cual utilizarán un sistema de refrigeración por agua. Gracias a su excelente ubicación geográfica puede tomar el agua fría del Mar Báltico, ahorrando así una considerable cantidad de dólares por año en refrigeración. Este tipo de estrategias le permiten a Google reducir año a año de manera continua el uso de energía necesaria para mantener operativo sus servidores, como lo muestra una publicación reciente de la firma en su blog.  Y más aún cuando se inaugure en 2015 la central eólica ubicada en Maevaara que proveerá energía eléctrica no contaminante.

Otro caso es el de la empresa de hosting estadounidense AISO que en su Data Center de 
2.000 m2, dispone de 120 paneles solares, lo que le hace ahorrar hasta 3.000 dólares mensuales en electricidad. Para la iluminación de sus oficinas tiene montado un sistema de tubos que redirigen la luz solar hacia las lamparas del interior. Adicionalmente 
posee de un sistema recolector de agua de lluvia, que luego es utilizado en la refrigeración para el aire acondicionado de los equipos, lo que le permite tener un PUE = 1,14. Este podría ser en definitiva uno de los centros de datos más “verdes” del planeta.
Facebook también está innovando en este área inaugurando un nuevo Data Center en Lulea, suecia.con un PUE=1,07 basado en energía hidroeléctrica 100% renovable, ver link con el anuncio oficial aquí.

Extremos en tamaño:

El Data Center más grande del mundo está ubicado en Langfang, China. El proyecto ocupa un área de 1.341.867 m2, con  2.622.470 m2 de construcción, de los cuales 620.000 m2 estará destinados al sector exclusivo para Data Center, lo convierte en el mayor emprendimiento del mundo.



sábado, 4 de mayo de 2013

DCIM mucho más que una Herramienta de Gestión


La administración de la infraestructura de un Data Center es una tarea compleja, pero por suerte en el mercado existen herramientas relativamente nuevas llamadas DCIM, Data Center Infrastructure Management que proveen la capacidad de lograr un buen rendimiento de los recursos administrados, buscando la optimización y planificación continua de una manera simple, considerando que cada vez hay más interdependencia entre la capa física y la capa lógica de la infraestructura. Esto se logra por medio de un monitoreo integral que facilita la gestión, la eficiencia y mantiene la disponibilidad.
Cuántas veces los administradores de Data Centers escuchamos este diálogo cuando hablamos con los Administradores de red:
¿Para qué se utiliza ese servidor que está encendido allí?
Creo que ese equipo no lo utiliza nadie, pero estaba funcionando desde antes de que ingresara a la empresa. 
Esa respuesta puede parecer ilógica, pero resulta bastante habitual en la práctica, sobre todo en ambientes medianos a grandes. Probablemente ese equipo está encendido desde hace años y nadie lo usa o quizás la aplicación fue migrada a otro servidor, generando calor, consumiendo energía, es decir, haciéndole perder dinero a la empresa innecesariamente.

Antiguamente la misión del responsable del Data Center era solo dar soporte a las necesidades de negocio, cumpliendo con los planes actuales. Pero hoy en día, la tendencia es distinta, la gestión administrada debe ser capaz de brindar una ventaja competitiva para lograr el éxito del negocio, haciéndolo ágil y eficiente de manera confiable.  Los cambios de las economías son muy rápidos y el no ser capaz de responder de forma satisfactoria puede hacer fracasar un proyecto o perder una oportunidad única. Por eso, los ojos deben estar puestos en el futuro y en las próximas tendencias.
Los desafíos pueden tener orígenes muy variados: económicos, tecnológicos, el ámbito de los negocios y lo relacionado con el cumplimiento de normativas o regulaciones, por ello surgieron en los últimos años herramientas como DCIM que facilitan esta tarea, por ejemplo ayudándonos a medir el PUE en tiempo real.

Las funcionalidades de información deseables de una herramienta de gestión DCIM son:
·    Centralización: toda la información puede ser consultada desde un solo lugar.
·    Autodescubrimiento: a medida que se agrega nuevo hardware, deberá ser visualizado en la consola (sea físico o virtual), quizás haya una limitación por fabricante o modelo.
·    Visualización: la herramienta debe ser capaz de mostrar gráficos de capacidad en tiempo real y extraer reportes, para efectuar comparaciones a futuro de la capacidad actual del Data Center, como ser: red, electricidad, UPS, PUE, almacenamiento, temperatura, espacio en Racks, etcétera.
·   Comunicación: capacidad de enviar notificaciones, alertas, correos u otras notificaciones, dadas determinadas condiciones.
·   Generación de alertas preventivas: Mediante la inteligencia predictiva puede ser capaz de notificar los problemas de capacidad a corto plazo. Cabe destacar que un reciente estudio de la consultora IDC concluyó que el 84% de los encuestados han tenido problemas de planificación de la capacidad de la infraestructura (ver paper aquí).


La decisión de adquirir un software de DCIM no es simple, ya que el software es costoso y requiere dedicación de recursos adicionales en la configuración y puesta a punto del sistema. Dichas implementaciones no son simples y pueden llevar tiempo. El objetivo final de una herramienta DCIM es tener el control centralizado de los recursos, generar reportes sobre la base de la información recolectada, y tomar decisiones que permitan optimizar los recursos, generando ahorros en la operatoria, y si bien es una herramienta que se encuentra en amplio crecimiento es importante que elijamos la que mejor se adapta a nuestra infraestructura ya que existen gran variedad de proveedores en el mercado de DCIM y no todos son iguales (ni los precios tampoco, ya que son bastante caras). En 2010 Gartnet predijo que este tipo de herramientas van a tener un crecimiento en penetración en el mercado del 1% al 60% para el año 2014.

El objetivo final de una herramienta DCIM es lograr evolucionar desde el “Caos” que son las planillas del cálculos, a un ambiente “Informado y con aplicaciones consolidadas” para luego evolucionar en un proceso de “Optimización” y por último llegar a un modelo de “Data Center planificado estratégicamente”. Como resultado final de una buena implementación de una herramienta de DCIM se puede ver una Infraestructura inteligente, optimizada y hasta que es capaz de reducir los costos operativos, para más detalles les recomiendo este paper que se puede bajar aquí: "Getting started with DCIM". También les recomiendo este paper sobre planificación estratégica de “Data Center Knowledge Guide to Data Center Infrastructure Management (DCIM)” que se puede bajar aquí.

Para evitar el uso de planillas de cálculo como control de inventario de los equipos dentro del Data Center, que suelen ser estáticas y no están actualizadas debidamente (en especial, cuando hay varios sitios que administrar y el crecimiento es grande), existen herramientas dinámicas que facilitan la tarea de DCIM, como ser:  CA DCIM 4.0 de Computer Associates; Asset Point de Align Communications; InfraStruXure de APC; Operations Manager de HP; Nlyte, OpenData Software de Modius; o Avocent de Emerson, solo por nombrar alguas. Muchos de ellos poseen funcionalidad que les permiten tomar la información de manera automática según el hardware. Les recomiendo leer el paper que se puede bajar aquí: “Enterprise Managment associates – Radar for Data Center Infrastructure Management (DCIM)” publicado en Diciembre del 2012, donde se evalúan muchos de estos productos según sus características más importantes, ya que no todos son iguales, variando en niveles de integración, funcionalidades operativas y de gestión.

Cabe destacar que existe una solución económica (pero estática con pocas funcionalidades) basada en software libre llamada Open DCIM http://www.opendcim.org y que se instala fácilmente, basándose en una solución Web para reemplazar las planillas de cálculos. Complementariamente en el sitio http://www.dcimexpert.com/ se pueden ingresar sugerencias y recomendaciones para mejorar las tareas de gestión.



"Por muy hermosa que sea la estrategia, de vez en cuando debes mirar los resultados" Winston Churchill (1874–1965) Político, escritor británico. Premio Nobel de Literatura en 1953.


sábado, 12 de enero de 2013

Camino al Data Center Ecológico


Cuando se habla de eficiencia y ecología dentro del Data Center, lo primero que se nos viene a la mente es la métrica PUE (Power Usage Effectiveness) que mide el valor de la eficiencia eléctrica de los equipos de IT en relación al consumo eléctrico total, creada por la organización The Green Grid 

                  Consumo eléctrico total               100 kW
PUE =    -------------------------------------------   =   --------------  =  1,7
                  Consumo equipos de IT                58 kW

Si bien el organismo no establece un valor mínimo, mientras menor sea el valor PUE, mejor será el aprovechamiento eléctrico, lo que se traduce en menores costos y emisiones de CO2, permitiendo reducir la llamada huella de carbono.
Por los general el valor de PUE de los Data Centers del mercado oscila entre 1,2 y 4, aunque el valor perfecto sería un PUE = 1.0 que resulta prácticamente imposible de alcanzar, ya que quiere decir que toda la energía consumida por los equipos es igual a la ingresada en el Data Center para que funcione completamente, y donde la refrigeración, UPS, entre otros, no tuvieron consumo eléctrico alguno. Esto es realmente difícil de que suceda. Un PUE = 2 representa que los sistemas que forma la infraestructura consumen los mismo que todos los equipos de IT.
Pero la pregunta es ¿ Si el PUE de un Data Center es practicamente =1, estamos frente a una instalación ecológicamente sustentable ?
La respuesta es claramente NO. Si bien es cierto que el PUE bajo es uno de los mayores determinantes para asegurar emisiones reducidas, aquí en entran en juego otras variables a analizar, como por ejemplo los materiales usados en el Data Center, la frecuencia renovación de equipos que generan basura electrónica y contaminan si no se toman acciones para su reciclaje: 
Para explicar este punto veamos un ejemplo: El PUE actual de nuestro Data Center es 1,5, sin embargo para disminuir el consumo eléctrico se decide aumentar la temperatura de operación del Data Center, pasando de 21 ºC a un máximo de 32 ºC, sin dudas el consumo eléctrico será menor, ya que los equipos de refrigeración funcionarán menos, haciendo que el PUE disminuya hasta por ejemplo 1,2. Pero esta decisión tiene un efecto colateral con el paso del tiempo: la degradación de componentes, que hará tener que reemplazar piezas más frecuentemente, según la Ley de Arrhenius  o también conocida como la Regla de los 10 grados. Esta regla dice que la vida de un componente o material se reduce a la mitad por cada 10 ºC de aumento en la temperatura; aplicado inversamente: por 10 ºC de disminución de temperatura, la vida útil de un semiconductor se duplicará, También causará que la vida útil de las baterías que conforman la UPS sea menor a la establecida por el fabricante, aumentando costos y generando mas desperdicios. Por eso un PUE bajo no asegura que estemos frente a un Data Center sustentable con el medio ambiente a largo plazo.
Aquí se enumeran algunas recomendaciones para lograr un Data Center realmente ecológico:
  • Analizar la eficiencia eléctrica interna de todos los componentes que se compran.
  • Aprovechar al máximo los recursos, la Virtualización es de gran ayuda para lograr este objetivo.
  • Utilizar distribución de Corriente Continua en todos los casos que sea posible, más detalles aquí.
  • Reemplazar los tubos fluorescentes por LEDs, consumen menos, generan menos calor y proveen buena iluminación (asegurar que proveen iluminación suficiente para las cámaras de seguridad).
  • Colocar los equipos que generan más calor próximos a los enfriadores.