viernes, 10 de enero de 2014

UPS Giratoria (Flywheel UPS): un Nuevo Paradigma

La UPS giratoria es un sistema que asegura la continuidad del suministro eléctrico basado en un concepto antiguo, que consiste en transformar la energía cinética en energía eléctrica. Este dispositivo conlleva a un cambio paradigma para la mayoría de los Data Centers para los cuales una UPS tiene que tener baterías sí o sí.

Si a usted le preguntaran en qué país se inventó el reloj digital de cuarzo, probablemente dirá que fue en Japón, pero la respuesta es incorrecta.
En el año 1968 Suiza controlaba el 90% del mercado mundial de relojes. Un día un técnico de una de las mayores empresas de relojería mostró a sus jefes un nuevo modelo que acababa de inventar. Se trataba de un reloj electrónico de cuarzo. Su superior observó el prototipo y le dijo: “Esto no es un reloj”, y no dio ninguna importancia al descubrimiento, ya que no poseía cuerda, mecanismos ni engranajes. Le permitieron quedarse con la patente e incluso ir con el invento a una feria de relojería. Pasaron los japoneses y compraron. Poco tiempo después pusieron a la venta el reloj de cuarzo. Para el año 1982, el 90% del mercado que controlaban los suizos, se redujo al 15%. Perdieron el liderazgo y cincuenta mil puestos de trabajo por culpa de la nueva tecnología, ¡inventada por un suizo!

La UPS giratoria (también llamada o UPS rotativa o Flywheel UPS) funciona haciendo mover una rueda metálica muy pesada (de 300 kg o más) por medio de la energía eléctrica provista por la red, haciéndola girar a gran rapidez (entre 33000 y 77000 RPM según el fabricante), y por medio de la levitación electromagnética al vacío no entra en contacto con otros elementos, evitando así el rozamiento que frenaría la rueda. La inercia generada le permite rotar a gran velocidad durante un tiempo prolongado ya que no hay fricción. Así ese movimiento de energía cinética acumulada, entregará corriente eléctrica cuando se interrumpa el suministro de red. Si el suministro eléctrico se detiene, la rueda de gran masa que está  girando a muchas revoluciones es capaz de proporcionar suficiente energía al Data Center durante unos segundos (entre 15 y 60 según la configuración).
La mayoría de la gente tiende a apegarse a la antigua tendencia de que una UPS debe tener la capacidad suministrar energía por al menos 15 minutos en caso de interrupción. Lo cierto es que este es un pre concepto heredado de los servidores Mainframe, cuyos procesos de apagado controlado demoraba ese tiempo, pero hoy en día apagar cualquier equipo actual demora mucho menos tiempo, y más aún si la instalación cuenta con generador.
Actualmente los generadores modernos son capaces de proveer energía estabilizada entre 2 a 10 segundos desde que se detecta la interrupción. ¿Qué sentido tiene tener una UPS con baterías que permite operar por 15 minutos cuando el generador entrega energía estabilizada solo en 5 segundos?




A continuación se detallan las principales ventajas y desventajas de las UPS giratorias en comparación las UPS tradicionales de batería.
Ventajas

  • Vida útil mayor a 20 años
  • Es más económica, teniendo en cuenta el costo a lo largo de la vida útil si se la compara con la UPS tradicional. Se estima un retorno de la inversión en aproximadamente tres años.
  • No utiliza baterías, produciendo grandes ahorros de energía, contaminación, enfriamiento, reemplazo y mantenimiento (sólo utiliza una pequeña batería para el arranque).
  • Ocupa menor superficie (por ejemplo, una UPS de 300 kVA ocupa solo 25% del espacio de una UPS de Conversión Doble, aunque puede llegar a pesar 2500 kg)
  • Su eficiencia oscila entre el 95% y el 98% (las UPS de batería tiene en promedio una eficiencia del 92%)
  • Su tiempo de carga es bajo: entre tres y ocho minutos, comparado con la UPS tradicional que puede llegar a tardar entre ocho y diez horas para completar la carga.
  • La operatoria es silenciosa (entre 45 y 70 decibeles a un metro de distancia).
  • Tiene una mayor amplitud térmica operacional (comparada con la UPS de batería)
  • Genera poca temperatura. Por ejemplo: una UPS de 300 kVA de 1.5 x 0.8 m y una altura menor a 2 m genera entre 5 kW/h y 7 kW/h de calor.
  • Las mediciones de la capacidad de la carga brindan datos más certeros comparados con la UPS de baterías.
  • MTBF: >50000 horas (las baterías de las UPS tiene un MTBF: <2200 horas)


Desventajas

  • Su inversión inicial es elevada.
  • Tiene poco tiempo de energía de resguardo, lo que genera una mayor dependencia del generador



"Si hoy fuese el último día de mi vida, ¿querría hacer lo que voy a hacer hoy? Y si la respuesta era No durante demasiados días seguidos, sabía que necesitaba cambiar algo."
Steve Jobs

domingo, 27 de octubre de 2013

¿Porque los Estándares pueden Atrasarnos Tecnológicamente?

Cuando estamos diseñando un Data Center debemos elegir materiales que cumplan con los estándares homologados (cableado, fibra óptica, electricidad, etc.), pero es realmente lo más adecuado tecnológicamente? 

¿Seleccionando un material estandarizado estamos adquiriendo una tecnología obsoleta?

Plantearse esa duda es muy interesante y probablemente la respuesta sea: Sí.

Pero porque elegir un material que cumple con los estándares de calidad (independientemente de la norma) no es lo mejor tecnológicamente?
El problema principal radica en que los estándares deben ser revisados y aprobados por muchas entidades, organismos, países, fabricantes, consultores técnicos, universidades, etc., y al igual que en la política el consenso entre partes lleva tiempo, es por eso que para cuando un estándar queda aprobado, los fabricantes ya han desarrollado o prácticamente sacado al mercado dispositivos o materiales que superan tecnológicamente al que se acaba de aprobar.

En el gráfico se puede ver la evolución de las categorías de cableado estructurado (ANSI/TIA) comparando la fecha de aprobación de los estándares en relación a la fecha de publicación (e incluso la fecha de diseño puede ser aún anterior):



Como se puede observar, la línea azul está permanentemente por detrás de la línea naranja, que muestra la fecha real de publicación de la categoría de cableado, con respecto a la azul, que es la fecha en la cual el estándar quedó aprobado. Quizás uno de los ejemplos más significativos sea el caso del cableado Cat. 6A que permite velocidades de hasta 10Gbps fue propuesto en el año 2000 y fue aprobado en el año 2008. El estándar anterior aprobado Cat. 6, solo permitía velocidades de hasta 1 Gbps.
Este ejemplo es solo una muestra general donde se comparan los estándares de cableado de cobre, pero el mismo concepto se aplica también para los otros estándares, como ser los de fibra óptica, normas eléctricas, normas de transmisión de datos, etc.
La dificultad de la decisión recae sobre aquellas personas que debe seleccionar que materiales utilizar para una obra que se planifica para los próximos 10 años (incluso algunos fabricantes de cables de datos ofrecen garantía hasta por 20 años). 
Que debemos hacer? Seleccionamos materiales que están bajo una norma que se aprobó hace varios años o seleccionamos un material que se encuentra disponible en el mercado, que es más avanzado tecnológicamente, pero que aún no existe un estándar que lo avale. Vaya dilema!
Muchos pueden inclinarse a adquirir el material más moderno, pero se corre el riesgo de que finalmente haya algún parámetro o valor especifico que el material no cumple, pudiendo así no poder cumplir con el estándar, aunque esto tiene una probabilidad baja.
Aclaración sobre los organismos ISO/IEC y ANSI/TIA: ambas son entidades internacionales de estandarización reconocidas, pero la composición interna de sus miembros es distinta, lo que influye en los intereses particulares de cada uno.
ISO / IEC 
  • Integrado por representantes de naciones, un voto por país.
  • Acuerdo OMC (Organización Mundial del Comercio) para evitar barreras técnicas al comercio.
  • Acuerdos de reconocimiento mutuo.
  • También participan los fabricantes.

ANSI / TIA
  • Integrado por empresas privadas, un voto por empresa.
  • Respalda los intereses tecnológicos y comerciales de sus asociados.


El principal problema de los estándares es que al intervenir tantos participantes, el proceso de aprobación es realmente largo y complejo, pudiendo tomar varios años, pero los requerimientos del mercado en base a las necesidades de los clientes, hace que aumente demandan productos que brinden mayores velocidades permanentemente, y las empresas privadas invierten mucho en investigación para lograrlo, adelantándose a los estándares. Por eso, a veces, resulta difícil seleccionar una tecnología de punta que quizás después puede no ser aprobada por los organismos que certifican los estándares. También está la disyuntiva de tener que elegir una tecnología de cableado proyectado el crecimiento a diez años, pero con un estándar aprobado cinco o siete años atrás, que quizás ya es obsoleto. Por esa razón, cuando se analiza la selección de un estándar de cableado estructurado es importante tener en cuenta su fecha de publicación del último estándar aprobado, cuales son los materiales disponibles en el mercado, para luego analizar pros y contras de cada uno, ya que probablemente la decisión no se puede postergar hasta cuando el ultimo estándar este aprobado.

Publicación del articulo en TechTarget:

sábado, 7 de septiembre de 2013

Métricas en el Data Center

En este artículo comparto un resumen de las métricas más importantes para medir la eficiencia dentro del Data Center para luego poder tomar acciones correctivas ya que como dijo el célebre autor especialista en managment Peter Drucker, “Lo que no se puede medir, no se puede gestionar”.

PUE: Es uno de los parámetros más comunes para evaluar el desempeño eléctrico de un Data Center, (Power Usage Effectiveness): métrica que mide el valor de la eficiencia eléctrica en relación al consumo eléctrico total. Fue establecido por la organización The Green Grid, en particular por uno de sus directores, Christian Belady, y su fin es establecer un parámetro para identificar qué tan eficiente es el consumo actual de los equipos.

\[PUE=\frac{Consumo Eléctrico Total}{Consumo Eléctrico IT}\]

Ejemplo:
\[\frac{200 kW (Consumo Eléctrico Total)}{100 kW (Consumo Eléctrico IT)} = 2.0 PUE\]

Mientras menor sea el valor PUE, mejor será el aprovechamiento eléctrico, lo que se traduce en menores costos y menores emisiones de CO2, permitiendo reducir la llamada “huella de carbono”.El valor perfecto sería un PUE = 1.0. Este número resulta prácticamente imposible de alcanzar, ya que quiere decir que toda la energía consumida por los equipos es igual a la ingresada en el Data Center para que funcione completamente, y donde la refrigeración, UPS, etcétera, no tuvieron consumo eléctrico. Adicionalmente esta métrica puede subdividirse en 4, para obtener diferentes valores que permitan hacer un análisis más detallado, como se enumeran a continuación:
PUE0: se calcula igual que el PUE, pero se toma el pico del consumo eléctrico sobre el consumo eléctrico de los equipos de IT a la salida de la UPS (ambos en el último año).
PUE1: se calcula igual que el PUE, pero se toma el consumo eléctrico total acumulado sobre el consumo eléctrico de los equipos de IT acumulados a la salida de la UPS, ambos valores medidos en el último año.
PUE2: similar al anterior, pero la carga de los equipos de IT se toma a la salida de la PDU (Power Distribution Unit).
PUE3: similar al anterior, pero la carga de los equipos de IT se mide en la entrada a ellos.

DCiE: Parámetro utilizado en la evaluación de la eficiencia,  derivado del anterior, que mide el porcentaje de eficiencia llamado DCiE (Data Centre infrastructure Efficiency), la cuantificación de DCiE fue creada para entender más fácilmente la eficiencia del Data Center. Por ejemplo, un valor DCiE de 28% equivale a un PUE de 2,8. Por ejemplo, si tenemos una factura por consumo eléctrico de 1.000 dólares, sabremos que 280 dólares fueron los realmente consumidos por los equipos de IT.

\[DCiE=\frac{Consumo Eléctrico IT}{Consumo Eléctrico Total} * 100 =\frac {1}{PUE} * 100\]

WUE: se utiliza para evaluar la eficiencia del consumo de agua en los equipos de refrigeración en relación a la cantidad de kW/h, conocida como por sus siglas WUE (Water Usage Effectiveness), y se define como el uso anual del agua dividido por la cantidad de energía utilizada por el equipamiento TI. Las unidades de WUE son litros por kW consumidos por hora (calculados anualmente)

\[WUE=\frac{Consumo Anual De Agua (Litros)}{Consumo Eléctrico IT (kW/h)}\]

Para más información, pueden consultar el link completo del artículo completo en PDF aquí.

CCF: es una métrica creada por la empresa Upsite, que se utiliza para gestionar la eficiencia de refrigeración en el Data Center, por las siglas de Cooling Capacity Factor. Se calcula mediante el cociente entre la capacidad total de refrigeración sobre la carga de consumo de los dispositivos de IT (a la salida de la UPS) aumentada en un 10% (ese 10% adicional está atribuido otros factores que interfieren en el cálculo, como ser: iluminación, personas, estructura, etc)

\[CCF=\frac{Capacidad Total Refrigeración}{Consumo Eléctrico IT (Salida UPS) *1,1} =\frac {215 kW}{150 kW * 1,1} = 1,3\]

El valor de CCF recomendado es 1,2 or 120%. Lo que significa que la capacidad de refrigeración está funcionando al 120% de la carga TI. Un CCF que oscila entre 1,0 y 1,1 significa que la capacidad de refrigeración redundante es prácticamente nula. Si los valores van de 1,2 a 1,5 es posible que se puedan realizar modificaciones en los sistemas de enfriamiento que permitan ahorrar dinero. Si el valor es superior a 1,5 estamos sin dudas frente a un ambiente donde se pueden hacer muchas mejoras para reducir los costos en enfriamiento. Generalmente la mayoría de los Data Centers entran en esta última categoría.
Articulo original en PDF disponible aquí, Link a la calculadora de CCF online aquí

ERE: es otra métrica importante creada por The Green Grid utilizada para calcular la eficiencia de la reutilización de la energía (Energy Reuse Effectiveness), como por ejemplo podría ser la reutilización del calor generado por los equipos para aclimatar las instalaciones edilicias. Es una fórmula similar al PUE, pero al consumo eléctrico del Data Center (en el numerador) se le resta el ahorro de energía eléctrica generado por la reutilización.

\[ERE=\frac{(Consumo Eléctrico Equipos Data Center) - (Energía Reutilizada)}{Consumo Eléctrico IT }\]

Link articulo original en PDF aquí.
Para un nivel de detalle mayor y orientado con un enfoque puramente ecologista, existe otra métrica relacionada a esta llamada CUE (Carbon Usage Effectiveness), en donde se analiza la cantidad total de emisiones de CO2  causada por los equipos del Data Center sobre el consumo eléctrico de los equipos de IT.      

UUR: la métrica UUR (Utilización Unitaria de Rack) consiste en evaluar el porcentaje de utilización de cada Rack medido en "U" o unidades de Rack. Esta información es útil para comprender la utilización total y poder asociar esa utilización con el consumo o la generación de calor que provoca cada Rack analizando si el flujo de refrigeración es el correcto, ya que lo no es lo mismo un Rack de comunicaciones que solo tiene patchears que otro donde hay cinco cajones de servidores blade.
Por cada uno de los Racks del Data Center se debe hacer este simple cálculo:

\[UUR=\frac{"U"Disponibles-"U" Utilizadas}{"U" Disponibles} * 100 \]

Aquí les dejo una planilla de cálculos con la fórmula, donde solo tienen que completar la cantidad de U utilizadas y el consumo eléctrico por cada Rack. Archivo aquí.
Para aquellas personas que desean tener un detalle más completo de la utilización del espacio, existen otras métricas más complejas que permiten analizar la disponibilidad física dentro del Data Center, como ser: DCSE (Data Center Space Efficiency Metric) es un conjunto de métricas complejas desarrolladas por David Cappuccio (Gartner) que tienen por finalidad establecer la utilización real de los espacios dentro del Data Center.

Conclusión final: todas las métrica previamente enumeradas carecen de poco valor práctico de aplicación si al momento de hacer los cálculos no se tiene preestablecido cuales son los objetivos buscados, ya sea desde una visión ecológica orientada a la sustentabilidad o la intención de reducir costo. La métrica no es un objetivo en si mismo, sino que debe ser una herramienta para la toma de decisiones, basado en la información obtenida históricamente en el transcurso del tiempo.




domingo, 28 de julio de 2013

Cúal es la Temperatura Correcta de un Data Center?

Dentro del Data Center, mantener la temperatura adecuada de forma estabilizada y controlada es una pauta fundamental del control ambiental, permitiendo el establecimiento y ejecución de una política claramente definida que contribuya a tener un Data Center robusto, confiable y durable.
El rango de temperatura óptimo para un Data Center es entre 17 °C y 21 °C. Es necesario aclarar que esa temperatura no es de carácter obligatorio e inamovible, sino que existe también un margen aceptable de operación que sería de 15 °C y 25 °C.
Cualquier temperatura mayor a 25 °C deberá ser corregida de manera inmediata, ya que implica poner en riesgo el equipamiento del Data Center.

Este rango de temperatura operacional es el indicado por los fabricantes de circuitos integrados para lograr un funcionamiento ideal en rendimiento y durabilidad, devenido de la Ley de Arrhenius [Svante August Arrhenius (1859-1927)  fue un científico físico-químico sueco, galardonado con el Premio Nobel de Química, en 1903] o también conocida como la Regla de los 10 grados. Esta regla dice que la vida de un componente o material se reduce a la mitad por cada 10 ºC de aumento en la temperatura; aplicado inversamente: por 10 ºC de disminución de temperatura, la vida útil de un semiconductor se duplicará.
En los grandes Data Centers, la temperatura es difícil de medir, ya que no existe un único punto de referencia para tomar la muestra. Por ello se debe realizar por pasillos, y hasta en algunos casos, se puede llegar a tomar la temperatura en varios Racks.
Actualmente en el mundo de IT, existe una discusión sobre cuál es la temperatura ideal para operar un Data Center debido a la publicación de las mejores prácticas recomendadas por el reconocido organismo ASHRAE [American Society of Heating, Refrigerating and Air Conditioning Engineers] en 2011, donde la entidad sugiere un rango de operación permitido más amplio según el tipo de Data Center, es decir, más elevado que lo afirmado en su previa publicación en 2008, y más aún comparada contra la versión del 2004.
En 2004 la recomendación de operación era entre 20 °C y 25 °C; en la publicación del año 2008, el rango recomendado se amplió a 18 °C y 27 °C. En el año 2011, el rango recomendado se mantuvo, pero se amplió el rango permitido de 5 °C a 40 °C (cabe aclarar que esto no es para todos los tipos de Data Centers, sino que varía según su clasificación).
El principal impulsor para ampliar los límites provino de la necesidad de la industria de tener mayor flexibilidad, y al mismo tiempo, de reducir costos en enfriamiento, para lo cual se debe tener un claro conocimiento de la edad de los servidores y su política de renovación. No es lo mismo renovar los equipos cada tres, cinco o siete años, si bien cuando se compran los equipos nadie lo hace pensando que van durar 10 años; en la práctica termina siendo mucho más habitual de lo que creemos, ya sea por razones presupuestarias o dificultades de migración.


Si sabemos que nuestros equipos se renuevan siempre cada tres años probablemente no tengamos problemas operando nuestro Data Center a 27 °C. En cambio, si sabemos que la vida útil de nuestros servidores va a ser mucho más extendida, deberíamos pensar en un rango de operación más bajo para así prolongar la duración de los equipos. Como se citó anteriormente, según la Regla de los 10 grados, a menor temperatura, mayor es la durabilidad de los componentes.
Por otra parte la norma TIA/EIA-942 recomienda como rango aceptable de temperatura entre 20 °C y 25 °C.

¿Qué rango de temperatura recomiendan los principales fabricantes de servidores?

  • IBM: 22 °C
  • Dell: 23 °C
  • HP: 22 °C


¿A qué temperatura operan los Data Centers de las grandes empresas?

  • Google: 26 °C (*)
  • Sun: 27 °C   (*)
  • Cisco: 25 °C   (*)
  • Facebook: 22°C   (*)

(*) Información disponible en la sección “Video Tour” de la página http://www.datacenterknowledge.com/


domingo, 9 de junio de 2013

Data Centers Extremos

Un Data Center o también llamado CDP (Centro de Procesamiento de Datos) es un espacio con determinadas características físicas especiales de refrigeración, protección y redundancia, cuyo objetivo es alojar todo el equipamiento tecnológico de la compañía brindando seguridad y confiabilidad. 
La variedad y calidad de los niveles de servicio que pueden alcanzar son muy variados, dependiendo principalmente de las necesidades del negocio se desean satisfacer, ya que no es lo mismo ser un proveedor de servidores "cloud" de misión crítica, que alojar algunos servidores de uso interno de una organización donde la actividad principal es por ejemplo el análisis y procesamiento de información para investigaciones poblacionales.
Estas variedades son enormes y también así de diversos los costos asociados, ya que se puede pasar de un Data Center sin redundancia a uno son varios niveles de redundancia por cada componente.
A continuación se ejemplificarán algunos de los Data Centers más extremos del mundo según esas necesidades o estrategias de diseño.

Extremos en seguridad:
Un ejemplo de Data Center con medidas de seguridad extremas podría ser el que terminará de construir para 2013 la agencia estadounidense NSA (National Security Agency) en Bluffdale, Utah, destinado a almacenar el sistema de espionaje más complejo del mundo, capaz de analizar: búsquedas de ciertas palabras claves, correos electrónicos, llamadas telefónicas, datos bancarios, fotos, etcétera. La revista Wired reveló en abril de 2012 que el programa tiene un presupuesto estimado en 2.000 millones de dólares para una superficie aproximada 9.000 m2, capaz de albergar cientos de Racks, además contará con otro espacio mucho más grande para oficinas administrativas y técnicas, lo que lo convierte también es uno de los más costosos. Solo para el programa antiterrorista perimetral se destinaron 10 millones de dólares, que incluye una valla diseñada para detener un vehículo de hasta 6 toneladas circulando a 80 km/h. Además posee su propia subestación eléctrica para una demanda de 65 MW, combustible para operar los generadores por tres días consecutivos y un sistema de enfriamiento capaz de proporcionar 60.000 toneladas de enfriamiento con tanques de agua que pueden acumular más de 6 millones de litros de agua

Otro ejemplo es el del ISP sueco, Bahnhof, que en 2008 rediseñó las instalaciones de un bunker militar antinuclear construido en Escolmo durante la guerra fría, como espacio físico para alojar sus equipos.
Ubicado a 30 metros bajo tierra, con puertas de 40 cm de ancho, 2 motores diesel de submarino con capacidad de 1,5 MW cada uno para generar energía en caso de interrupción, tres cableados principales de Internet redundantes ( dos de fibra óptica y uno de cobre)
Si desean ver las fotos completas, remitirse al artículo original aquí



Extremos en velocidad de red:

¿Cual es el Data Center que ofrece mayor velocidad? Realmente la respuesta es difícil, ya que actualmente en el mercado existen equipos de red con capacidades de transmitir por fibra óptica a cortas distancias a 40 Gb, obviamente, para los gigantes informáticos como Google, IBM, Cisco, etc, comprar varios de estos dispositivos y ampliar la capacidad de red a 100Gb no es tarea compleja, pero actualmente científicos del Laboratorio Nacional Los Alamos, de la Universidad de California, desarrollaron un prototipo de muchísimo más rápida llamada: red cuántica que lleva más de dos años en actividad.
Además de conseguir velocidades nunca antes alcanzadas y sería invulnerable ya que utiliza un nuevo paradigma computacional. Si bien desde hace un tiempo se habla de la computación cuántica, el retraso en su implementación se debe a que todavía está lejos de ser una realidad comercial. Ver nota recomendada aquí. Actualmente los científicos que trabajan en ella estiman que no será masiva hasta dentro de 10 años.

Extremos en condiciones ambientales ecológicas:

Existen muchos ejemplos de Data Centers ecológicos, ya que la forma en que refrigeran los equipos y como generan la energía eléctrica son las dos variables que más influyen a la hora de determinar la eficiencia ecológica y varían según la ubicación geográfica.
Google terminó de construir en Hamina, Finlandia, ubicado en una antigua papelera, con una inversión de 252 millones de dólares, y para el cual utilizarán un sistema de refrigeración por agua. Gracias a su excelente ubicación geográfica puede tomar el agua fría del Mar Báltico, ahorrando así una considerable cantidad de dólares por año en refrigeración. Este tipo de estrategias le permiten a Google reducir año a año de manera continua el uso de energía necesaria para mantener operativo sus servidores, como lo muestra una publicación reciente de la firma en su blog.  Y más aún cuando se inaugure en 2015 la central eólica ubicada en Maevaara que proveerá energía eléctrica no contaminante.

Otro caso es el de la empresa de hosting estadounidense AISO que en su Data Center de 
2.000 m2, dispone de 120 paneles solares, lo que le hace ahorrar hasta 3.000 dólares mensuales en electricidad. Para la iluminación de sus oficinas tiene montado un sistema de tubos que redirigen la luz solar hacia las lamparas del interior. Adicionalmente 
posee de un sistema recolector de agua de lluvia, que luego es utilizado en la refrigeración para el aire acondicionado de los equipos, lo que le permite tener un PUE = 1,14. Este podría ser en definitiva uno de los centros de datos más “verdes” del planeta.
Facebook también está innovando en este área inaugurando un nuevo Data Center en Lulea, suecia.con un PUE=1,07 basado en energía hidroeléctrica 100% renovable, ver link con el anuncio oficial aquí.

Extremos en tamaño:

El Data Center más grande del mundo está ubicado en Langfang, China. El proyecto ocupa un área de 1.341.867 m2, con  2.622.470 m2 de construcción, de los cuales 620.000 m2 estará destinados al sector exclusivo para Data Center, lo convierte en el mayor emprendimiento del mundo.