Mostrando entradas con la etiqueta Tecnología. Mostrar todas las entradas
Mostrando entradas con la etiqueta Tecnología. Mostrar todas las entradas

martes, 26 de enero de 2016

Hollywood ya sabe la importancia del Data Center

Una de las funciones básicas de un Data Center bien diseñado es eliminar los riesgos potenciales que causarían pérdidas evitables, y minimizar el impacto de las no evitables como las catástrofes naturales. Las empresas que sufren situaciones de desastre en sus sistemas, quedan con un daño irreversible que puede llevar a la compañía a su cierre parcial o, en algunos casos, definitivo.

Los guionistas de cine y  televisión ya son consientes que para eliminar completamente a "los malos", no solo basta con deshacerse de los personajes, sino que también deben destruir su Data Center.

Una investigación de la Universidad de Texas revela que de las empresas que sufren una pérdida masiva en sus sistemas de información, el 43% nunca vuelve a abrir, el 51% cierra antes de los dos años, y solo el 6% puede continuar con su actividad, enfrentando grandes pérdidas en sus sistemas de información.
Según otro informe de la Agencia Nacional de Archivos y Registros en Washington D.C. (National Archives and Records Administration), el 93% de los negocios que tienen una interrupción importante en sus Data Center por más de 10 días, quedan en bancarrota en menos de un año.
La contundencia de estos números deja a la vista cuán importante son los datos de las empresas para poder permanecer con las puertas abiertas.

Tratando de no spoilear películas, a continuación les dejo algunos casos donde para que "los buenos" derroten a "los malos" y tengamos un final feliz con nuestras panzas llenas de pochoclo (también llamadas palomitas), el protagonista debe destruir el Data Center enemigo para poder derrotarlo definitivamente.

  • Terminator 2 (1991): Terminator personificado por Arnold Schwarzenegger junto con Sarah y John Connor logran convencer al científico  Miles Dyson que deben volar el laboratorio de investigación de Cyberdyne Systems, junto con toda la información existente con fin de destruir por completo a Skynet (los malos). Pese a que todo termina con una gran explosión, cuando los planes salen perfectos, los guionistas aprovechar a dejar puertas abiertas para futuras zagas. 
  • Prision Break - Temp 4 (2009): Los hermanos Michael Scofield y Lincoln Burrow, luego de tres temporadas deciden que deben destruir a "Scylla" un repositorio de información ultrasecreto ultraprotegido que guarda los mayores pecados de los malos.
  • Ant-Man (2015):  Dr. Hank Pym quiere evitar que una tecnología de avanzada que el mismo descubrió, caiga en las manos equivocadas debido a su gran potencial (en este caso Darren Cross). Para ello se propone destruir el Data Center de Pym Technologies (el laboratorio que el mismo creo) así como también todos los datos almacenados en los backups.

Los invito a dejar comentarios en este post de otras películas donde las destrucción del Data Center sea sinónimo de acabar con los malos.



lunes, 23 de febrero de 2015

El incremento en la densidad de los Data Centers

Uno de los mayores desafíos que enfrentan los responsables de los Data Centers es el aumento de la densidad de consumo kW por rack, ya que por un lado requieren se mayor suministro eléctrico y al mismo tiempo se genera más calor en la misma superficie, debido a las tendencias de optimización que evolucionan permanentemente.
El motor impulsor principal de esos cambios es el avance tecnológico de los componentes de los servidores (en especial procesadores y memorias). Hoy en día existen dispositivos con mayores prestaciones, que funcionan en espacio mas reducido, pero que generan más calor en comparación con el espacio que ocupaban los mismos equipos un tiempo atrás.
Otro actor importante que tomó un rol protagónico hace ya unos años es la virtualización, que permite aprovechar los recursos ociosos.

Para poner un ejemplo, para realizar tareas de procesamiento centralizado 2005 un Data Center tradicional con 315 servidores de 2U cada uno requería unos 15 racks en promedio y podría tener un consumo promedio total de 4 kW por rack. Actualmente esa misma capacidad de cálculo puede ser reemplaza por 21 servidores que ocupan un solo rack, pero que tiene un consumo de 11 kW por rack

A medida que pasan los años, se produce una reducción de la superficie ocupada dentro del Data Center, eso hace que también aumente la densidad de cables por cada rack, y la capacidad de enfriamiento debe ser superior, ya que la densidad del calor generado tiene más concentración.
Si bien el costo de la inversión inicial del nuevo equipamiento puede ser elevado, se deben evaluar cuáles son los costos totales asociados al su funcionamiento a lo largo de la vida útil, ya que las capacidades de los procesadores aumentan permanentemente. La clave es encontrar el punto de equilibrio entre la inversión, la vida útil proyecta, el TCO y la disponibilidad deseada, para renovar los equipos periódicamente, y así producir ahorros a mediano o largo plazo

Uno de los primeros pasos que se debe seguir cuando se releva información sobre el Data Center ya existente o próximo a construir, es la definición del consumo de kW/rack actual, y el estimado para los próximos años. De esa forma, se determinará la densidad de calor generado por rack medido en kW, lo cual no es una tarea sencilla ya que no todos los rack tiene el mismo consumo, por ejemplo los equipos te comunicaciones, red, telefonía generan muy poco calor. Por el contrario, los servidores, que tienen muchos procesadores en un espacio reducido generarán más calor. Por eso, hay que identificar los distintos consumos por rack.
Luego de tener una clara definición de cuánto calor genera cada rack, hay que establecer la estrategia de refrigeración. En particular, al momento de la ubicación, conviene definir diferentes tipos de zonas o identificar posibles riesgos. Una vez efectuado esto, también es necesario saber la densidad de calor generado kW/m2 y la densidad promedio kW sobre la superficie total del Data Center. Esa información nos ayudará a definir la estrategia de refrigeración que elegiremos.

En los Data Centers actuales es común encontrar racks que tiene un consumo de 20 kW o más. Esta es una tendencia en aumento a partir del año 2004 con la aparición de servidores de 1U y los servidores Blade

Clasificación según el consumo promedio por Rack:
  • Densidad baja (tradicional): 1 a 3 kW
  • Densidad moderada (promedio actual):  3 a 8 kW (hasta 2 servidores Blade)
  • Densidad media (tendencia): 9 a 14 kW (hasta 3 servidores Blade)
  • Densidad alta: 15 a 20 kW (hasta 4 servidores Blade)
  • Densidad extrema: más de 20 kW
Si bien la virtualización simplifica la tarea de los administradores de los servidores, y permite agilizar el área de IT con menores costos, para los responsables de la infraestructura de los Data Centers es un arma de doble filo, ya que para aprovechar la solución mencionada de forma ideal, se deberá reemplazar el hardware existente, comprando equipos más potentes y pequeños, que también generan más calor en una superficie menor. Además, éstos pueden requerir actualización en la infraestructura de red ya que en estas soluciones requieren redes de alta velocidad y grandes capacidades de almacenamiento para aprovechar todas las ventajas que ofrecen los productos.


Con el aumento de la concentración de la cantidad de cables que entran y salen a cada rack, es fundamental tenerlos prolijamente ordenados para que el flujo de aire no se vea obstruido y se dificulte el correcto flujo de circulación de aire frío y aire caliente.


martes, 7 de octubre de 2014

Recuperación de Desastres en el Data Center


Desarrollar un plan de recuperación tiene como objetivo regresar a la operativa del negocio al mismo nivel en el que estaba antes de la catástrofe. Si su negocio es tomar pedidos por medio de una línea telefónica y continuar con la entrega de productos, el esfuerzo de recuperación debería estar dirigido hacia el restablecimiento de la operación telefónica y la conexión del personal a los sistemas de procesamiento informático y telefónico, lo cual permitirá que continúen los envíos.
El plan final podrá incluir una instalación redundante en otro sitio remoto que tenga acceso a los datos obtenidos de las copias de seguridad. Si la operación no es tan crítica o la instalación redundante no ha sido considerada por razones presupuestarias, es imprescindible un buen plan de recuperación.


Un Data Center de respaldo consiste en un sitio de contingencia que reemplazará al de producción solo con las aplicaciones definidas como críticas para el BCP (Business Continuity Plan). A continuación se describen las características de los cuatro tipos de Data Centers que se pueden utilizar para el diseño de un plan de recuperación de desastres:

  • Data Center de contingencia estándar: Consiste en disponer de un espacio físico vacío con la capacidad de contener y soportar las aplicaciones pertenecientes al grupo de DR; preparado con la estructura eléctrica y de refrigeración mínima para cubrir la contingencia de esos equipos. Se debe considerar  con la posibilidad de que los equipos se demoren en conseguir en la zona, por ejemplo, Firewalls (cortafuegos) o algún reemplazo similar. Este método tiene un costo bajo, salvo por el desaprovechamiento del espacio, pero los tiempos de restauración son muy lentos (de días a semanas), ya que se debe conseguir el equipamiento, armar la infraestructura, luego instalar las aplicaciones; y finalmente, restaurar los datos de las cintas.
  • Data Center en la nube: Utiliza los servicios ofrecidos por los proveedores basados en Internet o a través de un enlace punto a punto por medio de un proveedor que ofrezca una conexión privada. Los costos son menores y la velocidad de instalación de los nuevos servidores es muy rápida, están basados en máquinas virtuales, pero lo que demandará más tiempo será la restauración de los datos, porque las cintas de contingencia deben ser enviadas hacia el proveedor, también habrá que restaurar las aplicaciones; y luego, restaurar los datos.
  • Data Center asincrónico (mirror off-line): Consiste en tener otro Data Center duplicado en una ubicación remota en donde se replican todos los servidores críticos de manera asincrónica. Esto puede realizarse en un sitio privado o contratado por a algún proveedor, pero con la salvedad de que los datos de esas aplicaciones críticas se copian al Data Center de contingencia de manera automática fuera del horario de operatoria diaria; por ejemplo, por las noches, mediante diversas herramientas. Tiene un costo alto, ya que todos los servidores están disponibles, pero sólo se utiliza la red dedicada para la transferencia de datos al Data Center de respaldo cuando no afecta las operaciones en horario central; por lo cual, en caso de desastre, el tiempo de recuperación es menor a un día. Generalmente este servicio es empleado por empresas que procesan sus operaciones más importantes en servidores Mainframe, del rubro bancario, por ejemplo, ya que en caso de desastre no pueden quedarse sin operar, y tener un Mainframe de respaldo resulta impráctico debido a su altísimo costo, pudiendo costar varios millones de dólares solo un Mainframe.
  • Data Center sincrónico (mirror on- line): Llamado espejado o (mirroring), es una estrategia donde en el Data Center de respaldo propio o rentado a algún proveedor replica todos los datos de la aplicaciones críticas, tomándolos desde el Data Center de producción, de modo constante en tiempo real, copiando bloque a bloque; de manera tal, que si ocurre un desastre, la recuperación es instantánea, pudiendo tomar tan solo algunos minutos. Es la estrategia más rápida y costosa, ya que requiere tener todos los servidores duplicados y exige tener un gran ancho de banda disponible solo para la copia de los datos en tiempo real. Por lo que los costos en infraestructura de red son altos, además del mantenimiento e la implementación del software encargado de hacer que esa replicación funcione: Softek de IBM, Stream de Oracle, u otras soluciones provistas por los fabricantes de la SAN. Está claro que este tipo de soluciones están reservadas para empresas grandes que manejan presupuestos de infraestructura millonarios y no pueden sufrir interrupciones en la operatoria de sus servicios debido a sus altísimos costos.

Importante: Si se elige una estrategia sincrónica es fundamental que dicho proceso sea monitoreado constantemente a fin de corregir los desvíos, ya que de nada sirve una inversión tan grande para luego tener problemas de inconsistencia de datos por problemas de sincronismo.
Ambas estrategias, asincrónicas o sincrónicas son válidas mientras sean adecuadas entre el balance de costo y tiempo de RTO (Recovery Time Objective), adecuando el tipo de método de replicación elegido, ya sea por SAN, por red o a nivel de servidores o de base de datos, ya que los tiempos de recuperación de datos por medio de las cintas magnéticas son lentos para las necesidades de negocio de muchas empresas.
Los fabricantes de SAN como EMC, IBM, HP, Hitachi o Dell, entre otros ofrecen soluciones de replicación que se ajustan a cualquiera de los dos tipos. También para replicación por red a nivel de sistema operativo o replicación por red con productos que optimizan el tráfico de manera segura y eficiente.

Para decidir cuál va a ser la metodología elegida para el Data Center de contingencia, se deberán analizar los costos por las pérdidas y los costos por la implementación de la solución, además de la variación en horas por cada tipo de solución sobre la base de la complejidad de las aplicaciones que se restaurarán.

domingo, 25 de mayo de 2014

Libro publicado y sorteo

Me complace anunciar que ha sido publicado el primer libro sobre infraestructura de Data Centers en español y también los invito a participar del sorteo de 2 ejemplares.
Este libro está concebido para todos aquellos que desean abordar por primera vez la comprensión de los elementos que integran un Data Center o están ya familiarizados con el tema, pero desean profundizar y ampliar sus conocimientos previos. Por ese motivo, esta obra es una herramienta práctica tanto para los estudiantes universitarios como para los responsables del planeamiento, diseño, implementación y operación de un Data Center en las empresas.
Los consejos, estrategias y recomendaciones que se encuentran a lo largo del libro son el resultado de una extensa investigación Se inspiran en las nuevas técnicas, los estándares más novedosos y las últimas tendencias a fin de optimizar el funcionamiento actual del Data Center, y brindarle al negocio una mejora competitiva. En ese sentido, se desarrollan una serie de propuestas destinadas a la mejora de las prácticas actuales de la industria así como al diseño de planes de contingencia.

El libro cuenta con el prólogo del Lic. Carlos Tomassino.





El libro está editado por Alfaomega ya encuentra disponible para adquirir en formato electrónico (formato ePub). La edición en papel esta llegando a los diversos países.


SORTEO:

El día 24/06/2014 se sortearán 2 ejemplares en formato electrónico ePub. Para participar concurso deberás enviar tus datos personales (nombre, apellido, correo electrónico, país de residencia)  a datacentershoy@hotmail.com
Los ganadores serán anunciados el 25/6/2014 en este mismo post.

GANADORES
Felicitamos a los ganadores del sorteo: Yuri Perales de Perú y a Pablo Astrada de Argentina.

Muchas gracias a la gente de Argentina, España, Perú, México, Chile, Ecuador, Guatemala, Costa Rica, Colombia, República Dominicana y Venezuela por haber participado.


viernes, 10 de enero de 2014

UPS Giratoria (Flywheel UPS): un Nuevo Paradigma

La UPS giratoria es un sistema que asegura la continuidad del suministro eléctrico basado en un concepto antiguo, que consiste en transformar la energía cinética en energía eléctrica. Este dispositivo conlleva a un cambio paradigma para la mayoría de los Data Centers para los cuales una UPS tiene que tener baterías sí o sí.

Si a usted le preguntaran en qué país se inventó el reloj digital de cuarzo, probablemente dirá que fue en Japón, pero la respuesta es incorrecta.
En el año 1968 Suiza controlaba el 90% del mercado mundial de relojes. Un día un técnico de una de las mayores empresas de relojería mostró a sus jefes un nuevo modelo que acababa de inventar. Se trataba de un reloj electrónico de cuarzo. Su superior observó el prototipo y le dijo: “Esto no es un reloj”, y no dio ninguna importancia al descubrimiento, ya que no poseía cuerda, mecanismos ni engranajes. Le permitieron quedarse con la patente e incluso ir con el invento a una feria de relojería. Pasaron los japoneses y compraron. Poco tiempo después pusieron a la venta el reloj de cuarzo. Para el año 1982, el 90% del mercado que controlaban los suizos, se redujo al 15%. Perdieron el liderazgo y cincuenta mil puestos de trabajo por culpa de la nueva tecnología, ¡inventada por un suizo!

La UPS giratoria (también llamada o UPS rotativa o Flywheel UPS) funciona haciendo mover una rueda metálica muy pesada (de 300 kg o más) por medio de la energía eléctrica provista por la red, haciéndola girar a gran rapidez (entre 33000 y 77000 RPM según el fabricante), y por medio de la levitación electromagnética al vacío no entra en contacto con otros elementos, evitando así el rozamiento que frenaría la rueda. La inercia generada le permite rotar a gran velocidad durante un tiempo prolongado ya que no hay fricción. Así ese movimiento de energía cinética acumulada, entregará corriente eléctrica cuando se interrumpa el suministro de red. Si el suministro eléctrico se detiene, la rueda de gran masa que está  girando a muchas revoluciones es capaz de proporcionar suficiente energía al Data Center durante unos segundos (entre 15 y 60 según la configuración).
La mayoría de la gente tiende a apegarse a la antigua tendencia de que una UPS debe tener la capacidad suministrar energía por al menos 15 minutos en caso de interrupción. Lo cierto es que este es un pre concepto heredado de los servidores Mainframe, cuyos procesos de apagado controlado demoraba ese tiempo, pero hoy en día apagar cualquier equipo actual demora mucho menos tiempo, y más aún si la instalación cuenta con generador.
Actualmente los generadores modernos son capaces de proveer energía estabilizada entre 2 a 10 segundos desde que se detecta la interrupción. ¿Qué sentido tiene tener una UPS con baterías que permite operar por 15 minutos cuando el generador entrega energía estabilizada solo en 5 segundos?




A continuación se detallan las principales ventajas y desventajas de las UPS giratorias en comparación las UPS tradicionales de batería.
Ventajas

  • Vida útil mayor a 20 años
  • Es más económica, teniendo en cuenta el costo a lo largo de la vida útil si se la compara con la UPS tradicional. Se estima un retorno de la inversión en aproximadamente tres años.
  • No utiliza baterías, produciendo grandes ahorros de energía, contaminación, enfriamiento, reemplazo y mantenimiento (sólo utiliza una pequeña batería para el arranque).
  • Ocupa menor superficie (por ejemplo, una UPS de 300 kVA ocupa solo 25% del espacio de una UPS de Conversión Doble, aunque puede llegar a pesar 2500 kg)
  • Su eficiencia oscila entre el 95% y el 98% (las UPS de batería tiene en promedio una eficiencia del 92%)
  • Su tiempo de carga es bajo: entre tres y ocho minutos, comparado con la UPS tradicional que puede llegar a tardar entre ocho y diez horas para completar la carga.
  • La operatoria es silenciosa (entre 45 y 70 decibeles a un metro de distancia).
  • Tiene una mayor amplitud térmica operacional (comparada con la UPS de batería)
  • Genera poca temperatura. Por ejemplo: una UPS de 300 kVA de 1.5 x 0.8 m y una altura menor a 2 m genera entre 5 kW/h y 7 kW/h de calor.
  • Las mediciones de la capacidad de la carga brindan datos más certeros comparados con la UPS de baterías.
  • MTBF: >50000 horas (las baterías de las UPS tiene un MTBF: <2200 horas)


Desventajas

  • Su inversión inicial es elevada.
  • Tiene poco tiempo de energía de resguardo, lo que genera una mayor dependencia del generador



"Si hoy fuese el último día de mi vida, ¿querría hacer lo que voy a hacer hoy? Y si la respuesta era No durante demasiados días seguidos, sabía que necesitaba cambiar algo."
Steve Jobs

domingo, 27 de octubre de 2013

¿Porque los Estándares pueden Atrasarnos Tecnológicamente?

Cuando estamos diseñando un Data Center debemos elegir materiales que cumplan con los estándares homologados (cableado, fibra óptica, electricidad, etc.), pero es realmente lo más adecuado tecnológicamente? 

¿Seleccionando un material estandarizado estamos adquiriendo una tecnología obsoleta?

Plantearse esa duda es muy interesante y probablemente la respuesta sea: Sí.

Pero porque elegir un material que cumple con los estándares de calidad (independientemente de la norma) no es lo mejor tecnológicamente?
El problema principal radica en que los estándares deben ser revisados y aprobados por muchas entidades, organismos, países, fabricantes, consultores técnicos, universidades, etc., y al igual que en la política el consenso entre partes lleva tiempo, es por eso que para cuando un estándar queda aprobado, los fabricantes ya han desarrollado o prácticamente sacado al mercado dispositivos o materiales que superan tecnológicamente al que se acaba de aprobar.

En el gráfico se puede ver la evolución de las categorías de cableado estructurado (ANSI/TIA) comparando la fecha de aprobación de los estándares en relación a la fecha de publicación (e incluso la fecha de diseño puede ser aún anterior):



Como se puede observar, la línea azul está permanentemente por detrás de la línea naranja, que muestra la fecha real de publicación de la categoría de cableado, con respecto a la azul, que es la fecha en la cual el estándar quedó aprobado. Quizás uno de los ejemplos más significativos sea el caso del cableado Cat. 6A que permite velocidades de hasta 10Gbps fue propuesto en el año 2000 y fue aprobado en el año 2008. El estándar anterior aprobado Cat. 6, solo permitía velocidades de hasta 1 Gbps.
Este ejemplo es solo una muestra general donde se comparan los estándares de cableado de cobre, pero el mismo concepto se aplica también para los otros estándares, como ser los de fibra óptica, normas eléctricas, normas de transmisión de datos, etc.
La dificultad de la decisión recae sobre aquellas personas que debe seleccionar que materiales utilizar para una obra que se planifica para los próximos 10 años (incluso algunos fabricantes de cables de datos ofrecen garantía hasta por 20 años). 
Que debemos hacer? Seleccionamos materiales que están bajo una norma que se aprobó hace varios años o seleccionamos un material que se encuentra disponible en el mercado, que es más avanzado tecnológicamente, pero que aún no existe un estándar que lo avale. Vaya dilema!
Muchos pueden inclinarse a adquirir el material más moderno, pero se corre el riesgo de que finalmente haya algún parámetro o valor especifico que el material no cumple, pudiendo así no poder cumplir con el estándar, aunque esto tiene una probabilidad baja.
Aclaración sobre los organismos ISO/IEC y ANSI/TIA: ambas son entidades internacionales de estandarización reconocidas, pero la composición interna de sus miembros es distinta, lo que influye en los intereses particulares de cada uno.
ISO / IEC 
  • Integrado por representantes de naciones, un voto por país.
  • Acuerdo OMC (Organización Mundial del Comercio) para evitar barreras técnicas al comercio.
  • Acuerdos de reconocimiento mutuo.
  • También participan los fabricantes.

ANSI / TIA
  • Integrado por empresas privadas, un voto por empresa.
  • Respalda los intereses tecnológicos y comerciales de sus asociados.


El principal problema de los estándares es que al intervenir tantos participantes, el proceso de aprobación es realmente largo y complejo, pudiendo tomar varios años, pero los requerimientos del mercado en base a las necesidades de los clientes, hace que aumente demandan productos que brinden mayores velocidades permanentemente, y las empresas privadas invierten mucho en investigación para lograrlo, adelantándose a los estándares. Por eso, a veces, resulta difícil seleccionar una tecnología de punta que quizás después puede no ser aprobada por los organismos que certifican los estándares. También está la disyuntiva de tener que elegir una tecnología de cableado proyectado el crecimiento a diez años, pero con un estándar aprobado cinco o siete años atrás, que quizás ya es obsoleto. Por esa razón, cuando se analiza la selección de un estándar de cableado estructurado es importante tener en cuenta su fecha de publicación del último estándar aprobado, cuales son los materiales disponibles en el mercado, para luego analizar pros y contras de cada uno, ya que probablemente la decisión no se puede postergar hasta cuando el ultimo estándar este aprobado.

Publicación del articulo en TechTarget: