miércoles, mayo 08, 2013

Nueva norma internacional para los centros de datos

Tomado de: ARTICULO ORIGINAL

Los centros de procesamiento de datos están en todos lados. Son la base de las transacciones financieras, comerciales o de transmisión de multimedia con fines informativos, de entretenimiento o productividad. Las nuevas tendencias como BYOD, virtualización y cómputo de nube requieren de infraestructura de telecomunicaciones que apalanque estas tecnologías, y ahí es donde los centros de datos cobran relevancia.
 
La prueba de esta importancia se refleja en los resultados de la más reciente encuesta de prioridades de TI realizada por TechTarget, en donde la mitad de respondientes de América Latina comentó que este año estarán trabajando en la consolidación de la infraestructura del centro de datos, mientras que una cuarta parte se enfocará en unir la infraestructura de las redes de almacenamiento con su centro de datos. Esto tiene una razón, y es que al menos una quinta parte (20.8%) ocupa la mayor parte de su tiempo gestionando las operaciones de estos centros.

Dada la relevancia de este tema, los días 22 y 23 de mayo se realizará el 8º Congreso Internacional de Infraestructura TI y Expo DataCenter, en la Ciudad de México. El congreso y la expo, organizados por ICREA, tienen por objetivo ofrecer información relevante sobre implementación, mantenimiento y mejores prácticas para centros de datos.

En el marco del congreso se presentará la versión 2013 de la Norma Internacional para la construcción de centros de procesamiento de datos (ICREA-Std-131-2013), que es un conjunto de recomendaciones y mejores prácticas acordadas entre varios países y un grupo de expertos en centros de procesamiento de datos (CPD). Dicha normativa define la forma de construir un Centro de Datos de acuerdo con los niveles de confiabilidad y seguridad deseados.

La nueva versión, realizada en conjunto entre México y 25 países de América Latina, abarca aspectos generales, instalaciones eléctricas, aire acondicionado, comunicaciones, ambiente (piso elevado, acabados, obra civil), seguridad (CCTV, control de acceso, detección y supresión de incendios) y anexos para la certificación de CPD.

Una normativa en evolución
De acuerdo con Eduardo Rocha, presidente del International Computer Room Experts Association (ICREA), la norma se ha convertido en el referente para la construcción de Centros de Datos con altos niveles de seguridad y eficiencia: "Todos los cambios que se han aplicado a la norma están marcados y tienen textos subrayados. Esta versión del documento tuvo un nivel de revisión muy profundo".

Explicó que, debido a la necesidad de documentar las mejores prácticas para centros de datos, en 2003 se liberó la primera versión en México, la cual tuvo una revisión en 2007. Fue hasta 2009 que se generó la primera versión internacional, la cual fue revisada en 2011 con la colaboración de 12 países de América Latina.

Este año participaron 25 países de la región, además de que se contó con los comentarios de expertos españoles, quienes aportaron valiosos conocimientos para homogeneizar criterios entre la filosofía europea y la americana, buscando una mayor compatibilidad con los modelos ISO. Cabe resaltar que esta será la primera versión que también se publicará en inglés.

Entre los cambios significativos para la versión 2013 se incluye el enfriamiento sin costo (es decir, el que aprovecha un clima externo frío para mantener el centro de datos a temperatura adecuada sin gastar energía), así como una mayor claridad en los criterios de optimización de instalaciones por medio del Power Usage Effectiveness (PUE).

“Los grandes centros de datos que han implementado sistemas adecuados de energía han reducido su puntaje PUE a menos de 2”, expresó Rocha. Añadió que el cociente óptimo del PUE sería de 1, pero la relación suele ser de 2 a 1. Sin embargo, la mayoría de los centros de datos se encuentra más arriba, con promedios de 2.4 o 2.6 puntos.

Alianza pro centros de datos en América Latina
Otro de los anuncios que se darán a conocer en el marco del evento es la firma de un convenio entre el ICREA y DataCenter Dynamics (DCD). Ambas organizaciones han acordado una serie de compromisos para atender el mercado Iberoamericano de infraestructura de centros de datos.

ICREA espera aprovechar la plataforma de marketing de DCD para ampliar su convocatoria. Este año esperan al menos 400 asistentes de México, España y América Latina, principalmente. Además, en adelante ICREA participará de manera conjunta en los eventos que DCD realiza en Latinoamérica.

El valor que aporta la asociación es el contenido. Este año, por ejemplo, se impartirán cursos de capacitación para 23 certificaciones distintas relacionadas con la gestión de centros de datos durante el congreso en la Ciudad de México.

Entre los temas relevantes que se abordarán en el evento se incluyen:
  • ROI y métricas de medición de la inversión contra las necesidades reales de disponibilidad de los clientes
  • Uso de baterías y mejores prácticas de desecho y aprovechamiento de la vida útil, con beneficios tangibles económicos y ecológicos
  • Esquemas de respaldo y redundancia, así como protección física (sistemas anti-bala, controles de acceso, videovigilancia, etc.)
  • Cómo revertir la tendencia de consumo energético de los centros de datos
“Hacia donde uno voltee hay centros de cómputo”, comentó Rocha. “Las transacciones en centros comerciales, operaciones financieras, servicios de comunicación, transmisión y entrega de correos electrónicos, toda nuestra vida se sustenta en los centros de datos. No es de sorprender entonces que la instalación de estas arquitecturas vaya en aumento y que actualmente consuman 2% de la energía a nivel mundial”, dijo.

International Computer Room Experts Association es una Asociación Internacional que norma y certifica especialistas, ambientes y productos de Infraestructura TIC. Fundada en 1999 en la Ciudad de México, actualmente tiene presencia en 21 países y cuenta con más de 2m000 socios. http://www.icrea-international.org


¿Llegó la hora de renovar el centro de datos?

 El hardware del centro de datos envejece con el tiempo y llegará un momento en que habrá que reemplazarlo, pero la decisión de cambiar el hardware usado se ha ido complicando en los últimos años. En teoría, es realmente una ecuación bien simple: si el hardware tiene más de N años, es hora de reemplazarlo. Pero dado el estado del negocio y las finanzas en la mayoría de las organizaciones, muchas han decidido poner fin al tradicional ciclo de cambio de hardware cada 3-4 años debido a las restricciones presupuestarias. Sin embargo, si es necesario suspender esa renovación, quizás eso le permita seguir pagando por el mantenimiento y ahorrarse las grandes inversiones de capital que supone comprar maquinaria nueva.

Como sea, es imposible seguir con el mismo hardware indefinidamente. Seguir “como estamos” en medio de un entorno de evolución y cambio tecnológico no es una opción realista. Las nuevas aplicaciones exigen un rendimiento y unas prestaciones que casi siempre sólo se encuentran en los sistemas de última generación. De igual manera, la rápida adopción de tecnologías como la virtualización de servidores hace que cada vez sea más difícil ajustarse a las tácticas tradicionales de abastecimiento de hardware (por ejemplo, “una aplicación, una máquina”), especialmente si, además, estamos obligados a reducir costos.

Evaluación de la necesidad de renovación tecnológica

Desde una perspectiva práctica, todos los administradores se encontrarán entre la espada y la pared en lo que respecta a tres cuestiones: aumento de la actividad y los requisitos de negocio (más computación), presiones para reducir el gasto en TI (presupuestos más bajos), y exigencia de una mayor rapidez y eficiencia en el servicio. Siempre existe la tentación de priorizar la reducción de costos, normalmente con la presión de la alta gerencia. Sin embargo, una de las consecuencias de mejorar la eficiencia suele ser la reducción de los costos.
Por tanto, estamos ante el clásico esfuerzo permanente por hacer inversiones estratégicas —como la renovación tecnológica— que, además, generen ahorros para las organizaciones. La implementación de un sistema que permita repercutir los costos a las unidades que realmente usan los equipos (chargeback) también puede reducir o sufragar el gasto directo de TI.
Dados estos factores, la priorización se reduce a un simple concepto: ¿qué puede usted implementar con el presupuesto, personal, capacidades e infraestructura que tiene disponibles? Es posible que no tengamos el personal adecuado para diseñar e implantar un sistema de chargeback, o quizás no disponemos de los recursos financieros para una renovación profunda del centro de datos. Pero, al mismo tiempo, tampoco podemos tener miedo de tomar decisiones. Hay sistemas que costarán más a corto plazo pero, en realidad, pueden suponer un ahorro a lo largo del ciclo de la tecnología. Además, en muchas organizaciones de lo que se trata es tanto de trasladar los costos de TI como de reducirlos.

Cuando la renovación tecnológica no puede esperar

Las cosas se pueden poner feas cuando realmente hay necesidad de cambiar el hardware. Muchas organizaciones se encuentran con infraestructuras y equipos obsoletos para los que ya no pueden adquirir contratos de servicio. El mantenimiento por parte de terceros puede alargar la vida online del equipo pero esta no es la única opción a la hora de renovar la infraestructura tecnológica.

Arrendamiento financiero. Por ejemplo, las organizaciones pueden decantarse por un arrendamiento financiero (leasing) para mantener el costo de los sistemas en un nivel razonable, normalmente a lo largo de un ciclo de 36 meses. Dependiendo de qué tipos de equipos tengamos puede ser incluso más adecuado adquirir el hardware para un ciclo de arrendamiento de 48-50 meses. Prácticamente todos los fabricantes han llevado a cabo recientemente una renovación completa de sus líneas de producto, lo que hace de éste un periodo ideal para contratar un arrendamiento financiero a largo plazo. La mayor parte de estos sistemas están apenas iniciando sus ciclos de vida o llevan sólo un año o dos en funcionamiento; esto reduce considerablemente la probabilidad de que los costos de soporte se incrementen a lo largo de la vida del arrendamiento.

Financiamiento creativo. Cada vez hay más compañías de arrendamiento financiero que están dispuestas a ser un poco creativas y aceptan opciones de financiación a más de 36 meses, además de ofrecer descuentos para compras o combinaciones más grandes. Asimismo, hay una gran competencia entre proveedores y fabricantes, y casi todos ellos están dispuestos a ofrecer créditos competitivos de una forma u otra para la renovación. No tenga miedo a pedir información sobre esto o sobre las ofertas que podría haber disponibles en el momento en que usted se disponga a hacer la orden de compra. Si el proveedor sabe que usted está tratando de cuadra las cuentas para poder renovar el hardware, es posible que haga un esfuerzo para ayudarle a cubrir la brecha.

Exploración del mercado secundario. A algunos les puede sonar un poco macabro, pero lo cierto es con la crisis económica han entrado en el mercado de segunda mano muchos sistemas “como nuevos” debido a que las empresas se fueron a la quiebra o vendieron partes y sistemas que, o bien no necesitaban, o no podían mantener una vez que la crisis afectó a sus negocios. Estos sistemas casi nuevos ocupan un valioso espacio en los almacena de las compañías de leasing, y están deseando deshacerse de ellos. Estas máquinas que acumulan polvo en los almacenes no generan ingresos para nadie y muchas veces pueden obtenerse a una fracción del costo de una nueva, además de cualificar directamente para un contrato de servicio sin tener que pasar por una recertificación.

Demorar la renovación tecnológica

Algunas organizaciones no tienen la opción de comprar hardware nuevo; incluso puede ser una opción mala. Quizás no hay presupuesto, el departamento TI no encuentra apoyos en otras partes de la empresa, o cualquier otra razón. Pero incluso en estos casos en que la situación obliga a minimizar gastos y a aprovechar al máximo lo que tenemos, todavía nos quedan alternativas.

Sopesar la actualización del hardware existente. Aunque no podamos comprar directamente del fabricante original, hay muchos terceros que pueden suministrar componentes nuevos o recertificados para actualizar los sistemas. Para los negocios que han sufrido una caída de las ventas o de sus proyecciones anuales de ingresos, quizás hasta tenga más sentido esperar a que pase la tormenta y, sencillamente, actualizar el hardware existente sin gastar más recursos en una renovación completa.

Reflexionar sobre la virtualización y los servidores básicos. No es fácil planificar una renovación tecnológica. Para ello se requiere un conocimiento profundo del impacto que el plan de negocio de la empresa tiene sobre los requisitos de TI. Muchas organizaciones no lo tienen claro; saben dónde querrían estar —y dónde deberían estar— pero no tienen ni idea de cuándo ni a qué ritmo llegarán allí. Por ejemplo, para comprar la cantidad de energía adecuada es preciso saber cuánta energía se necesita. La incertidumbre sobre los objetivos y las necesidades de negocio pueden hacer que hasta la organización más frugal se exceda y gaste en nuevas tecnologías millones de pesos más de lo necesario. O que se apresure a comprar e implantar sistemas basados en cálculos para un periodo de declive y no pensando en los picos esperados a futuro.

Cuando se producen estos casos todavía nos quedan opciones para mejorar la utilización y exprimir el viejo hardware. Por ejemplo, hay operaciones de trabajo que pueden migrarse a servidores x86 de costo más bajo, lo que liberará otros recursos de computación más caros cuando sea necesario. El traslado o alternancia de cargas de trabajo puede resultar cada vez más importante a medida que aumentan los requisitos de las aplicaciones. Otra opción sencilla y económica es la virtualización de los servidores. La virtualización mejora la eficiencia porque aumenta el trabajo realizado por vatio de potencia y la cantidad de aplicaciones que operan en cada sistema. Los entornos Windows pueden aplicar la virtualización por medio de Hyper-V, Citrix o VMware, y todos los sistemas Unix actualmente en el mercado disponen de múltiples tecnologías de virtualización.

Tener la mente abierta

Normalmente existen numerosas posibilidades para introducir hardware nuevo en el centro de datos o exprimir un poco más del que ya existe. Y cuando estos recursos parezcan totalmente agotados, todavía quizás sea posible incorporar sistemas nuevos de forma escalonada y hacer que los arrendamientos financieros de todos ellos venzan al mismo tiempo —sí, al mismo tiempo—. Así, una opción consistiría en reemplazar el servidor ERP y actualizar su almacenamiento asociado durante este año y luego trasladarse a otros sistemas durante los próximos dos años, cambiando las cargas de trabajo según sea necesario. Si todos los arrendamientos vencen al mismo tiempo, tendremos la opción (dentro de varios años) de renovar los contratos, comprar nuevos equipos o de algo intermedio, según permita la situación.

Las mejores prácticas no siempre son realidad en los centros de datos


Una de las realidades de cualquier centro de datos, grande o pequeño, es que los equipos de cómputo cambian constantemente. El resultado es que incluso el centro de datos mejor planificado tiende a instalar equipos en cualquier rincón donde haya espacio, y esto causa problemas de refrigeración

La necesidad de mantener en funcionamiento los sistemas antiguos mientras se instalan los nuevos hace que sea absolutamente esencial actuar con criterio. Pocas veces se pueden parar por completo las operaciones para reorganizar el centro de datos a fin de optimizar la refrigeración. Si es usted capaz de dar una mirada objetiva a su centro de datos (evite decir “así es como se hicieron siempre las cosas”) es posible que encuentre que muchas de las recomendaciones que siguen a continuación le ayudan a mejorar significativamente la eficiencia de su sistema de refrigeración —sin que, en la mayoría de los casos, tenga que detener las operaciones. 

Instalaciones y TI
Como muchos otros colectivos de personas, los responsables de las TI y los encargados de las instalaciones suelen tener visiones distintas de las cosas.  Normalmente, cuando se inicia algún proyecto de refrigeración de los sistemas a quien se llama es al personal de mantenimiento de las salas. Su principal preocupación suelen ser los requisitos generales de refrigeración de la sala (en BTUs o toneladas de refrigeración) y la confiabilidad de los sistemas utilizados en el pasado. 

Dejan las racks al personal de TI y sólo les interesa suministrar la suficiente potencia de enfriamiento para combatir la carga total de calor, generalmente sin tomar en cuenta los diferentes niveles de densidad de cada estante.

La respuesta típica del personal de instalaciones suele ser añadir más CRACs como las ya instaladas (si hay espacio), lo que puede resolver el problema parcial, pero no de forma correcta. De todos modos, es necesario que entre ambas partes haya algún tipo de entendimiento mutuo sobre todas las cuestiones subyacentes para que puedan cooperar y extraer el máximo rendimiento a los sistemas de refrigeración, y aplicar la solución más eficiente al problema de la alta densidad de calor.

Soluciones sencillas y baratas para optimizar las instalaciones de refrigeración existentes
Está claro que el suelo elevado es el estándar actual y no va a desaparecer de la noche a la mañana. Existen varias técnicas que pueden implementarse para mejorar la eficiencia de refrigeración de los centros de datos con servidores de alta densidad.

Paneles de obturación: Es, por mucho, el artículo más simple, barato e incomprendido para mejorar la eficiencia de la refrigeración. Sólo con evitar que el aire caliente de la parte de atrás del rack no llegue al frente a través de espacios abiertos en el estante, ya se mejora la eficiencia energética. Véase el diagrama del flujo de aire en suelo elevado donde se muestra cómo los paneles de obturación mejoran la eficiencia (haga clic en la imagen para ver la versión ampliada).

Manejo del cableado: Si la parte posterior de los estantes está llena de cables, lo más probable es que el aire tenga dificultades para fluir y los servidores estén más calientes de lo necesario. Asegúrese de que el calor generado en la parte posterior de los servidores no queda bloqueado. El cableado escondido bajo el suelo causa el mismo problema. Muchos centros de datos de mayor tamaño reservan entre 30 cms y 60 cms de profundidad bajo el suelo sólo para que los cables afecten lo menos posible al flujo de aire. Los cables deberían estar alineados y atados firmemente para minimizar el impacto sobre el flujo de aire.

Baldosas y orificios de ventilación: El tamaño, la forma, la posición y la dirección de los orificios de ventilación en el suelo y la velocidad del paso del aire por las baldosas perforadas tienen un importante efecto sobre la cantidad de aire frío que llega donde es necesario. Para ello vendrá bien hacer una evaluación cuidadosa de la ubicación y la cantidad de aire en relación con los racks de mayor consumo eléctrico. Utilice diferentes baldosas, orificios de ventilación y rejillas para equiparar el flujo de aire con la carga de calor generada en el área.

Aperturas no deseadas: Los cables normalmente entran en los racks a través de  orificios abiertos en las losetas del suelo. Estas aperturas son una importante fuente de ineficiencia en la refrigeración porque desperdician el aire frío al permitir que vuelva al área posterior del estante, donde es absolutamente inútil. Además, disminuye la presión estática del aire en el suelo y reduce el flujo de aire frío que está disponible para las losas ventiladas de la parte frontal de los armarios. Toda apertura existente en las baldosas del suelo para dejar pasar cables debería estar rodeada de dispositivos de contención de aire –normalmente arandelas estilo “cepillo” que permiten pasar cables pero que cierran el paso al aire.

Contención del pasillo frío: Los sistemas de contención de los pasillos fríos son algo reciente. La mejor manera de describirlo es como una serie de paneles que se extienden por la parte elevada del pasillo frío desde el borde superior de los estantes. También puede instalarse con puertas laterales para una mejor contención del aire frío. Esto impide que el aire del pasillo caliente se mezcle con el aire frío, concentrando el frío en la parte frontal de los racks, que es donde tiene que quedarse.

Configuración de la temperatura: La “regla” siempre ha sido utilizar entre 20 y 21 grados centígrados como temperatura base para mantener la temperatura correcta en los centros de datos. En realidad, es posible aumentarla, con cuidado, unos pocos grados. La temperatura más importante debería medirse en el punto de entrada del servidor más alto en el rack más caluroso. Sin bien todos los fabricantes son distintos, la mayoría de los servidores operan bien cerca de los 24 grados oC en el punto de entrada, siempre que el flujo de aire sea el adecuado (contacte a su proveedor para comprobar cuál es el rango que considera aceptable).

Configuración de la humedad: Igual que es importante mantener la temperatura, la CRAC también mantiene la humedad. El nivel adecuado se suele fijar habitualmente en 50%, con un rango que oscila entre 40% y 60%. A fin de mantener la humedad, la mayoría de las CRACs usan una combinación, añadiendo humedad y/o “recalentando” el aire. Esto puede consumir mucha energía. Simplemente ampliando el rango de 25% a 75% se puede ahorrar una cantidad importante de electricidad (contacte con el proveedor de sus servidores para comprobar cuál es el rango que considera aceptable).

Sincronización de las CRACs: En muchas instalaciones, las CRACs individuales no están en comunicación con las otras CRACs. Cada unidad basa sus ajustes de temperatura y humedad en la temperatura y humedad captadas en el aire de retorno (cálido). Por tanto, es posible (incluso habitual) que una CRAC trate de refrigerar o humidificar el aire mientras que otra trabaja para deshumidificar o recalentar. Esto es fácil de saber si ocurre. En ese caso, pida a su contratista que añada un sistema maestro de control o que cambie los puntos de ajuste de las unidades para solucionar o mitigar el conflicto. En muchos casos, sólo se necesita una CRAC para controlar la humedad, mientras que las otras pueden fijar sus puntos de ajuste alto-bajo con un rango mucho mayor y actuar como unidades de respaldo para el caso de que falle la unidad principal. Resolver esto puede ahorrar mucha energía a lo largo del año y reducir el deterioro por uso de las CRACs. 

Encuesta térmica: La realización de una encuesta térmica puede arrojar resultados sorprendentes. Si se interpretan correctamente, pueden aportar importantes datos para mejorar la eficiencia si se aplica alguno o todos los criterios o métodos aquí descritos.

Ventiladores domésticos: No resuelven nada, aunque he visto muchos intentos vanos de utilizarlos para prevenir el sobrecalentamiento de los equipos.

Serpentines economizantes - "refrigeración gratis": La mayor parte de las instalaciones más antiguas y pequeñas usaban un único tipo de tecnología de refrigeración par sus CRACs. Normalmente consistía de un serpentín de refrigeración que se enfriaba mediante un compresor ubicado dentro de la unidad. No importaba si afuera hacia calor o frío; el compresor tenía que estar funcionando todo el año para refrigerar el centro de datos. Este sistema rudimentario mejoró significativamente cuando se añadió un segundo serpentín de refrigeración conectado a un serpentín externo por medio de conductos rellenos de agua y anticongelante. Cuando la temperatura exterior era baja (10 oC o menos), se lograba una “refrigeración gratuita” porque el compresor se usaba menos o podía dejar de utilizarse (por debajo de los 2 oC).

Este sencillo y eficaz sistema fue introducido hace muchos años, pero tuvo una implantación limitada debido al costo y los requisitos añadidos que suponía tener un segundo serpentín externo. En climas más fríos, esto puede generar un importante ahorro energético. Aunque normalmente no es posible instalarlo en los sistemas ya implantados, se recomienda hacerlo siempre que se vaya a efectuar una renovación o mejora del sistema de refrigeración. El uso del economizador se ha incrementado considerablemente los últimos años, y en algunos estados y ciudades es incluso obligatorio para las instalaciones nuevas. Fundamentalmente se emplea en regiones con clima más frío.

Ubicación y clima: Además de las cuestiones y tecnologías relacionadas con el centro de datos, la ubicación y el clima pueden tener un impacto significativo en la eficiencia energética.

Una de las realidades de cualquier centro de datos, grande o pequeño, es que los equipos de cómputo cambian constantemente. El resultado es que incluso el centro de datos mejor planificado tiende a instalar equipos en cualquier rincón donde haya espacio, y esto causa problemas de refrigeración. La necesidad de mantener en funcionamiento los sistemas antiguos mientras se instalan los nuevos hace que sea absolutamente esencial actuar con criterio. Pocas veces se pueden parar por completo las operaciones para reorganizar el centro de datos a fin de optimizar la refrigeración. Si es usted capaz de dar una mirada objetiva a su centro de datos (evite decir “así es como se hicieron siempre las cosas”) es posible que encuentre que muchas de las recomendaciones que siguen a continuación le ayudan a mejorar significativamente la eficiencia de su sistema de refrigeración —sin que, en la mayoría de los casos, tenga que detener las operaciones. 

Instalaciones y TI
Como muchos otros colectivos de personas, los responsables de las TI y los encargados de las instalaciones suelen tener visiones distintas de las cosas.  Normalmente, cuando se inicia algún proyecto de refrigeración de los sistemas a quien se llama es al personal de mantenimiento de las salas. Su principal preocupación suelen ser los requisitos generales de refrigeración de la sala (en BTUs o toneladas de refrigeración) y la confiabilidad de los sistemas utilizados en el pasado. Dejan las racks al personal de TI y sólo les interesa suministrar la suficiente potencia de enfriamiento para combatir la carga total de calor, generalmente sin tomar en cuenta los diferentes niveles de densidad de cada estante.

La respuesta típica del personal de instalaciones suele ser añadir más CRACs como las ya instaladas (si hay espacio), lo que puede resolver el problema parcial, pero no de forma correcta. De todos modos, es necesario que entre ambas partes haya algún tipo de entendimiento mutuo sobre todas las cuestiones subyacentes para que puedan cooperar y extraer el máximo rendimiento a los sistemas de refrigeración, y aplicar la solución más eficiente al problema de la alta densidad de calor.

Soluciones sencillas y baratas para optimizar las instalaciones de refrigeración existentes
Está claro que el suelo elevado es el estándar actual y no va a desaparecer de la noche a la mañana. Existen varias técnicas que pueden implementarse para mejorar la eficiencia de refrigeración de los centros de datos con servidores de alta densidad.

Paneles de obturación: Es, por mucho, el artículo más simple, barato e incomprendido para mejorar la eficiencia de la refrigeración. Sólo con evitar que el aire caliente de la parte de atrás del rack no llegue al frente a través de espacios abiertos en el estante, ya se mejora la eficiencia energética. Véase el diagrama del flujo de aire en suelo elevado donde se muestra cómo los paneles de obturación mejoran la eficiencia (haga clic en la imagen para ver la versión ampliada).

Manejo del cableado: Si la parte posterior de los estantes está llena de cables, lo más probable es que el aire tenga dificultades para fluir y los servidores estén más calientes de lo necesario. Asegúrese de que el calor generado en la parte posterior de los servidores no queda bloqueado. El cableado escondido bajo el suelo causa el mismo problema. Muchos centros de datos de mayor tamaño reservan entre 30 cms y 60 cms de profundidad bajo el suelo sólo para que los cables afecten lo menos posible al flujo de aire. Los cables deberían estar alineados y atados firmemente para minimizar el impacto sobre el flujo de aire.

Baldosas y orificios de ventilación: El tamaño, la forma, la posición y la dirección de los orificios de ventilación en el suelo y la velocidad del paso del aire por las baldosas perforadas tienen un importante efecto sobre la cantidad de aire frío que llega donde es necesario. Para ello vendrá bien hacer una evaluación cuidadosa de la ubicación y la cantidad de aire en relación con los racks de mayor consumo eléctrico. Utilice diferentes baldosas, orificios de ventilación y rejillas para equiparar el flujo de aire con la carga de calor generada en el área.

Aperturas no deseadas: Los cables normalmente entran en los racks a través de  orificios abiertos en las losetas del suelo. Estas aperturas son una importante fuente de ineficiencia en la refrigeración porque desperdician el aire frío al permitir que vuelva al área posterior del estante, donde es absolutamente inútil. Además, disminuye la presión estática del aire en el suelo y reduce el flujo de aire frío que está disponible para las losas ventiladas de la parte frontal de los armarios. Toda apertura existente en las baldosas del suelo para dejar pasar cables debería estar rodeada de dispositivos de contención de aire –normalmente arandelas estilo “cepillo” que permiten pasar cables pero que cierran el paso al aire.

Contención del pasillo frío: Los sistemas de contención de los pasillos fríos son algo reciente. La mejor manera de describirlo es como una serie de paneles que se extienden por la parte elevada del pasillo frío desde el borde superior de los estantes. También puede instalarse con puertas laterales para una mejor contención del aire frío. Esto impide que el aire del pasillo caliente se mezcle con el aire frío, concentrando el frío en la parte frontal de los racks, que es donde tiene que quedarse.

Configuración de la temperatura: La “regla” siempre ha sido utilizar entre 20 y 21 grados centígrados como temperatura base para mantener la temperatura correcta en los centros de datos. En realidad, es posible aumentarla, con cuidado, unos pocos grados. La temperatura más importante debería medirse en el punto de entrada del servidor más alto en el rack más caluroso. Sin bien todos los fabricantes son distintos, la mayoría de los servidores operan bien cerca de los 24 grados oC en el punto de entrada, siempre que el flujo de aire sea el adecuado (contacte a su proveedor para comprobar cuál es el rango que considera aceptable).

Configuración de la humedad: Igual que es importante mantener la temperatura, la CRAC también mantiene la humedad. El nivel adecuado se suele fijar habitualmente en 50%, con un rango que oscila entre 40% y 60%. A fin de mantener la humedad, la mayoría de las CRACs usan una combinación, añadiendo humedad y/o “recalentando” el aire. Esto puede consumir mucha energía. Simplemente ampliando el rango de 25% a 75% se puede ahorrar una cantidad importante de electricidad (contacte con el proveedor de sus servidores para comprobar cuál es el rango que considera aceptable).

Sincronización de las CRACs: En muchas instalaciones, las CRACs individuales no están en comunicación con las otras CRACs. Cada unidad basa sus ajustes de temperatura y humedad en la temperatura y humedad captadas en el aire de retorno (cálido). Por tanto, es posible (incluso habitual) que una CRAC trate de refrigerar o humidificar el aire mientras que otra trabaja para deshumidificar o recalentar. Esto es fácil de saber si ocurre. En ese caso, pida a su contratista que añada un sistema maestro de control o que cambie los puntos de ajuste de las unidades para solucionar o mitigar el conflicto. En muchos casos, sólo se necesita una CRAC para controlar la humedad, mientras que las otras pueden fijar sus puntos de ajuste alto-bajo con un rango mucho mayor y actuar como unidades de respaldo para el caso de que falle la unidad principal. Resolver esto puede ahorrar mucha energía a lo largo del año y reducir el deterioro por uso de las CRACs. 

Encuesta térmica: La realización de una encuesta térmica puede arrojar resultados sorprendentes. Si se interpretan correctamente, pueden aportar importantes datos para mejorar la eficiencia si se aplica alguno o todos los criterios o métodos aquí descritos.

Ventiladores domésticos: No resuelven nada, aunque he visto muchos intentos vanos de utilizarlos para prevenir el sobrecalentamiento de los equipos.

Serpentines economizantes - "refrigeración gratis": La mayor parte de las instalaciones más antiguas y pequeñas usaban un único tipo de tecnología de refrigeración par sus CRACs. Normalmente consistía de un serpentín de refrigeración que se enfriaba mediante un compresor ubicado dentro de la unidad. No importaba si afuera hacia calor o frío; el compresor tenía que estar funcionando todo el año para refrigerar el centro de datos. Este sistema rudimentario mejoró significativamente cuando se añadió un segundo serpentín de refrigeración conectado a un serpentín externo por medio de conductos rellenos de agua y anticongelante. Cuando la temperatura exterior era baja (10 oC o menos), se lograba una “refrigeración gratuita” porque el compresor se usaba menos o podía dejar de utilizarse (por debajo de los 2 oC).

Este sencillo y eficaz sistema fue introducido hace muchos años, pero tuvo una implantación limitada debido al costo y los requisitos añadidos que suponía tener un segundo serpentín externo. En climas más fríos, esto puede generar un importante ahorro energético. Aunque normalmente no es posible instalarlo en los sistemas ya implantados, se recomienda hacerlo siempre que se vaya a efectuar una renovación o mejora del sistema de refrigeración. El uso del economizador se ha incrementado considerablemente los últimos años, y en algunos estados y ciudades es incluso obligatorio para las instalaciones nuevas. Fundamentalmente se emplea en regiones con clima más frío.

Ubicación y clima: Además de las cuestiones y tecnologías relacionadas con el centro de datos, la ubicación y el clima pueden tener un impacto significativo en la eficiencia energética.

Los grandes centros de datos Tier IV modernos y dedicados, con potencias de múltiples megavatios, están diseñados para ser eficientes desde el punto de vista energético. Normalmente, usan grandes sistemas de agua helada y funciones de economizador incorporadas dentro del sistema de enfriado. Esto permite apagar los compresores durante los meses de invierno y aprovechar solo la baja temperatura exterior para suministrar agua helada a las CRACs internas. De hecho, Google construyó un gigantesco centro de datos en Oregón porque la temperatura media es baja, hay agua en abundancia y la energía es barata.

Pero no todo el mundo opera en las altas esferas Tier IV. Las decenas de miles de centros de datos pequeños y medianos instalados en rascacielos y parques de oficinas quizás no tengan esta opción. Normalmente tienen que adaptarse a los sistemas de refrigeración de los propios edificios (o a la falta de los mismos). Por tanto, en estas instalaciones, el centro de datos está limitado en su (in)capacidad para usar refrigeración de alta densidad de manera eficiente. De hecho, algunos edificios no usan ni ofrecen agua para los condensadores durante el invierno y algunos, nunca.

A menudo, cuando se diseña la planta de las oficinas, el centro de datos es relegado al espacio que nadie quiere. A veces, el departamento de TI no tiene voz ni voto en la decisión. El resultado es que el tamaño y la forma del centro de datos puede no ser el ideal para la instalación de los racks y los sistemas de refrigeración. Cuando su organización estudie mudar las oficinas a otro espacio, además de cómo luce el vestíbulo, debería tener en consideración la capacidad del nuevo edificio para satisfacer las necesidades del centro de datos

En resumen
No existe ninguna respuesta perfecta para el reto de la refrigeración y la eficiencia energética. No obstante, un examen cuidadoso de las condiciones existentes y de las soluciones y técnicas de optimización posibles pueden llevar a mejorar sensiblemente el funcionamiento del sistema de refrigeración de nuestro centro de datos. Algunas de los soluciones no cuestan nada, mientras que otras tienen un costo nominal, pero todas ellas tendrán un efecto positivo. Tanto si dispone usted de 50 como de 500 metros cuadrados, si hacen las cosas bien, la eficiencia energética de su centro de datos mejorará. También aumentará el tiempo de actividad (uptime) porque los equipos estarán mejor refrigerados y los sistemas de enfriamiento no tendrán que trabajar con tanto esfuerzo. No se haga “verde” sólo porque está de moda. En este caso es necesario hacerlo para responder al desafío de la refrigeración de alta densidad y reducir el costo energético.


ACERCA DEL AUTOR: Julius Neudorfer es director tecnológico de NAAT desde su creación, en 1987, además de ser uno de sus principales fundadores. Ha diseñado y gestionado proyectos de comunicaciones y sistemas de información para clientes comerciales y gubernamentales.

No hay comentarios: