Tomado de: ARTICULO ORIGINAL
Los centros de procesamiento de datos están en todos lados. Son la
base de las transacciones financieras, comerciales o de transmisión de
multimedia con fines informativos, de entretenimiento o productividad.
Las nuevas tendencias como BYOD, virtualización y cómputo de nube
requieren de infraestructura de telecomunicaciones que apalanque estas
tecnologías, y ahí es donde los centros de datos cobran relevancia.
La prueba de esta importancia se refleja en los resultados de la más reciente encuesta de prioridades de TI realizada
por TechTarget, en donde la mitad de respondientes de América Latina
comentó que este año estarán trabajando en la consolidación de la
infraestructura del centro de datos, mientras que una cuarta parte se
enfocará en unir la infraestructura de las redes de almacenamiento con
su centro de datos. Esto tiene una razón, y es que al menos una quinta
parte (20.8%) ocupa la mayor parte de su tiempo gestionando las
operaciones de estos centros.
Dada la relevancia de este tema,
los días 22 y 23 de mayo se realizará el 8º Congreso Internacional de
Infraestructura TI y Expo DataCenter, en la Ciudad de México. El
congreso y la expo, organizados por ICREA, tienen por objetivo ofrecer
información relevante sobre implementación, mantenimiento y mejores
prácticas para centros de datos.
En el marco del congreso se
presentará la versión 2013 de la Norma Internacional para la
construcción de centros de procesamiento de datos (ICREA-Std-131-2013),
que es un conjunto de recomendaciones y mejores prácticas
acordadas entre varios países y un grupo de expertos en centros de
procesamiento de datos (CPD). Dicha normativa define la forma de
construir un Centro de Datos de acuerdo con los niveles de confiabilidad
y seguridad deseados.
La nueva versión, realizada en conjunto
entre México y 25 países de América Latina, abarca aspectos generales,
instalaciones eléctricas, aire acondicionado, comunicaciones, ambiente
(piso elevado, acabados, obra civil), seguridad (CCTV, control de
acceso, detección y supresión de incendios) y anexos para la
certificación de CPD.
Una normativa en evolución
De
acuerdo con Eduardo Rocha, presidente del International Computer Room
Experts Association (ICREA), la norma se ha convertido en el referente
para la construcción de Centros de Datos con altos niveles de seguridad y
eficiencia: "Todos los cambios que se han aplicado a la norma están
marcados y tienen textos subrayados. Esta versión del documento tuvo un
nivel de revisión muy profundo".
Explicó que, debido a la necesidad de documentar las mejores prácticas para centros de datos,
en 2003 se liberó la primera versión en México, la cual tuvo una
revisión en 2007. Fue hasta 2009 que se generó la primera versión
internacional, la cual fue revisada en 2011 con la colaboración de 12
países de América Latina.
Este año participaron 25 países de la
región, además de que se contó con los comentarios de expertos
españoles, quienes aportaron valiosos conocimientos para homogeneizar
criterios entre la filosofía europea y la americana, buscando una mayor
compatibilidad con los modelos ISO. Cabe resaltar que esta será la
primera versión que también se publicará en inglés.
Entre los cambios significativos para la versión 2013 se incluye el enfriamiento sin costo
(es decir, el que aprovecha un clima externo frío para mantener el
centro de datos a temperatura adecuada sin gastar energía), así como una
mayor claridad en los criterios de optimización de instalaciones por
medio del Power Usage Effectiveness (PUE).
“Los grandes centros
de datos que han implementado sistemas adecuados de energía han reducido
su puntaje PUE a menos de 2”, expresó Rocha. Añadió que el cociente
óptimo del PUE sería de 1, pero la relación suele ser de 2 a 1. Sin
embargo, la mayoría de los centros de datos se encuentra más arriba, con
promedios de 2.4 o 2.6 puntos.
Alianza pro centros de datos en América Latina
Otro
de los anuncios que se darán a conocer en el marco del evento es la
firma de un convenio entre el ICREA y DataCenter Dynamics (DCD). Ambas
organizaciones han acordado una serie de compromisos para atender el
mercado Iberoamericano de infraestructura de centros de datos.
ICREA
espera aprovechar la plataforma de marketing de DCD para ampliar su
convocatoria. Este año esperan al menos 400 asistentes de México, España
y América Latina, principalmente. Además, en adelante ICREA participará
de manera conjunta en los eventos que DCD realiza en Latinoamérica.
El
valor que aporta la asociación es el contenido. Este año, por ejemplo,
se impartirán cursos de capacitación para 23 certificaciones distintas
relacionadas con la gestión de centros de datos durante el congreso en
la Ciudad de México.
Entre los temas relevantes que se abordarán en el evento se incluyen:
- ROI y métricas de medición de la inversión contra las necesidades reales de disponibilidad de los clientes
- Uso
de baterías y mejores prácticas de desecho y aprovechamiento de la vida
útil, con beneficios tangibles económicos y ecológicos
- Esquemas de respaldo y redundancia, así como protección física (sistemas anti-bala, controles de acceso, videovigilancia, etc.)
- Cómo revertir la tendencia de consumo energético de los centros de datos
“Hacia
donde uno voltee hay centros de cómputo”, comentó Rocha. “Las
transacciones en centros comerciales, operaciones financieras, servicios
de comunicación, transmisión y entrega de correos electrónicos, toda
nuestra vida se sustenta en los centros de datos. No es de sorprender
entonces que la instalación de estas arquitecturas vaya en aumento y que
actualmente consuman 2% de la energía a nivel mundial”, dijo.
International
Computer Room Experts Association es una Asociación Internacional que
norma y certifica especialistas, ambientes y productos de
Infraestructura TIC. Fundada en 1999 en la Ciudad de México, actualmente
tiene presencia en 21 países y cuenta con más de 2m000 socios. http://www.icrea-international.org
¿Llegó la hora de renovar el centro de datos?
El
hardware del centro de datos envejece con el tiempo y llegará un momento en que habrá que
reemplazarlo, pero la decisión de cambiar el hardware usado se ha ido complicando en los últimos
años. En teoría, es realmente una ecuación bien simple: si el hardware tiene más de N años, es hora
de reemplazarlo. Pero dado el estado del negocio y las finanzas en la mayoría de las
organizaciones, muchas han decidido poner fin al tradicional ciclo de cambio de hardware cada 3-4
años debido a las restricciones presupuestarias. Sin embargo, si es necesario suspender esa
renovación, quizás eso le permita seguir pagando por el mantenimiento y ahorrarse las grandes
inversiones de capital que supone comprar maquinaria nueva.
Como sea, es imposible seguir con el mismo hardware indefinidamente. Seguir “como estamos” en
medio de un entorno de evolución y cambio tecnológico no es una opción realista. Las nuevas
aplicaciones exigen un rendimiento y unas prestaciones que casi siempre sólo se encuentran en los
sistemas de última generación. De igual manera, la rápida adopción de tecnologías como la
virtualización de servidores hace que cada vez sea más difícil ajustarse a las tácticas
tradicionales de abastecimiento de hardware (por ejemplo, “una aplicación, una máquina”),
especialmente si, además, estamos obligados a reducir costos.
Evaluación de la necesidad de renovación tecnológica
Desde una perspectiva
práctica, todos los administradores se encontrarán entre la espada y la pared en lo que
respecta a tres cuestiones: aumento de la actividad y los requisitos de negocio (más computación),
presiones para reducir el gasto en TI (presupuestos más bajos), y exigencia de una mayor rapidez y
eficiencia en el servicio. Siempre existe la tentación de priorizar
la reducción de costos, normalmente con la presión de la alta gerencia. Sin embargo, una de las
consecuencias de mejorar la eficiencia suele ser la reducción de los costos.
Por tanto, estamos ante el clásico esfuerzo permanente por hacer inversiones
estratégicas —como la renovación tecnológica— que, además, generen ahorros para las
organizaciones. La implementación de un sistema que permita repercutir los costos a las unidades
que realmente usan los equipos (chargeback)
también puede reducir o sufragar el gasto directo de TI.
Dados estos factores, la priorización se reduce a un simple concepto: ¿qué puede usted
implementar con el presupuesto, personal, capacidades e infraestructura que tiene disponibles? Es
posible que no tengamos el personal adecuado para diseñar e implantar
un sistema de chargeback, o quizás no disponemos de los recursos financieros para una
renovación profunda del centro de datos. Pero, al mismo tiempo, tampoco podemos tener miedo de
tomar decisiones. Hay sistemas que costarán más a corto plazo pero, en realidad, pueden suponer un
ahorro a lo largo del ciclo de la tecnología. Además, en muchas organizaciones de lo que se trata
es tanto de trasladar los costos de TI como de reducirlos.
Cuando la renovación tecnológica no puede esperar
Las cosas se pueden poner feas cuando realmente hay necesidad de cambiar el hardware. Muchas
organizaciones se encuentran con infraestructuras y equipos obsoletos para los que ya no pueden
adquirir contratos de servicio. El mantenimiento
por parte de terceros puede alargar la vida online del equipo pero esta no es la única
opción a la hora de renovar la infraestructura tecnológica.
Arrendamiento financiero. Por ejemplo, las organizaciones pueden decantarse por un
arrendamiento financiero (leasing) para mantener el costo de los sistemas en un nivel
razonable, normalmente a lo largo de un ciclo de 36 meses. Dependiendo de qué tipos de equipos
tengamos puede ser incluso más adecuado adquirir el hardware para un ciclo de arrendamiento de
48-50 meses. Prácticamente todos los fabricantes han llevado a cabo recientemente una renovación
completa de sus líneas de producto, lo que hace de éste un periodo ideal para contratar un
arrendamiento financiero a largo plazo. La mayor parte de estos sistemas están apenas iniciando sus
ciclos de vida o llevan sólo un año o dos en funcionamiento; esto reduce considerablemente la
probabilidad de que los costos de soporte se incrementen a lo largo de la vida del
arrendamiento.
Financiamiento creativo. Cada vez hay más compañías de arrendamiento financiero que están
dispuestas a ser un poco creativas y aceptan opciones de financiación a más de 36 meses, además de
ofrecer descuentos para compras o combinaciones más grandes. Asimismo, hay una gran competencia
entre proveedores y fabricantes, y casi todos ellos están dispuestos a ofrecer créditos
competitivos de una forma u otra para la renovación. No tenga miedo a pedir información sobre esto
o sobre las ofertas que podría haber disponibles en el momento en que usted se disponga a hacer la
orden de compra. Si el proveedor sabe que usted está tratando de cuadra las cuentas para poder
renovar el hardware, es posible que haga un esfuerzo para ayudarle a cubrir la brecha.
Exploración del mercado secundario. A algunos les puede sonar un poco macabro, pero lo
cierto es con la crisis económica han entrado en el mercado de segunda mano muchos sistemas “como
nuevos” debido a que las empresas se fueron a la quiebra o vendieron partes y sistemas que, o bien
no necesitaban, o no podían mantener una vez que la crisis afectó a sus negocios. Estos sistemas
casi nuevos ocupan un valioso espacio en los almacena de las compañías de leasing, y están
deseando deshacerse de ellos. Estas máquinas que acumulan polvo en los almacenes no generan
ingresos para nadie y muchas veces pueden obtenerse a una fracción del costo de una nueva, además
de cualificar directamente para un contrato de servicio sin tener que pasar por una
recertificación.
Demorar la renovación tecnológica
Algunas organizaciones no tienen la opción de comprar
hardware nuevo; incluso puede ser una opción mala. Quizás no hay presupuesto, el departamento TI no
encuentra apoyos en otras partes de la empresa, o cualquier otra razón. Pero incluso en estos casos
en que la situación obliga a minimizar gastos y a aprovechar al máximo lo que tenemos, todavía nos
quedan alternativas.
Sopesar la actualización del hardware existente. Aunque no podamos comprar directamente
del fabricante original, hay muchos terceros que pueden suministrar componentes nuevos o
recertificados para actualizar los sistemas. Para los negocios que han sufrido una caída de las
ventas o de sus proyecciones anuales de ingresos, quizás hasta tenga más sentido esperar a que pase
la tormenta y, sencillamente, actualizar el hardware existente sin gastar más recursos en una
renovación completa.
Reflexionar sobre la virtualización y los servidores básicos. No es fácil planificar una
renovación tecnológica. Para ello se requiere un conocimiento profundo del impacto que el plan de
negocio de la empresa tiene sobre los requisitos de TI. Muchas organizaciones no lo tienen claro;
saben dónde querrían estar —y dónde deberían estar— pero no tienen ni idea de cuándo ni a qué ritmo
llegarán allí. Por ejemplo, para comprar la cantidad de energía adecuada es preciso saber cuánta
energía se necesita. La incertidumbre sobre los objetivos y las necesidades de negocio pueden hacer
que hasta la organización más frugal se exceda y gaste en nuevas tecnologías millones de pesos más
de lo necesario. O que se apresure a comprar e implantar sistemas basados en cálculos para un
periodo de declive y no pensando en los picos esperados a futuro.
Cuando se producen estos casos todavía nos quedan opciones para mejorar la utilización y
exprimir el viejo hardware. Por ejemplo, hay operaciones de trabajo que pueden migrarse a
servidores x86 de costo más bajo, lo que liberará otros recursos de computación más caros cuando
sea necesario. El traslado o alternancia de cargas de trabajo puede resultar cada vez más
importante a medida que aumentan los requisitos de las aplicaciones. Otra opción sencilla y
económica es la virtualización
de los servidores. La virtualización mejora la eficiencia porque aumenta el trabajo realizado
por vatio de potencia y la cantidad de aplicaciones que operan en cada sistema. Los entornos
Windows pueden aplicar la virtualización por medio de Hyper-V, Citrix o VMware, y todos los
sistemas Unix actualmente en el mercado disponen de múltiples tecnologías de virtualización.
Tener la mente abierta
Normalmente existen numerosas posibilidades para introducir hardware nuevo en el centro de datos
o exprimir un poco más del que ya existe. Y cuando estos recursos parezcan totalmente agotados,
todavía quizás sea posible incorporar sistemas nuevos de forma escalonada y hacer que los
arrendamientos financieros de todos ellos venzan al mismo tiempo —sí, al mismo tiempo—. Así, una
opción consistiría en reemplazar el servidor ERP y actualizar su almacenamiento asociado durante
este año y luego trasladarse a otros sistemas durante los próximos dos años, cambiando las cargas
de trabajo según sea necesario. Si todos los arrendamientos vencen al mismo tiempo, tendremos la
opción (dentro de varios años) de renovar los contratos, comprar nuevos equipos o de algo
intermedio, según permita la situación.
Las mejores prácticas no siempre son realidad en los centros de datos
Una
de las realidades de cualquier centro de datos, grande o pequeño, es que los equipos de cómputo
cambian constantemente. El resultado es que incluso el centro de datos mejor planificado tiende a
instalar equipos en cualquier rincón donde haya espacio, y esto causa problemas
de refrigeración.
La necesidad de mantener en funcionamiento los sistemas antiguos mientras se
instalan los nuevos hace que sea absolutamente esencial actuar con criterio. Pocas veces se pueden
parar por completo las operaciones para reorganizar el centro de datos a fin de optimizar la
refrigeración. Si es usted capaz de dar una mirada objetiva a su centro de datos (evite decir “así
es como se hicieron siempre las cosas”) es posible que encuentre que muchas de las recomendaciones
que siguen a continuación le ayudan a mejorar significativamente la eficiencia de su sistema de
refrigeración —sin que, en la mayoría de los casos, tenga que detener las operaciones.
Instalaciones y TI
Como muchos otros colectivos de personas, los responsables de las TI y los encargados de las instalaciones
suelen tener visiones distintas de las cosas. Normalmente, cuando se inicia algún
proyecto de refrigeración de los sistemas a quien se llama es al personal de mantenimiento de las
salas. Su principal preocupación suelen ser los requisitos generales de refrigeración de la sala
(en BTUs o toneladas de refrigeración) y la confiabilidad de los sistemas utilizados en el pasado.
Dejan las racks al personal de TI y sólo les interesa suministrar la suficiente potencia de
enfriamiento para combatir la carga total de calor, generalmente sin tomar en cuenta los diferentes
niveles de densidad de cada estante.
La respuesta típica del personal de instalaciones suele ser añadir más CRACs como las ya
instaladas (si hay espacio), lo que puede resolver el problema parcial, pero no de forma correcta.
De todos modos, es necesario que entre ambas partes haya algún tipo de entendimiento mutuo sobre
todas las cuestiones subyacentes para que puedan cooperar y extraer el máximo rendimiento a los
sistemas de refrigeración, y aplicar la solución más eficiente al problema de la alta densidad de
calor.
Soluciones sencillas y baratas para optimizar las instalaciones de refrigeración
existentes
Está claro que el suelo elevado es el estándar actual y no va a desaparecer de la noche a la
mañana. Existen varias técnicas que pueden implementarse para mejorar la eficiencia de
refrigeración de los centros de datos con servidores de alta densidad.
Paneles de obturación: Es, por mucho, el artículo más simple, barato e
incomprendido para mejorar la eficiencia de la refrigeración. Sólo con evitar que el aire caliente
de la parte de atrás del rack no llegue al frente a través de espacios abiertos en el estante, ya
se mejora la eficiencia energética. Véase el diagrama del flujo de aire en suelo elevado donde se
muestra cómo los paneles de obturación mejoran la eficiencia (haga clic en la imagen para ver la
versión ampliada).
Manejo del cableado: Si la parte posterior de los estantes está llena de cables,
lo más probable es que el aire tenga dificultades para fluir y los servidores estén más calientes
de lo necesario. Asegúrese de que el calor generado en la parte posterior de los servidores no
queda bloqueado. El cableado escondido bajo el suelo causa el mismo problema. Muchos centros de
datos de mayor tamaño reservan entre 30 cms y 60 cms de profundidad bajo el suelo sólo para que los
cables afecten lo menos posible al flujo de aire. Los cables deberían estar alineados y atados
firmemente para minimizar el impacto sobre el flujo de aire.
Baldosas y orificios de ventilación: El tamaño, la forma, la posición y la
dirección de los orificios de ventilación en el suelo y la velocidad del paso del aire por las
baldosas perforadas tienen un importante efecto sobre la cantidad de aire frío que llega donde es
necesario. Para ello vendrá bien hacer una evaluación
cuidadosa de la ubicación y la cantidad de aire en relación con los racks de mayor consumo
eléctrico. Utilice diferentes baldosas, orificios de ventilación y rejillas para equiparar el flujo
de aire con la carga de calor generada en el área.
Aperturas no deseadas: Los cables normalmente entran en los
racks a través de orificios abiertos en las losetas del suelo. Estas aperturas son una
importante fuente de ineficiencia en la refrigeración porque desperdician el aire frío al permitir
que vuelva al área posterior del estante, donde es absolutamente inútil. Además, disminuye la
presión estática del aire en el suelo y reduce el flujo de aire frío que está disponible para las
losas ventiladas de la parte frontal de los armarios. Toda apertura existente en las baldosas del
suelo para dejar pasar cables debería estar rodeada de dispositivos de contención de aire
–normalmente arandelas estilo “cepillo” que permiten pasar cables pero que cierran el paso al
aire.
Contención del pasillo frío: Los sistemas de contención de los pasillos fríos son
algo reciente. La mejor manera de describirlo es como una serie de paneles que se extienden por la
parte elevada del pasillo frío desde el borde superior de los estantes. También puede instalarse
con puertas laterales para una mejor contención del aire frío. Esto impide que el aire del pasillo
caliente se mezcle con el aire frío, concentrando el frío en la parte frontal de los racks, que es
donde tiene que quedarse.
Configuración de la temperatura: La “regla” siempre ha sido utilizar entre 20 y 21
grados centígrados como temperatura base para mantener la temperatura correcta en los centros de
datos. En realidad, es posible aumentarla, con cuidado, unos pocos grados. La temperatura más
importante debería medirse en el punto de entrada del servidor más alto en el rack más caluroso.
Sin bien todos los fabricantes son distintos, la mayoría de los servidores operan bien cerca de los
24 grados oC en el punto de entrada, siempre que el flujo de aire sea el adecuado
(contacte a su proveedor para comprobar cuál es el rango que considera aceptable).
Configuración de la humedad: Igual que es importante mantener la temperatura, la
CRAC también mantiene la humedad. El nivel adecuado se suele fijar habitualmente en 50%, con un
rango que oscila entre 40% y 60%. A fin de mantener la humedad, la mayoría de las CRACs usan una
combinación, añadiendo humedad y/o “recalentando” el aire. Esto puede consumir mucha energía.
Simplemente ampliando el rango de 25% a 75% se puede ahorrar una cantidad importante de
electricidad (contacte con el proveedor de sus servidores para comprobar cuál es el rango que
considera aceptable).
Sincronización de las CRACs: En muchas instalaciones, las CRACs individuales no
están en comunicación con las otras CRACs. Cada unidad basa sus ajustes de temperatura y humedad en
la temperatura y humedad captadas en el aire de retorno (cálido). Por tanto, es posible (incluso
habitual) que una CRAC trate de refrigerar o humidificar el aire mientras que otra trabaja para
deshumidificar o recalentar. Esto es fácil de saber si ocurre. En ese caso, pida a su contratista
que añada un sistema maestro de control o que cambie los puntos de ajuste de las unidades para
solucionar o mitigar el conflicto. En muchos casos, sólo se necesita una CRAC para controlar la
humedad, mientras que las otras pueden fijar sus puntos de ajuste alto-bajo con un rango mucho
mayor y actuar como unidades de respaldo para el caso de que falle la unidad principal. Resolver
esto puede ahorrar mucha energía a lo largo del año y reducir el deterioro por uso de las
CRACs.
Encuesta térmica: La realización de una encuesta térmica puede arrojar resultados
sorprendentes. Si se interpretan correctamente, pueden aportar importantes datos para mejorar la
eficiencia si se aplica alguno o todos los criterios o métodos aquí descritos.
Ventiladores domésticos: No resuelven nada, aunque he visto muchos intentos vanos
de utilizarlos para prevenir el sobrecalentamiento de los equipos.
Serpentines economizantes - "refrigeración gratis": La mayor parte de las
instalaciones más antiguas y pequeñas usaban un único tipo de tecnología de refrigeración par sus
CRACs. Normalmente consistía de un serpentín de refrigeración que se enfriaba mediante un compresor
ubicado dentro de la unidad. No importaba si afuera hacia calor o frío; el compresor tenía que
estar funcionando todo el año para refrigerar el centro de datos. Este sistema rudimentario mejoró
significativamente cuando se añadió un segundo serpentín de refrigeración conectado a un serpentín
externo por medio de conductos rellenos de agua y anticongelante. Cuando la temperatura exterior
era baja (10 oC o menos), se lograba una “refrigeración gratuita” porque el compresor se
usaba menos o podía dejar de utilizarse (por debajo de los 2 oC).
Este sencillo y eficaz sistema fue introducido hace muchos años, pero tuvo una implantación
limitada debido al costo y los requisitos añadidos que suponía tener un segundo serpentín externo.
En climas más fríos, esto puede generar un importante ahorro energético. Aunque normalmente no es
posible instalarlo en los sistemas ya implantados, se recomienda hacerlo siempre que se vaya a
efectuar una renovación o mejora del sistema de refrigeración. El uso del economizador se ha
incrementado considerablemente los últimos años, y en algunos estados y ciudades es incluso
obligatorio para las instalaciones nuevas. Fundamentalmente se emplea en regiones con clima más
frío.
Ubicación y clima: Además de las cuestiones y tecnologías relacionadas con el
centro de datos, la ubicación y el clima pueden tener un impacto significativo en la eficiencia
energética.
Una
de las realidades de cualquier centro de datos, grande o pequeño, es que los equipos de cómputo
cambian constantemente. El resultado es que incluso el centro de datos mejor planificado tiende a
instalar equipos en cualquier rincón donde haya espacio, y esto causa problemas
de refrigeración. La necesidad de mantener en funcionamiento los sistemas antiguos mientras se
instalan los nuevos hace que sea absolutamente esencial actuar con criterio. Pocas veces se pueden
parar por completo las operaciones para reorganizar el centro de datos a fin de optimizar la
refrigeración. Si es usted capaz de dar una mirada objetiva a su centro de datos (evite decir “así
es como se hicieron siempre las cosas”) es posible que encuentre que muchas de las recomendaciones
que siguen a continuación le ayudan a mejorar significativamente la eficiencia de su sistema de
refrigeración —sin que, en la mayoría de los casos, tenga que detener las operaciones.
Instalaciones y TI
Como muchos otros colectivos de personas, los responsables de las TI y los encargados de las instalaciones
suelen tener visiones distintas de las cosas. Normalmente, cuando se inicia algún
proyecto de refrigeración de los sistemas a quien se llama es al personal de mantenimiento de las
salas. Su principal preocupación suelen ser los requisitos generales de refrigeración de la sala
(en BTUs o toneladas de refrigeración) y la confiabilidad de los sistemas utilizados en el pasado.
Dejan las racks al personal de TI y sólo les interesa suministrar la suficiente potencia de
enfriamiento para combatir la carga total de calor, generalmente sin tomar en cuenta los diferentes
niveles de densidad de cada estante.
La respuesta típica del personal de instalaciones suele ser añadir más CRACs como las ya
instaladas (si hay espacio), lo que puede resolver el problema parcial, pero no de forma correcta.
De todos modos, es necesario que entre ambas partes haya algún tipo de entendimiento mutuo sobre
todas las cuestiones subyacentes para que puedan cooperar y extraer el máximo rendimiento a los
sistemas de refrigeración, y aplicar la solución más eficiente al problema de la alta densidad de
calor.
Soluciones sencillas y baratas para optimizar las instalaciones de refrigeración
existentes
Está claro que el suelo elevado es el estándar actual y no va a desaparecer de la noche a la
mañana. Existen varias técnicas que pueden implementarse para mejorar la eficiencia de
refrigeración de los centros de datos con servidores de alta densidad.
Paneles de obturación: Es, por mucho, el artículo más simple, barato e
incomprendido para mejorar la eficiencia de la refrigeración. Sólo con evitar que el aire caliente
de la parte de atrás del rack no llegue al frente a través de espacios abiertos en el estante, ya
se mejora la eficiencia energética. Véase el diagrama del flujo de aire en suelo elevado donde se
muestra cómo los paneles de obturación mejoran la eficiencia (haga clic en la imagen para ver la
versión ampliada).
Manejo del cableado: Si la parte posterior de los estantes está llena de cables,
lo más probable es que el aire tenga dificultades para fluir y los servidores estén más calientes
de lo necesario. Asegúrese de que el calor generado en la parte posterior de los servidores no
queda bloqueado. El cableado escondido bajo el suelo causa el mismo problema. Muchos centros de
datos de mayor tamaño reservan entre 30 cms y 60 cms de profundidad bajo el suelo sólo para que los
cables afecten lo menos posible al flujo de aire. Los cables deberían estar alineados y atados
firmemente para minimizar el impacto sobre el flujo de aire.
Baldosas y orificios de ventilación: El tamaño, la forma, la posición y la
dirección de los orificios de ventilación en el suelo y la velocidad del paso del aire por las
baldosas perforadas tienen un importante efecto sobre la cantidad de aire frío que llega donde es
necesario. Para ello vendrá bien hacer una evaluación
cuidadosa de la ubicación y la cantidad de aire en relación con los racks de mayor consumo
eléctrico. Utilice diferentes baldosas, orificios de ventilación y rejillas para equiparar el flujo
de aire con la carga de calor generada en el área.
Aperturas no deseadas: Los cables normalmente entran en los
racks a través de orificios abiertos en las losetas del suelo. Estas aperturas son una
importante fuente de ineficiencia en la refrigeración porque desperdician el aire frío al permitir
que vuelva al área posterior del estante, donde es absolutamente inútil. Además, disminuye la
presión estática del aire en el suelo y reduce el flujo de aire frío que está disponible para las
losas ventiladas de la parte frontal de los armarios. Toda apertura existente en las baldosas del
suelo para dejar pasar cables debería estar rodeada de dispositivos de contención de aire
–normalmente arandelas estilo “cepillo” que permiten pasar cables pero que cierran el paso al
aire.
Contención del pasillo frío: Los sistemas de contención de los pasillos fríos son
algo reciente. La mejor manera de describirlo es como una serie de paneles que se extienden por la
parte elevada del pasillo frío desde el borde superior de los estantes. También puede instalarse
con puertas laterales para una mejor contención del aire frío. Esto impide que el aire del pasillo
caliente se mezcle con el aire frío, concentrando el frío en la parte frontal de los racks, que es
donde tiene que quedarse.
Configuración de la temperatura: La “regla” siempre ha sido utilizar entre 20 y 21
grados centígrados como temperatura base para mantener la temperatura correcta en los centros de
datos. En realidad, es posible aumentarla, con cuidado, unos pocos grados. La temperatura más
importante debería medirse en el punto de entrada del servidor más alto en el rack más caluroso.
Sin bien todos los fabricantes son distintos, la mayoría de los servidores operan bien cerca de los
24 grados oC en el punto de entrada, siempre que el flujo de aire sea el adecuado
(contacte a su proveedor para comprobar cuál es el rango que considera aceptable).
Configuración de la humedad: Igual que es importante mantener la temperatura, la
CRAC también mantiene la humedad. El nivel adecuado se suele fijar habitualmente en 50%, con un
rango que oscila entre 40% y 60%. A fin de mantener la humedad, la mayoría de las CRACs usan una
combinación, añadiendo humedad y/o “recalentando” el aire. Esto puede consumir mucha energía.
Simplemente ampliando el rango de 25% a 75% se puede ahorrar una cantidad importante de
electricidad (contacte con el proveedor de sus servidores para comprobar cuál es el rango que
considera aceptable).
Sincronización de las CRACs: En muchas instalaciones, las CRACs individuales no
están en comunicación con las otras CRACs. Cada unidad basa sus ajustes de temperatura y humedad en
la temperatura y humedad captadas en el aire de retorno (cálido). Por tanto, es posible (incluso
habitual) que una CRAC trate de refrigerar o humidificar el aire mientras que otra trabaja para
deshumidificar o recalentar. Esto es fácil de saber si ocurre. En ese caso, pida a su contratista
que añada un sistema maestro de control o que cambie los puntos de ajuste de las unidades para
solucionar o mitigar el conflicto. En muchos casos, sólo se necesita una CRAC para controlar la
humedad, mientras que las otras pueden fijar sus puntos de ajuste alto-bajo con un rango mucho
mayor y actuar como unidades de respaldo para el caso de que falle la unidad principal. Resolver
esto puede ahorrar mucha energía a lo largo del año y reducir el deterioro por uso de las
CRACs.
Encuesta térmica: La realización de una encuesta térmica puede arrojar resultados
sorprendentes. Si se interpretan correctamente, pueden aportar importantes datos para mejorar la
eficiencia si se aplica alguno o todos los criterios o métodos aquí descritos.
Ventiladores domésticos: No resuelven nada, aunque he visto muchos intentos vanos
de utilizarlos para prevenir el sobrecalentamiento de los equipos.
Serpentines economizantes - "refrigeración gratis": La mayor parte de las
instalaciones más antiguas y pequeñas usaban un único tipo de tecnología de refrigeración par sus
CRACs. Normalmente consistía de un serpentín de refrigeración que se enfriaba mediante un compresor
ubicado dentro de la unidad. No importaba si afuera hacia calor o frío; el compresor tenía que
estar funcionando todo el año para refrigerar el centro de datos. Este sistema rudimentario mejoró
significativamente cuando se añadió un segundo serpentín de refrigeración conectado a un serpentín
externo por medio de conductos rellenos de agua y anticongelante. Cuando la temperatura exterior
era baja (10 oC o menos), se lograba una “refrigeración gratuita” porque el compresor se
usaba menos o podía dejar de utilizarse (por debajo de los 2 oC).
Este sencillo y eficaz sistema fue introducido hace muchos años, pero tuvo una implantación
limitada debido al costo y los requisitos añadidos que suponía tener un segundo serpentín externo.
En climas más fríos, esto puede generar un importante ahorro energético. Aunque normalmente no es
posible instalarlo en los sistemas ya implantados, se recomienda hacerlo siempre que se vaya a
efectuar una renovación o mejora del sistema de refrigeración. El uso del economizador se ha
incrementado considerablemente los últimos años, y en algunos estados y ciudades es incluso
obligatorio para las instalaciones nuevas. Fundamentalmente se emplea en regiones con clima más
frío.
Ubicación y clima: Además de las cuestiones y tecnologías relacionadas con el
centro de datos, la ubicación y el clima pueden tener un impacto significativo en la eficiencia
energética.
Los
grandes centros de datos Tier IV modernos y dedicados, con potencias de múltiples megavatios, están
diseñados para ser eficientes desde el punto de vista energético. Normalmente, usan grandes
sistemas de agua helada y funciones de economizador incorporadas dentro del sistema de enfriado.
Esto permite apagar los compresores durante los meses de invierno y aprovechar solo la baja
temperatura exterior para suministrar agua helada a las CRACs internas. De hecho, Google construyó
un gigantesco centro de datos en Oregón porque la temperatura media es baja, hay agua en abundancia
y la energía es barata.
Pero no todo el mundo opera en las altas esferas Tier IV. Las decenas de miles de centros de
datos pequeños y medianos instalados en rascacielos y parques de oficinas quizás no tengan esta
opción. Normalmente tienen que adaptarse a los sistemas de refrigeración de los propios edificios
(o a la falta de los mismos). Por tanto, en estas instalaciones, el centro de datos está limitado
en su (in)capacidad para usar refrigeración de alta densidad de manera eficiente. De hecho, algunos
edificios no usan ni ofrecen agua para los condensadores durante el invierno y algunos, nunca.
A menudo, cuando se diseña la planta de las oficinas, el centro de datos es relegado al espacio
que nadie quiere. A veces, el departamento de TI no tiene voz ni voto en la decisión. El resultado
es que el tamaño y la forma del centro de datos puede no ser el ideal para la instalación de los
racks y los sistemas de refrigeración. Cuando su organización estudie mudar las oficinas a otro
espacio, además de cómo luce el vestíbulo, debería tener en consideración la capacidad del nuevo
edificio para satisfacer las necesidades del centro de datos
En resumen
No existe ninguna respuesta perfecta para el reto de la refrigeración y la eficiencia
energética. No obstante, un examen cuidadoso de las condiciones existentes y de las soluciones y
técnicas de optimización posibles pueden llevar a mejorar sensiblemente el funcionamiento del
sistema de refrigeración de nuestro centro de datos. Algunas de los soluciones no cuestan nada,
mientras que otras tienen un costo nominal, pero todas ellas tendrán un efecto positivo. Tanto si
dispone usted de 50 como de 500 metros cuadrados, si hacen las cosas bien, la eficiencia energética
de su centro de datos mejorará. También aumentará el tiempo de actividad (uptime) porque los
equipos estarán mejor refrigerados y los sistemas de enfriamiento no tendrán que trabajar con tanto
esfuerzo. No se haga “verde” sólo porque está de moda. En este caso es necesario hacerlo para
responder al desafío de la refrigeración de alta densidad y reducir el costo energético.
ACERCA DEL AUTOR: Julius Neudorfer es director tecnológico de NAAT desde su
creación, en 1987, además de ser uno de sus principales fundadores. Ha diseñado y gestionado
proyectos de comunicaciones y sistemas de información para clientes comerciales y
gubernamentales.