miércoles, mayo 08, 2013

De las tendencias a la realidad en TI


Cada inicio de año los directivos de TI están atentos a lo que harán sus colegas, buscando información sobre el rumbo que tomarán los proyectos de tecnología y las tendencias más frescas; en fin, buscan una especie de faro de referencia que les ayude a ubicar si su propio proyecto de TI se sitúa dentro de lo que la industria en general está haciendo, o si al menos van en la dirección correcta.

Los hallazgos de la más reciente encuesta global de prioridades de TI para 2013 de TechTarget muestran que los CIO y gerentes de TI en América Latina están atentos a las nuevas (y no tan nuevas) tecnologías, como la movilidad, el cómputo de nube y la administración de Big Data; sin embargo, aún se encuentran un poco rezagados en la parte de la implementación. Su principal prioridad es realizar los cambios necesarios para que el área de TI ayude a conseguir los objetivos de negocio, independientemente de si esto se logrará a través de la nube, la consumerización (BYOD) o alguna otra estrategia.

De acuerdo con los resultados de los encuestados en América Latina (cerca de 500 directores y gerentes de TI, principalmente), casi la mitad de ellos (45.7%) planean expandir la capacidad del área de TI para apoyar el crecimiento del negocio, en tanto que un 23.9% está trabajando en planes para ayudar a la automatización del negocio. La nube, como tal, queda debajo de estas prioridades.

Y es que cuando se trata de nuevas tecnologías, las cosas no resultan tan simples como montarse en el tren que va pasando y listo. Antes de eso, las compañías deben asegurarse de contar con el hardware y las aplicaciones necesarias para poder sustentar este cambio. Por ello, un 51.5% de los encuestados en América Latina buscarán consolidar su centro de datos en 2013, mientras que 49.7% realizarán proyectos de virtualización de servidores.

Cabe destacar que casi la mitad de los CIO y gerentes de TI que respondieron la encuesta (47.9%) está considerando trabajar en proyectos de Recuperación de Desastres como una de las prioridades de TI este año. Esto se debe, seguramente, a un requerimiento del negocio para cumplir con las regulaciones. Y tiene lógica: consolidar la infraestructura y cumplir con las normativas y regulaciones permitirá que la adopción de nuevas tecnologías sea más suave y con una menor cantidad de riesgos. La movilidad y el cómputo de nube implican, por sí mismos, muchos riesgos relacionados con la privacidad de los datos y la disponibilidad de la información, ¿para qué añadir complejidad por tratar de hacerlo todo al mismo tiempo?

Al parecer, los CIO están conscientes de ello… o al menos el negocio lo está y exige que los CIO se alineen con sus metas. Al preguntar a los encuestados sobre las iniciativas de TI que implementarán este año, la gran mayoría (44.6%) seleccionó la opción de cumplimiento con las regulaciones. En este sentido, se reportó un alto porcentaje de lectores que seguirán iniciativas basadas en ITIL (28.9%), lo cual puede estar relacionado con la necesidad de TI de llevar metodologías ordenadas y alineadas con el negocio.

La consolidación fue el segundo rubro relevante de respuestas para esta pregunta, con un 38.2% de respondientes seleccionando esta opción. Y es que, como lo mencioné antes, es básico dar este paso antes de implementar otras iniciativas como la movilidad (la cual fue seleccionada en 33.6% de los casos) y la nube (con 24.8% de respuestas para la opción de nube privada y 23.8% en el caso de la nube de proveedores externos).

Muy atrás se encuentran los rubros de Big Data y servicios de outsourcing (con 19.1% y 18.9%, respectivamente), lo que deja en claro que el tema de administración de datos y servicios no es considerado como una prioridad para los departamentos de TI. Pero tal vez cobre relevancia cuando el contexto de la nube y la movilidad sea más una realidad que una iniciativa en las empresas.

De momento, los CIO y gerentes de TI en América Latina enfocan gran parte de su tiempo en la gestión general de TI (38.2%), la gerencia de proyectos o programas (29%) y el desarrollo de aplicaciones (28.4%), principalmente. Otros rubros que acaparan su atención son las bases de datos (21.9%) y los centros de datos e infraestructura de operaciones (20.8%), seguidos por la gestión de servidores (17.6%) y la seguridad (17.4%). Vale la pena considerar estas cifras pues son estos números los que reflejan la intensidad real de los esfuerzos de TI dentro de las compañías, y, al parecer, se orientan más en los temas del día a día y no en aterrizar las grandes tendencias tecnológicas.

Por lo pronto, los CIO avanzan un paso a la vez. Tal vez demasiado lentos para la ansiosa necesidad del negocio, pero encaminados hacia ese faro que actualmente apunta hacia la nube y el cloud computing.

Nueva norma internacional para los centros de datos

Tomado de: ARTICULO ORIGINAL

Los centros de procesamiento de datos están en todos lados. Son la base de las transacciones financieras, comerciales o de transmisión de multimedia con fines informativos, de entretenimiento o productividad. Las nuevas tendencias como BYOD, virtualización y cómputo de nube requieren de infraestructura de telecomunicaciones que apalanque estas tecnologías, y ahí es donde los centros de datos cobran relevancia.
 
La prueba de esta importancia se refleja en los resultados de la más reciente encuesta de prioridades de TI realizada por TechTarget, en donde la mitad de respondientes de América Latina comentó que este año estarán trabajando en la consolidación de la infraestructura del centro de datos, mientras que una cuarta parte se enfocará en unir la infraestructura de las redes de almacenamiento con su centro de datos. Esto tiene una razón, y es que al menos una quinta parte (20.8%) ocupa la mayor parte de su tiempo gestionando las operaciones de estos centros.

Dada la relevancia de este tema, los días 22 y 23 de mayo se realizará el 8º Congreso Internacional de Infraestructura TI y Expo DataCenter, en la Ciudad de México. El congreso y la expo, organizados por ICREA, tienen por objetivo ofrecer información relevante sobre implementación, mantenimiento y mejores prácticas para centros de datos.

En el marco del congreso se presentará la versión 2013 de la Norma Internacional para la construcción de centros de procesamiento de datos (ICREA-Std-131-2013), que es un conjunto de recomendaciones y mejores prácticas acordadas entre varios países y un grupo de expertos en centros de procesamiento de datos (CPD). Dicha normativa define la forma de construir un Centro de Datos de acuerdo con los niveles de confiabilidad y seguridad deseados.

La nueva versión, realizada en conjunto entre México y 25 países de América Latina, abarca aspectos generales, instalaciones eléctricas, aire acondicionado, comunicaciones, ambiente (piso elevado, acabados, obra civil), seguridad (CCTV, control de acceso, detección y supresión de incendios) y anexos para la certificación de CPD.

Una normativa en evolución
De acuerdo con Eduardo Rocha, presidente del International Computer Room Experts Association (ICREA), la norma se ha convertido en el referente para la construcción de Centros de Datos con altos niveles de seguridad y eficiencia: "Todos los cambios que se han aplicado a la norma están marcados y tienen textos subrayados. Esta versión del documento tuvo un nivel de revisión muy profundo".

Explicó que, debido a la necesidad de documentar las mejores prácticas para centros de datos, en 2003 se liberó la primera versión en México, la cual tuvo una revisión en 2007. Fue hasta 2009 que se generó la primera versión internacional, la cual fue revisada en 2011 con la colaboración de 12 países de América Latina.

Este año participaron 25 países de la región, además de que se contó con los comentarios de expertos españoles, quienes aportaron valiosos conocimientos para homogeneizar criterios entre la filosofía europea y la americana, buscando una mayor compatibilidad con los modelos ISO. Cabe resaltar que esta será la primera versión que también se publicará en inglés.

Entre los cambios significativos para la versión 2013 se incluye el enfriamiento sin costo (es decir, el que aprovecha un clima externo frío para mantener el centro de datos a temperatura adecuada sin gastar energía), así como una mayor claridad en los criterios de optimización de instalaciones por medio del Power Usage Effectiveness (PUE).

“Los grandes centros de datos que han implementado sistemas adecuados de energía han reducido su puntaje PUE a menos de 2”, expresó Rocha. Añadió que el cociente óptimo del PUE sería de 1, pero la relación suele ser de 2 a 1. Sin embargo, la mayoría de los centros de datos se encuentra más arriba, con promedios de 2.4 o 2.6 puntos.

Alianza pro centros de datos en América Latina
Otro de los anuncios que se darán a conocer en el marco del evento es la firma de un convenio entre el ICREA y DataCenter Dynamics (DCD). Ambas organizaciones han acordado una serie de compromisos para atender el mercado Iberoamericano de infraestructura de centros de datos.

ICREA espera aprovechar la plataforma de marketing de DCD para ampliar su convocatoria. Este año esperan al menos 400 asistentes de México, España y América Latina, principalmente. Además, en adelante ICREA participará de manera conjunta en los eventos que DCD realiza en Latinoamérica.

El valor que aporta la asociación es el contenido. Este año, por ejemplo, se impartirán cursos de capacitación para 23 certificaciones distintas relacionadas con la gestión de centros de datos durante el congreso en la Ciudad de México.

Entre los temas relevantes que se abordarán en el evento se incluyen:
  • ROI y métricas de medición de la inversión contra las necesidades reales de disponibilidad de los clientes
  • Uso de baterías y mejores prácticas de desecho y aprovechamiento de la vida útil, con beneficios tangibles económicos y ecológicos
  • Esquemas de respaldo y redundancia, así como protección física (sistemas anti-bala, controles de acceso, videovigilancia, etc.)
  • Cómo revertir la tendencia de consumo energético de los centros de datos
“Hacia donde uno voltee hay centros de cómputo”, comentó Rocha. “Las transacciones en centros comerciales, operaciones financieras, servicios de comunicación, transmisión y entrega de correos electrónicos, toda nuestra vida se sustenta en los centros de datos. No es de sorprender entonces que la instalación de estas arquitecturas vaya en aumento y que actualmente consuman 2% de la energía a nivel mundial”, dijo.

International Computer Room Experts Association es una Asociación Internacional que norma y certifica especialistas, ambientes y productos de Infraestructura TIC. Fundada en 1999 en la Ciudad de México, actualmente tiene presencia en 21 países y cuenta con más de 2m000 socios. http://www.icrea-international.org


¿Llegó la hora de renovar el centro de datos?

 El hardware del centro de datos envejece con el tiempo y llegará un momento en que habrá que reemplazarlo, pero la decisión de cambiar el hardware usado se ha ido complicando en los últimos años. En teoría, es realmente una ecuación bien simple: si el hardware tiene más de N años, es hora de reemplazarlo. Pero dado el estado del negocio y las finanzas en la mayoría de las organizaciones, muchas han decidido poner fin al tradicional ciclo de cambio de hardware cada 3-4 años debido a las restricciones presupuestarias. Sin embargo, si es necesario suspender esa renovación, quizás eso le permita seguir pagando por el mantenimiento y ahorrarse las grandes inversiones de capital que supone comprar maquinaria nueva.

Como sea, es imposible seguir con el mismo hardware indefinidamente. Seguir “como estamos” en medio de un entorno de evolución y cambio tecnológico no es una opción realista. Las nuevas aplicaciones exigen un rendimiento y unas prestaciones que casi siempre sólo se encuentran en los sistemas de última generación. De igual manera, la rápida adopción de tecnologías como la virtualización de servidores hace que cada vez sea más difícil ajustarse a las tácticas tradicionales de abastecimiento de hardware (por ejemplo, “una aplicación, una máquina”), especialmente si, además, estamos obligados a reducir costos.

Evaluación de la necesidad de renovación tecnológica

Desde una perspectiva práctica, todos los administradores se encontrarán entre la espada y la pared en lo que respecta a tres cuestiones: aumento de la actividad y los requisitos de negocio (más computación), presiones para reducir el gasto en TI (presupuestos más bajos), y exigencia de una mayor rapidez y eficiencia en el servicio. Siempre existe la tentación de priorizar la reducción de costos, normalmente con la presión de la alta gerencia. Sin embargo, una de las consecuencias de mejorar la eficiencia suele ser la reducción de los costos.
Por tanto, estamos ante el clásico esfuerzo permanente por hacer inversiones estratégicas —como la renovación tecnológica— que, además, generen ahorros para las organizaciones. La implementación de un sistema que permita repercutir los costos a las unidades que realmente usan los equipos (chargeback) también puede reducir o sufragar el gasto directo de TI.
Dados estos factores, la priorización se reduce a un simple concepto: ¿qué puede usted implementar con el presupuesto, personal, capacidades e infraestructura que tiene disponibles? Es posible que no tengamos el personal adecuado para diseñar e implantar un sistema de chargeback, o quizás no disponemos de los recursos financieros para una renovación profunda del centro de datos. Pero, al mismo tiempo, tampoco podemos tener miedo de tomar decisiones. Hay sistemas que costarán más a corto plazo pero, en realidad, pueden suponer un ahorro a lo largo del ciclo de la tecnología. Además, en muchas organizaciones de lo que se trata es tanto de trasladar los costos de TI como de reducirlos.

Cuando la renovación tecnológica no puede esperar

Las cosas se pueden poner feas cuando realmente hay necesidad de cambiar el hardware. Muchas organizaciones se encuentran con infraestructuras y equipos obsoletos para los que ya no pueden adquirir contratos de servicio. El mantenimiento por parte de terceros puede alargar la vida online del equipo pero esta no es la única opción a la hora de renovar la infraestructura tecnológica.

Arrendamiento financiero. Por ejemplo, las organizaciones pueden decantarse por un arrendamiento financiero (leasing) para mantener el costo de los sistemas en un nivel razonable, normalmente a lo largo de un ciclo de 36 meses. Dependiendo de qué tipos de equipos tengamos puede ser incluso más adecuado adquirir el hardware para un ciclo de arrendamiento de 48-50 meses. Prácticamente todos los fabricantes han llevado a cabo recientemente una renovación completa de sus líneas de producto, lo que hace de éste un periodo ideal para contratar un arrendamiento financiero a largo plazo. La mayor parte de estos sistemas están apenas iniciando sus ciclos de vida o llevan sólo un año o dos en funcionamiento; esto reduce considerablemente la probabilidad de que los costos de soporte se incrementen a lo largo de la vida del arrendamiento.

Financiamiento creativo. Cada vez hay más compañías de arrendamiento financiero que están dispuestas a ser un poco creativas y aceptan opciones de financiación a más de 36 meses, además de ofrecer descuentos para compras o combinaciones más grandes. Asimismo, hay una gran competencia entre proveedores y fabricantes, y casi todos ellos están dispuestos a ofrecer créditos competitivos de una forma u otra para la renovación. No tenga miedo a pedir información sobre esto o sobre las ofertas que podría haber disponibles en el momento en que usted se disponga a hacer la orden de compra. Si el proveedor sabe que usted está tratando de cuadra las cuentas para poder renovar el hardware, es posible que haga un esfuerzo para ayudarle a cubrir la brecha.

Exploración del mercado secundario. A algunos les puede sonar un poco macabro, pero lo cierto es con la crisis económica han entrado en el mercado de segunda mano muchos sistemas “como nuevos” debido a que las empresas se fueron a la quiebra o vendieron partes y sistemas que, o bien no necesitaban, o no podían mantener una vez que la crisis afectó a sus negocios. Estos sistemas casi nuevos ocupan un valioso espacio en los almacena de las compañías de leasing, y están deseando deshacerse de ellos. Estas máquinas que acumulan polvo en los almacenes no generan ingresos para nadie y muchas veces pueden obtenerse a una fracción del costo de una nueva, además de cualificar directamente para un contrato de servicio sin tener que pasar por una recertificación.

Demorar la renovación tecnológica

Algunas organizaciones no tienen la opción de comprar hardware nuevo; incluso puede ser una opción mala. Quizás no hay presupuesto, el departamento TI no encuentra apoyos en otras partes de la empresa, o cualquier otra razón. Pero incluso en estos casos en que la situación obliga a minimizar gastos y a aprovechar al máximo lo que tenemos, todavía nos quedan alternativas.

Sopesar la actualización del hardware existente. Aunque no podamos comprar directamente del fabricante original, hay muchos terceros que pueden suministrar componentes nuevos o recertificados para actualizar los sistemas. Para los negocios que han sufrido una caída de las ventas o de sus proyecciones anuales de ingresos, quizás hasta tenga más sentido esperar a que pase la tormenta y, sencillamente, actualizar el hardware existente sin gastar más recursos en una renovación completa.

Reflexionar sobre la virtualización y los servidores básicos. No es fácil planificar una renovación tecnológica. Para ello se requiere un conocimiento profundo del impacto que el plan de negocio de la empresa tiene sobre los requisitos de TI. Muchas organizaciones no lo tienen claro; saben dónde querrían estar —y dónde deberían estar— pero no tienen ni idea de cuándo ni a qué ritmo llegarán allí. Por ejemplo, para comprar la cantidad de energía adecuada es preciso saber cuánta energía se necesita. La incertidumbre sobre los objetivos y las necesidades de negocio pueden hacer que hasta la organización más frugal se exceda y gaste en nuevas tecnologías millones de pesos más de lo necesario. O que se apresure a comprar e implantar sistemas basados en cálculos para un periodo de declive y no pensando en los picos esperados a futuro.

Cuando se producen estos casos todavía nos quedan opciones para mejorar la utilización y exprimir el viejo hardware. Por ejemplo, hay operaciones de trabajo que pueden migrarse a servidores x86 de costo más bajo, lo que liberará otros recursos de computación más caros cuando sea necesario. El traslado o alternancia de cargas de trabajo puede resultar cada vez más importante a medida que aumentan los requisitos de las aplicaciones. Otra opción sencilla y económica es la virtualización de los servidores. La virtualización mejora la eficiencia porque aumenta el trabajo realizado por vatio de potencia y la cantidad de aplicaciones que operan en cada sistema. Los entornos Windows pueden aplicar la virtualización por medio de Hyper-V, Citrix o VMware, y todos los sistemas Unix actualmente en el mercado disponen de múltiples tecnologías de virtualización.

Tener la mente abierta

Normalmente existen numerosas posibilidades para introducir hardware nuevo en el centro de datos o exprimir un poco más del que ya existe. Y cuando estos recursos parezcan totalmente agotados, todavía quizás sea posible incorporar sistemas nuevos de forma escalonada y hacer que los arrendamientos financieros de todos ellos venzan al mismo tiempo —sí, al mismo tiempo—. Así, una opción consistiría en reemplazar el servidor ERP y actualizar su almacenamiento asociado durante este año y luego trasladarse a otros sistemas durante los próximos dos años, cambiando las cargas de trabajo según sea necesario. Si todos los arrendamientos vencen al mismo tiempo, tendremos la opción (dentro de varios años) de renovar los contratos, comprar nuevos equipos o de algo intermedio, según permita la situación.

Las mejores prácticas no siempre son realidad en los centros de datos


Una de las realidades de cualquier centro de datos, grande o pequeño, es que los equipos de cómputo cambian constantemente. El resultado es que incluso el centro de datos mejor planificado tiende a instalar equipos en cualquier rincón donde haya espacio, y esto causa problemas de refrigeración

La necesidad de mantener en funcionamiento los sistemas antiguos mientras se instalan los nuevos hace que sea absolutamente esencial actuar con criterio. Pocas veces se pueden parar por completo las operaciones para reorganizar el centro de datos a fin de optimizar la refrigeración. Si es usted capaz de dar una mirada objetiva a su centro de datos (evite decir “así es como se hicieron siempre las cosas”) es posible que encuentre que muchas de las recomendaciones que siguen a continuación le ayudan a mejorar significativamente la eficiencia de su sistema de refrigeración —sin que, en la mayoría de los casos, tenga que detener las operaciones. 

Instalaciones y TI
Como muchos otros colectivos de personas, los responsables de las TI y los encargados de las instalaciones suelen tener visiones distintas de las cosas.  Normalmente, cuando se inicia algún proyecto de refrigeración de los sistemas a quien se llama es al personal de mantenimiento de las salas. Su principal preocupación suelen ser los requisitos generales de refrigeración de la sala (en BTUs o toneladas de refrigeración) y la confiabilidad de los sistemas utilizados en el pasado. 

Dejan las racks al personal de TI y sólo les interesa suministrar la suficiente potencia de enfriamiento para combatir la carga total de calor, generalmente sin tomar en cuenta los diferentes niveles de densidad de cada estante.

La respuesta típica del personal de instalaciones suele ser añadir más CRACs como las ya instaladas (si hay espacio), lo que puede resolver el problema parcial, pero no de forma correcta. De todos modos, es necesario que entre ambas partes haya algún tipo de entendimiento mutuo sobre todas las cuestiones subyacentes para que puedan cooperar y extraer el máximo rendimiento a los sistemas de refrigeración, y aplicar la solución más eficiente al problema de la alta densidad de calor.

Soluciones sencillas y baratas para optimizar las instalaciones de refrigeración existentes
Está claro que el suelo elevado es el estándar actual y no va a desaparecer de la noche a la mañana. Existen varias técnicas que pueden implementarse para mejorar la eficiencia de refrigeración de los centros de datos con servidores de alta densidad.

Paneles de obturación: Es, por mucho, el artículo más simple, barato e incomprendido para mejorar la eficiencia de la refrigeración. Sólo con evitar que el aire caliente de la parte de atrás del rack no llegue al frente a través de espacios abiertos en el estante, ya se mejora la eficiencia energética. Véase el diagrama del flujo de aire en suelo elevado donde se muestra cómo los paneles de obturación mejoran la eficiencia (haga clic en la imagen para ver la versión ampliada).

Manejo del cableado: Si la parte posterior de los estantes está llena de cables, lo más probable es que el aire tenga dificultades para fluir y los servidores estén más calientes de lo necesario. Asegúrese de que el calor generado en la parte posterior de los servidores no queda bloqueado. El cableado escondido bajo el suelo causa el mismo problema. Muchos centros de datos de mayor tamaño reservan entre 30 cms y 60 cms de profundidad bajo el suelo sólo para que los cables afecten lo menos posible al flujo de aire. Los cables deberían estar alineados y atados firmemente para minimizar el impacto sobre el flujo de aire.

Baldosas y orificios de ventilación: El tamaño, la forma, la posición y la dirección de los orificios de ventilación en el suelo y la velocidad del paso del aire por las baldosas perforadas tienen un importante efecto sobre la cantidad de aire frío que llega donde es necesario. Para ello vendrá bien hacer una evaluación cuidadosa de la ubicación y la cantidad de aire en relación con los racks de mayor consumo eléctrico. Utilice diferentes baldosas, orificios de ventilación y rejillas para equiparar el flujo de aire con la carga de calor generada en el área.

Aperturas no deseadas: Los cables normalmente entran en los racks a través de  orificios abiertos en las losetas del suelo. Estas aperturas son una importante fuente de ineficiencia en la refrigeración porque desperdician el aire frío al permitir que vuelva al área posterior del estante, donde es absolutamente inútil. Además, disminuye la presión estática del aire en el suelo y reduce el flujo de aire frío que está disponible para las losas ventiladas de la parte frontal de los armarios. Toda apertura existente en las baldosas del suelo para dejar pasar cables debería estar rodeada de dispositivos de contención de aire –normalmente arandelas estilo “cepillo” que permiten pasar cables pero que cierran el paso al aire.

Contención del pasillo frío: Los sistemas de contención de los pasillos fríos son algo reciente. La mejor manera de describirlo es como una serie de paneles que se extienden por la parte elevada del pasillo frío desde el borde superior de los estantes. También puede instalarse con puertas laterales para una mejor contención del aire frío. Esto impide que el aire del pasillo caliente se mezcle con el aire frío, concentrando el frío en la parte frontal de los racks, que es donde tiene que quedarse.

Configuración de la temperatura: La “regla” siempre ha sido utilizar entre 20 y 21 grados centígrados como temperatura base para mantener la temperatura correcta en los centros de datos. En realidad, es posible aumentarla, con cuidado, unos pocos grados. La temperatura más importante debería medirse en el punto de entrada del servidor más alto en el rack más caluroso. Sin bien todos los fabricantes son distintos, la mayoría de los servidores operan bien cerca de los 24 grados oC en el punto de entrada, siempre que el flujo de aire sea el adecuado (contacte a su proveedor para comprobar cuál es el rango que considera aceptable).

Configuración de la humedad: Igual que es importante mantener la temperatura, la CRAC también mantiene la humedad. El nivel adecuado se suele fijar habitualmente en 50%, con un rango que oscila entre 40% y 60%. A fin de mantener la humedad, la mayoría de las CRACs usan una combinación, añadiendo humedad y/o “recalentando” el aire. Esto puede consumir mucha energía. Simplemente ampliando el rango de 25% a 75% se puede ahorrar una cantidad importante de electricidad (contacte con el proveedor de sus servidores para comprobar cuál es el rango que considera aceptable).

Sincronización de las CRACs: En muchas instalaciones, las CRACs individuales no están en comunicación con las otras CRACs. Cada unidad basa sus ajustes de temperatura y humedad en la temperatura y humedad captadas en el aire de retorno (cálido). Por tanto, es posible (incluso habitual) que una CRAC trate de refrigerar o humidificar el aire mientras que otra trabaja para deshumidificar o recalentar. Esto es fácil de saber si ocurre. En ese caso, pida a su contratista que añada un sistema maestro de control o que cambie los puntos de ajuste de las unidades para solucionar o mitigar el conflicto. En muchos casos, sólo se necesita una CRAC para controlar la humedad, mientras que las otras pueden fijar sus puntos de ajuste alto-bajo con un rango mucho mayor y actuar como unidades de respaldo para el caso de que falle la unidad principal. Resolver esto puede ahorrar mucha energía a lo largo del año y reducir el deterioro por uso de las CRACs. 

Encuesta térmica: La realización de una encuesta térmica puede arrojar resultados sorprendentes. Si se interpretan correctamente, pueden aportar importantes datos para mejorar la eficiencia si se aplica alguno o todos los criterios o métodos aquí descritos.

Ventiladores domésticos: No resuelven nada, aunque he visto muchos intentos vanos de utilizarlos para prevenir el sobrecalentamiento de los equipos.

Serpentines economizantes - "refrigeración gratis": La mayor parte de las instalaciones más antiguas y pequeñas usaban un único tipo de tecnología de refrigeración par sus CRACs. Normalmente consistía de un serpentín de refrigeración que se enfriaba mediante un compresor ubicado dentro de la unidad. No importaba si afuera hacia calor o frío; el compresor tenía que estar funcionando todo el año para refrigerar el centro de datos. Este sistema rudimentario mejoró significativamente cuando se añadió un segundo serpentín de refrigeración conectado a un serpentín externo por medio de conductos rellenos de agua y anticongelante. Cuando la temperatura exterior era baja (10 oC o menos), se lograba una “refrigeración gratuita” porque el compresor se usaba menos o podía dejar de utilizarse (por debajo de los 2 oC).

Este sencillo y eficaz sistema fue introducido hace muchos años, pero tuvo una implantación limitada debido al costo y los requisitos añadidos que suponía tener un segundo serpentín externo. En climas más fríos, esto puede generar un importante ahorro energético. Aunque normalmente no es posible instalarlo en los sistemas ya implantados, se recomienda hacerlo siempre que se vaya a efectuar una renovación o mejora del sistema de refrigeración. El uso del economizador se ha incrementado considerablemente los últimos años, y en algunos estados y ciudades es incluso obligatorio para las instalaciones nuevas. Fundamentalmente se emplea en regiones con clima más frío.

Ubicación y clima: Además de las cuestiones y tecnologías relacionadas con el centro de datos, la ubicación y el clima pueden tener un impacto significativo en la eficiencia energética.

Una de las realidades de cualquier centro de datos, grande o pequeño, es que los equipos de cómputo cambian constantemente. El resultado es que incluso el centro de datos mejor planificado tiende a instalar equipos en cualquier rincón donde haya espacio, y esto causa problemas de refrigeración. La necesidad de mantener en funcionamiento los sistemas antiguos mientras se instalan los nuevos hace que sea absolutamente esencial actuar con criterio. Pocas veces se pueden parar por completo las operaciones para reorganizar el centro de datos a fin de optimizar la refrigeración. Si es usted capaz de dar una mirada objetiva a su centro de datos (evite decir “así es como se hicieron siempre las cosas”) es posible que encuentre que muchas de las recomendaciones que siguen a continuación le ayudan a mejorar significativamente la eficiencia de su sistema de refrigeración —sin que, en la mayoría de los casos, tenga que detener las operaciones. 

Instalaciones y TI
Como muchos otros colectivos de personas, los responsables de las TI y los encargados de las instalaciones suelen tener visiones distintas de las cosas.  Normalmente, cuando se inicia algún proyecto de refrigeración de los sistemas a quien se llama es al personal de mantenimiento de las salas. Su principal preocupación suelen ser los requisitos generales de refrigeración de la sala (en BTUs o toneladas de refrigeración) y la confiabilidad de los sistemas utilizados en el pasado. Dejan las racks al personal de TI y sólo les interesa suministrar la suficiente potencia de enfriamiento para combatir la carga total de calor, generalmente sin tomar en cuenta los diferentes niveles de densidad de cada estante.

La respuesta típica del personal de instalaciones suele ser añadir más CRACs como las ya instaladas (si hay espacio), lo que puede resolver el problema parcial, pero no de forma correcta. De todos modos, es necesario que entre ambas partes haya algún tipo de entendimiento mutuo sobre todas las cuestiones subyacentes para que puedan cooperar y extraer el máximo rendimiento a los sistemas de refrigeración, y aplicar la solución más eficiente al problema de la alta densidad de calor.

Soluciones sencillas y baratas para optimizar las instalaciones de refrigeración existentes
Está claro que el suelo elevado es el estándar actual y no va a desaparecer de la noche a la mañana. Existen varias técnicas que pueden implementarse para mejorar la eficiencia de refrigeración de los centros de datos con servidores de alta densidad.

Paneles de obturación: Es, por mucho, el artículo más simple, barato e incomprendido para mejorar la eficiencia de la refrigeración. Sólo con evitar que el aire caliente de la parte de atrás del rack no llegue al frente a través de espacios abiertos en el estante, ya se mejora la eficiencia energética. Véase el diagrama del flujo de aire en suelo elevado donde se muestra cómo los paneles de obturación mejoran la eficiencia (haga clic en la imagen para ver la versión ampliada).

Manejo del cableado: Si la parte posterior de los estantes está llena de cables, lo más probable es que el aire tenga dificultades para fluir y los servidores estén más calientes de lo necesario. Asegúrese de que el calor generado en la parte posterior de los servidores no queda bloqueado. El cableado escondido bajo el suelo causa el mismo problema. Muchos centros de datos de mayor tamaño reservan entre 30 cms y 60 cms de profundidad bajo el suelo sólo para que los cables afecten lo menos posible al flujo de aire. Los cables deberían estar alineados y atados firmemente para minimizar el impacto sobre el flujo de aire.

Baldosas y orificios de ventilación: El tamaño, la forma, la posición y la dirección de los orificios de ventilación en el suelo y la velocidad del paso del aire por las baldosas perforadas tienen un importante efecto sobre la cantidad de aire frío que llega donde es necesario. Para ello vendrá bien hacer una evaluación cuidadosa de la ubicación y la cantidad de aire en relación con los racks de mayor consumo eléctrico. Utilice diferentes baldosas, orificios de ventilación y rejillas para equiparar el flujo de aire con la carga de calor generada en el área.

Aperturas no deseadas: Los cables normalmente entran en los racks a través de  orificios abiertos en las losetas del suelo. Estas aperturas son una importante fuente de ineficiencia en la refrigeración porque desperdician el aire frío al permitir que vuelva al área posterior del estante, donde es absolutamente inútil. Además, disminuye la presión estática del aire en el suelo y reduce el flujo de aire frío que está disponible para las losas ventiladas de la parte frontal de los armarios. Toda apertura existente en las baldosas del suelo para dejar pasar cables debería estar rodeada de dispositivos de contención de aire –normalmente arandelas estilo “cepillo” que permiten pasar cables pero que cierran el paso al aire.

Contención del pasillo frío: Los sistemas de contención de los pasillos fríos son algo reciente. La mejor manera de describirlo es como una serie de paneles que se extienden por la parte elevada del pasillo frío desde el borde superior de los estantes. También puede instalarse con puertas laterales para una mejor contención del aire frío. Esto impide que el aire del pasillo caliente se mezcle con el aire frío, concentrando el frío en la parte frontal de los racks, que es donde tiene que quedarse.

Configuración de la temperatura: La “regla” siempre ha sido utilizar entre 20 y 21 grados centígrados como temperatura base para mantener la temperatura correcta en los centros de datos. En realidad, es posible aumentarla, con cuidado, unos pocos grados. La temperatura más importante debería medirse en el punto de entrada del servidor más alto en el rack más caluroso. Sin bien todos los fabricantes son distintos, la mayoría de los servidores operan bien cerca de los 24 grados oC en el punto de entrada, siempre que el flujo de aire sea el adecuado (contacte a su proveedor para comprobar cuál es el rango que considera aceptable).

Configuración de la humedad: Igual que es importante mantener la temperatura, la CRAC también mantiene la humedad. El nivel adecuado se suele fijar habitualmente en 50%, con un rango que oscila entre 40% y 60%. A fin de mantener la humedad, la mayoría de las CRACs usan una combinación, añadiendo humedad y/o “recalentando” el aire. Esto puede consumir mucha energía. Simplemente ampliando el rango de 25% a 75% se puede ahorrar una cantidad importante de electricidad (contacte con el proveedor de sus servidores para comprobar cuál es el rango que considera aceptable).

Sincronización de las CRACs: En muchas instalaciones, las CRACs individuales no están en comunicación con las otras CRACs. Cada unidad basa sus ajustes de temperatura y humedad en la temperatura y humedad captadas en el aire de retorno (cálido). Por tanto, es posible (incluso habitual) que una CRAC trate de refrigerar o humidificar el aire mientras que otra trabaja para deshumidificar o recalentar. Esto es fácil de saber si ocurre. En ese caso, pida a su contratista que añada un sistema maestro de control o que cambie los puntos de ajuste de las unidades para solucionar o mitigar el conflicto. En muchos casos, sólo se necesita una CRAC para controlar la humedad, mientras que las otras pueden fijar sus puntos de ajuste alto-bajo con un rango mucho mayor y actuar como unidades de respaldo para el caso de que falle la unidad principal. Resolver esto puede ahorrar mucha energía a lo largo del año y reducir el deterioro por uso de las CRACs. 

Encuesta térmica: La realización de una encuesta térmica puede arrojar resultados sorprendentes. Si se interpretan correctamente, pueden aportar importantes datos para mejorar la eficiencia si se aplica alguno o todos los criterios o métodos aquí descritos.

Ventiladores domésticos: No resuelven nada, aunque he visto muchos intentos vanos de utilizarlos para prevenir el sobrecalentamiento de los equipos.

Serpentines economizantes - "refrigeración gratis": La mayor parte de las instalaciones más antiguas y pequeñas usaban un único tipo de tecnología de refrigeración par sus CRACs. Normalmente consistía de un serpentín de refrigeración que se enfriaba mediante un compresor ubicado dentro de la unidad. No importaba si afuera hacia calor o frío; el compresor tenía que estar funcionando todo el año para refrigerar el centro de datos. Este sistema rudimentario mejoró significativamente cuando se añadió un segundo serpentín de refrigeración conectado a un serpentín externo por medio de conductos rellenos de agua y anticongelante. Cuando la temperatura exterior era baja (10 oC o menos), se lograba una “refrigeración gratuita” porque el compresor se usaba menos o podía dejar de utilizarse (por debajo de los 2 oC).

Este sencillo y eficaz sistema fue introducido hace muchos años, pero tuvo una implantación limitada debido al costo y los requisitos añadidos que suponía tener un segundo serpentín externo. En climas más fríos, esto puede generar un importante ahorro energético. Aunque normalmente no es posible instalarlo en los sistemas ya implantados, se recomienda hacerlo siempre que se vaya a efectuar una renovación o mejora del sistema de refrigeración. El uso del economizador se ha incrementado considerablemente los últimos años, y en algunos estados y ciudades es incluso obligatorio para las instalaciones nuevas. Fundamentalmente se emplea en regiones con clima más frío.

Ubicación y clima: Además de las cuestiones y tecnologías relacionadas con el centro de datos, la ubicación y el clima pueden tener un impacto significativo en la eficiencia energética.

Los grandes centros de datos Tier IV modernos y dedicados, con potencias de múltiples megavatios, están diseñados para ser eficientes desde el punto de vista energético. Normalmente, usan grandes sistemas de agua helada y funciones de economizador incorporadas dentro del sistema de enfriado. Esto permite apagar los compresores durante los meses de invierno y aprovechar solo la baja temperatura exterior para suministrar agua helada a las CRACs internas. De hecho, Google construyó un gigantesco centro de datos en Oregón porque la temperatura media es baja, hay agua en abundancia y la energía es barata.

Pero no todo el mundo opera en las altas esferas Tier IV. Las decenas de miles de centros de datos pequeños y medianos instalados en rascacielos y parques de oficinas quizás no tengan esta opción. Normalmente tienen que adaptarse a los sistemas de refrigeración de los propios edificios (o a la falta de los mismos). Por tanto, en estas instalaciones, el centro de datos está limitado en su (in)capacidad para usar refrigeración de alta densidad de manera eficiente. De hecho, algunos edificios no usan ni ofrecen agua para los condensadores durante el invierno y algunos, nunca.

A menudo, cuando se diseña la planta de las oficinas, el centro de datos es relegado al espacio que nadie quiere. A veces, el departamento de TI no tiene voz ni voto en la decisión. El resultado es que el tamaño y la forma del centro de datos puede no ser el ideal para la instalación de los racks y los sistemas de refrigeración. Cuando su organización estudie mudar las oficinas a otro espacio, además de cómo luce el vestíbulo, debería tener en consideración la capacidad del nuevo edificio para satisfacer las necesidades del centro de datos

En resumen
No existe ninguna respuesta perfecta para el reto de la refrigeración y la eficiencia energética. No obstante, un examen cuidadoso de las condiciones existentes y de las soluciones y técnicas de optimización posibles pueden llevar a mejorar sensiblemente el funcionamiento del sistema de refrigeración de nuestro centro de datos. Algunas de los soluciones no cuestan nada, mientras que otras tienen un costo nominal, pero todas ellas tendrán un efecto positivo. Tanto si dispone usted de 50 como de 500 metros cuadrados, si hacen las cosas bien, la eficiencia energética de su centro de datos mejorará. También aumentará el tiempo de actividad (uptime) porque los equipos estarán mejor refrigerados y los sistemas de enfriamiento no tendrán que trabajar con tanto esfuerzo. No se haga “verde” sólo porque está de moda. En este caso es necesario hacerlo para responder al desafío de la refrigeración de alta densidad y reducir el costo energético.


ACERCA DEL AUTOR: Julius Neudorfer es director tecnológico de NAAT desde su creación, en 1987, además de ser uno de sus principales fundadores. Ha diseñado y gestionado proyectos de comunicaciones y sistemas de información para clientes comerciales y gubernamentales.

El rol de CobIT 5 en la estrategia de seguridad informática

Tomado de: ARTICULO ORIGINAL


La adopción del concepto BYOD (Bring Your Own Device) en América Latina es algo que aún está a medio camino. Al menos así se demuestra en la más reciente encuesta de riesgos realizada por ISACA a nivel internacional, y en donde las respuestas de los participantes de México y América Latina dejan ver que la consumerización, o el uso de dispositivos personales para fines de trabajo, no es del todo aceptado.

De acuerdo con la encuesta, poco más de la mitad de los respondientes en América Latina (52%) considera que los riesgos de utilizar dispositivos móviles para transportar datos corporativos son mayores que los beneficios que se podrían obtener. En México, esta cifra es un poco mayor (57%).


Sin embargo, cabe resaltar que 44% de las respuestas de los encuestados latinoamericanos indican que su organización no cuenta con políticas de seguridad para la gestión de los dispositivos móviles. En México, el número de compañías que no cuenta con políticas de seguridad aumenta a 47%, lo cual deja ver que el temor de los administradores de TI sobre el uso de BYOD puede estar relacionado con un desconocimiento sobre la forma en que pueden controlar el acceso a los datos corporativos desde estos dispositivos.


Sin embargo, organizaciones sin fines de lucro y asociaciones internacionales, como ISACA, promueven constantemente el uso de mejores prácticas, toda vez que generan documentación de valor con metodologías apegadas a estándares internacionales. En este sentido, ISACA liberó recientemente la nueva versión para el framework CobIT, el cual integra ahora lineamientos sobre gestión de riesgos y seguridad de la información.


SearchDataCenter en Español platicó con Salomón Rico, miembro del consejo de conocimiento de ISACA en México, sobre las actualizaciones a CobIT 5 y la forma en que este estándar apoya a las organizaciones en la planeación e implementación de su estrategia de seguridad informática.

SDC: ¿Cuál es la diferencia entre CobIT 5 y otros estándares internacionales?


SR: La seguridad no funciona si no se aplica un modelo. El principal valor de CobIT 5 es precisamente la gran diversidad de modelos y estándares a nivel global, resultado del trabajo de un gran grupo de practicantes de diversas regiones geográficas, quienes analizan y desarrollan un paraguas general que abarca estándares específicos para seguridad, riesgos, etc.


El principal valor agregado es que no pretende sustituir los frameworks usados en las empresas, sino aportar elementos adicionales como el tema de madurez en los procesos de TI (ahora denominados capacidades en los procesos). CobIT 5 ofrece una visión holísitca en temas de gestión y gobierno, que se complementa con guías o publicaciones adicionales, específicas, para temas de riesgos, cumplimiento, aseguramiento, gobierno de TI, etc.


CobIT 5 integra el framework de riesgos anteriormente llamado Risk IT, y la evolución se denominará CobIT 5 for Risk Management. De la misma manera, las publicaciones sobre aseguramiento cubrirán temas de auditoría.

SDC: ¿Cómo ayuda la implementación de CobIT 5 para que las organizaciones enfrenten amenazas de seguridad, como ataques DDoS y APT?


SR: CobIT 5 tiene un enfoque integral y holístico que abarca aspectos que suelen perderse de vista en las empresas, proporcionando habilitadores que indican cuándo se necesitan procesos, recursos, marcos normativos, personal, servicios de TI, aplicaciones, infraestructura, etc. Me parece que ese es el principal valor de este framework, la forma en que esos habilitadores, desde la perspectiva de seguridad informática, deben ser considerados dentro de un negocio; ahí es donde se percibe si hay políticas o procesos que se escapan y es posible, entonces, adoptar un enfoque completamente holístico.

SDC: ¿Cuál es el nivel de adopción de CobIT en América Latina?


SR: Históricamente, CobIT desde su lanzamiento se ha convertido en estándar de facto en muchas geografías, aunque generalmente las empresas reguladas son las primeras en adoptar el modelo de control CobIT, me refiero a reguladas por la bolsa, por ejemplo, o como el sector financiero; estas empresas, además, pueden implementar iniciativas de ITIL e ISO 27000.


La realidad geográfica de Latinoamérica muestra dos grupos: las empresas reguladas y las demás, y no me queda duda de que en el sector de las empresas reguladas, el estándar es CobIT. Pero en el mundo de las empresas no reguladas (aproximadamente un 80% de las compañías en la región) los estándares suelen adoptarse si están buscando mejores prácticas o porque ven lo que están haciendo los demás; ahí el nivel de adopción aún es muy bajo, es donde más labor hay que hacer.

SDC: ¿Qué tipo de capacitación o certificaciones acompañan a la nueva versión de CobIT?


SR: Además de CRISC y CobIT 5, se está trabajando no en un certificado de experiencia sino en una constancia de conocimientos y se está promoviendo masivamente el tema de fundamentos de CobIT 5. Además, ISACA busca llegar más lejos en cuanto a la certificación para las empresas, algo que ya está en evaluación.

SDC: ¿En qué más está trabajando ISACA?


SR: El tema de la privacidad de los datos y la información. Hoy ISACA está trabajando mucho en empezar a generar contenido y modelos que resuelvan la problemática de la privacidad de la información, algo que está surgiendo en todos los países. Se están desarrollando contenidos relacionados con este tema, además de publicaciones sobre auditoría y riesgos, pero el tema de privacidad es un tópico caliente y se está trabajando mucho en liberar algo para los profesionales.

SDC: En este sentido, la más reciente encuesta de Prioridades de TI realizada por TechTarget arrojó que el tema de la protección de datos acapara la atención y las estrategias de 77% de los CIO y gerentes de TI en México y América Latina.


A esta preocupación le siguen la gestión de accesos e identidades (53%), la seguridad de redes (52%), la detección y control de amenazas (43%), la seguridad de las aplicaciones (41%) y la gestión de vulnerabilidades (40%).

En este contexto, ¿cuáles son las mejores prácticas o recomendaciones para que las empresas se protejan contra amenazas cibernéticas?

SR: La principal, en mi experiencia, es que lo más fácil es que la implementación es más fácil cuando el dueño o director general de una organización es quien adopta la bandera de buenas prácticas de gobierno para el negocio; de otro modo, difícilmente van a caminar las iniciativas que tienen que ver con TI o seguridad de la información. El enfoque tiene que ser obligado desde arriba hacia abajo, pero cuando es necesario que el área de TI impulse la iniciativa hay varios caminos, como el del terror (ése de espantar a los ejecutivos para conseguir la atención); sin embargo, creo que funciona más el realizar ejercicios sobre el valor de la información, que frecuentemente no se hace en las áreas de TI.


Cuando se logran establecer métricas sobre el valor de la información y el impacto de no tenerla disponible, es cuando se gana el patrocinio hacia iniciativas relacionadas. Cuando no hay un requerimiento de cumplimiento, no hay leyes, entonces el camino será demostrar el valor de la información; ésa es mi sugerencia.


Por otro lado, ISACA continuamente genera publicaciones para satisfacer las perspectivas del responsable del gobierno de TI, del responsable de aseguramiento, el de gestión y control de riesgos y el usuario de TI.

lunes, mayo 06, 2013

Los 3 requerimientos apremiantes del CIO


Tomado de: ARTICULO ORGINAL
Los gerentes de Tecnología se ven abocados a grandes requerimientos de alineación, reducción de costos y adaptación de nuevas tecnologías que deben resolver para garantizar el cumplimiento de sus objetivos

No se discute que tener acceso a tecnologías de información es lo que diferencia a las empresas más productivas de las menos productivas, sin embargo no por tener a disposición esta tecnología, se está libre de dificultades y problemas.


Cuando iniciamos nuestros talleres de Planeación Estratégica de Tecnología Informática, en la sesión de presentación de los asistentes solicitamos nos indiquen cuál es el mayor problema que están enfrentando y tratamos durante el taller de proveer herramientas que les permitan resolver estas dificultades.

Curiosamente indistinto del país o la ciudad de América Latina que dictemos el taller, los problemas y requerimientos más apremiantes tienen un hilo conductor. Queremos compartir con ustedes lo que recogemos en los talleres, junto con las conclusiones a las que llegamos.

Alineación de TI con el negocio 

Es la que está a flor de labio. La mayoría, por no decir todos, manifiestan esta como una necesidad apremiante. Y no es extraño, las estadísticas de varios estudios señalan esta alineación como uno de los objetivos en la lista de los top 10 durante los últimos cinco años. Surge sin embargo la necesidad de poder identificar exactamente qué es esta alineación que se pretende. Existen varias herramientas diagnósticas para estructurar esta alineación, que en términos prácticos implica que las tecnologías de información y comunicaciones que estén en pié apalanquen los resultados de la organización, y permitan el logro de sus objetivos, no que solo sean reflejo de hechos históricos. 

Esta alineación también se manifiesta en requerimientos como la necesidad de crecer al mismo ritmo que la compañía y/o apalancar este crecimiento. Hoy es claro que los procesos transaccionales deben trabajarse sobre sistemas de información para poder ser óptimos en cuanto a costo de los mismos. 

El dinero para TI es una inversión y no un gasto 

Cada vez hay más exigencias sobre el departamento de TI para hacer más con menos. Se exigen mayores resultados y mejores soportes al negocio, pero los recursos se tildan de “exagerados” por lo que se exige una reducción en los mismos. 

Lo primero que se debe hacer es generar una conciencia que la tecnología en pié en la compañía no es para el departamento de TI sino para el soporte del negocio. Se sugieren dos actividades que permiten crear esta conciencia.

La primera es distribuir todo el presupuesto de TI que se aplica para soportar las actividades actuales, es decir el gasto operativo de TI entre los usuarios. No existe un único factor para distribución y es probable que en este punto haya varias opiniones. Lo que importa es escoger los factores y mantenerlos durante todo el proceso. 

La otra actividad es que los recursos para los nuevos proyectos deben venir del área del negocio que se beneficiará del mismo. Es más, cada proyecto que se solicite a la empresa, que requiera recursos de TI para su ejecución, deberá contar primero con el presupuesto asignado y el proyecto aprobado, antes de emprender actividades de desarrollo. 

Adoptar los constantes cambios en tecnología 

A veces quisiera uno detener este desarrollo siquiera unos seis meses para tomar un respiro, pero no deja de ser más que un buen deseo. Las tecnologías seguirán apareciendo y la aplicación de las mismas se hará cada vez más necesarias en todos los negocios. 

La mejor manera poder prepararse para adoptar estos cambios, en caso que los requiera la compañía, es trabajar en la estructuración de una arquitectura tecnológica basada en estándares. De esta manera cualquier desarrollo tecnológico que surja, si está sujeto a estándares, podrá ser acoplado a las soluciones actuales. Un ejemplo claro es el uso de TCP/IP como estándar de conexión. Cualquier dispositivo que use una dirección IP para conectarse podrá hacerlo sin tropiezo alguno. 

No conocemos mejor manera para resolver esta problemática que construyendo o revisando sus planes estratégicos de tecnología que deben estar conformados precisamente para responder estas preguntas. Permitirá iniciar la conciencia sobre el verdadero papel del área de TI en el negocio, y asignar la responsabilidad para la obtención del beneficio de la tecnología aplicada en los departamentos adecuados. 
 

Los 3 requerimientos apremiantes del CIOImprimirE-mail


viernes, mayo 03, 2013

10 cosas que todo Arquitecto debe saber..


Como mucha gente sabe una de mis pasiones es la vertiente más tecnológica de la Ingeniería del Software, personificada en el concepto de Arquitectura. Antes de nada os dejo una pequeña reflexión.

Cuando hablo de Concepto Arquitectura pienso, sobre todo, en que cada día se demuestra más la tendencia a que vamos a una ingeniera del software gobernada por la Arquitectura, y sin embargo desde el punto de vista del usuario de negocio, esto tiene que dejar de existir ya. La tecnología debe dejar de ser una barrera, sobre todo en cuanto a su continua evolución, y cada día vemos más empresas manteniendo viejos sistemas, aunque es mejor que migrarlos todos cada poco.. no es la solución.

Para mi cada vez esta más claro que el éxito de las arquitecturas empresariales viene dado por pensar en una clara orientación a servicios (SOA) , (quizás es pronto para orientación a eventos EDA) para acabar llegando a BPM. Donde el usuario de negocio debe ser capaz de definir sus propios procesos de negocio… que si ¡!! que esto es viable, preguntar a BEA.

Tenemos que pensar que no podemos construir un BPM como primer paso, sino empezar a pensar en una estructura de Gobierno SOA sobre la cual vayamos creciendo hasta tener una suficiente estructura de servicios de negocio, que nos permitan montar BPM. Por tanto el modo de llegar es ir dando pasos.. no esperar a empezar los últimos la carrera.

A donde quería llegar, sobre las arquitecturas, es proporcionaros un interesante documento que ha llegado a mis manos, el cual se titula “ 10 cosas que todo arquitecto debe saber” y la verdad es que son ciertamente interesantes:

1. La base esta en las personas.

2. Todas las soluciones llegan a ser obsoletas.

3. Los Datos son para siempre.

4. La flexibilidad genera complejidad.

5. Nada funciona según se esperaba.

6. La documentación es el codigo fuente universal.

7. Conozca el negocio.

8. Mantenga la visión.

9. Los arquitectos deben ser programadores.

10. La experiencia es insustituible.

Sobre cada una existen frases reflexivas, que realmente dan que pensar.