VARIABLES DE DESARROLLO DE LOS DATACENTER
Las variables datacenter se
califican referente a su certificación en este caso se mostrarán las características
esenciales de un Data Center Tier IV, siendo esta la mejor calificación para
ella:
Disponibilidad: La disponibilidad de un Data Center Tier IV es del
99.995%; lo que indica que no está garantizado su disponibilidad durante 26
minutos al año. En el escalón inferior tenemos al Data Center Tier III con una
disponibilidad del 99.982%; lo que indica una indisponibilidad durante 95
minutos (1 hora y media, 3 veces más). La disponibilidad de un Data Center Tier
IV se calcula con la probabilidad de un accidente importante cada 5 años. Sin
embargo la disponibilidad de un Data Center Tier IV no refleja necesariamente
la disponibilidad de una aplicación o de un servicio alojado que puede variar
según la plataforma utilizada. Cuando hablamos de disponibilidad del Data
Center Tier IV nos referimos a los servicios típicos de un Data Center:
comunicaciones, almacenamiento, fuente de alimentación, refrigeración, etc.
Redundancia: Un Data Center Tier IV está básicamente pensado para
que cada servidor de un sala IT tenga una doble fuente de alimentación
eléctrica independiente y activa a la vez. Se basa en un sistema de suministro
eléctrico que se calcula con la base instalada de servidores y que se replica
enteramente con un margen adicional (del 10% por ejemplo) para nunca tener el
sistema eléctrico a pleno uso de su capacidad total. Se replican también los
medios de acceso de las comunicaciones con una doble cometida de fibra que
enlaza con 2 centrales de comunicación distintas. No se comparten nunca los
recursos de respaldo como en un Data Center Tier III dónde instalamos solamente
una capacidad adicional que se puede compartir en caso de fallo.
Escalabilidad: Un Data Center Tier IV tiene que ser modular; lo que
permite la escalabilidad. Cada módulo con una o varias salas IT funciona de
manera independiente. Se puede añadir módulos al Data Center sin interrupción
de servicio y sin que afecten a los módulos existentes. Un Data Center Tier IV
debe también tener la capacidad de aumentar la capacidad eléctrica de las salas
IT en función del consumo.
Enfriamiento: Se realiza el enfriamiento de las salas IT de un Data
Center a través de la circulación de aire en el entre-suelo dónde se instala el
cableado eléctrico. Ese enfriamiento se hace utilizando el poder calorífico del
aire exterior mezclándolo con el aire del Data Center para conseguir ahorro de
energía.
Eficiencia: La eficiencia de un Data Center se mide con la relación
que existe entre la energía que recibe el Data Center y la energía que se
emplea realmente en la sala IT. Teóricamente esa relación debería igualarse a
1. En la realidad un Data Center Tier IV alcanza unos niveles próximos a 1,2 -
1,4
Precio: La eficiencia de un Data Center en la utilización de la
energía es una manera de contener el gasto de operación y mantenimiento que se
puede transferir al usuario final en caso de explotación comercial.
Datacenter
DESARROLLO HISTÓRICO
Los primeros Data Centers se
diseñaron siguiendo las arquitecturas clásicas de informática de red, en las
que los equipos eran “apilables” en mesas, armarios o racks. La necesidad de
fácil gestión y de optimización del espacio han hecho que se evolucione hacia
sistemas basados en equipos cuyas dimensiones permiten aprovechar al máximo el
volumen disponible en los racks (equipos “enracables”), logrando una alta
densidad de equipos por unidad de espacio.
Los Data Center iniciales tampoco
estaban diseñados para proporcionar facilidades de red avanzadas, ni los
requerimientos mínimos de ancho de banda y velocidad de las arquitecturas
actuales.
Data Centers en la
decada de 1960: Antes de 1960 (1945), el ejército desarrolló una gran
máquina llamada ENIAC (electronic Numerator, Integrator, Analyzer and
Computer):
- Pesaba 30 toneladas
- Tomó hasta 1800 pies cuadrados o espacio
- Se requería 6 técnicos a tiempo completo para que siga
funcionando
- Realizaba 5.000 operaciones por segundo
Hasta la década de 1960, las computadoras se utilizaban
principalmente por las agencias gubernamentales. Eran grandes mainframes
almacenados en habitaciones - lo que llamamos hoy "centro de datos". A
partir de 1960, los ordenadores convertidos de tubo de vacío a dispositivos en
estado sólido como el transistor, que duran mucho más tiempo, son más pequeños,
más eficientes, más fiable y más barato que los dispositivos de tubo de vacío
equivalentes.
A principios de la década de 1960 muchos equipos costaban
alrededor de $ 5 millones cada uno y de ellos podría ser alquilado por $ 17.000
por mes. A mediados de la década de 1960, el uso del ordenador desarrollado
comercialmente y fue compartida por varias partes.
American Airlines e IBM se unieron para desarrollar un
programa de reservas denomina el sistema “Sabre”. Este sistema revolucionario
fue la primera aplicación de negocio en tiempo real, y permitió a American
Airlines reemplazar el sistema de reservas de pasajeros escritos a mano de la
década de 1950 con el sistema de reservas automatizado para el futuro.
El sistema fue instalado en dos ordenadores IBM 7090, que se
encuentra en un centro de computación especialmente diseñado en Briarcliff
Manor, Nueva York. El sistema de computadora central del estado de la técnica
de procesado de 84.000 llamadas telefónicas por día. La investigación, el
desarrollo y la instalación de la inversión inicial en este sistema tomó 400
años-hombre de esfuerzo, a un costo de desarrollo de casi EE.UU. $ 40 millones.
Data Centers en la
decada de 1970: En 1971, Intel lanzó el primer microprocesador comercial
del mundo: el 4004. Centros de datos en los EE.UU. comenzaron a documentar los
planes formales de recuperación ante desastres en 1973. Si algún desastre
ocurriera, que no necesariamente afecta las operaciones de negocio, como la
mayoría de las funciones manejadas por computadoras eran deberes bookkeping
después de los hechos. Estas funciones son operaciones por lotes y no de
naturaleza compleja.
En 1978, SunGuard desarrolló la primera actividad comercial
de recuperación de desastres, un arrendado de 30.000 metros cuadrados de
espacio en el 401 Broad Street, donde todavía están ubicados.
En 1973, la minicomputadora Xerox Alto fue un paso histórico
en el desarrollo de las computadoras personales debido a su interfaz gráfica de
usuario, la pantalla de mapa de bits de alta resolución, gran memoria de
almacenamiento interno y externo, un ratón y un software especial.
En 1977, la primera red de área local disponible en el
mercado del mundo, ARCnet se puso en servicio en el Chase Manhattan Bank, Nueva
York, como beta-sitio. Era el más simple y menos costoso tipo de red de área
local utilizando la arquitectura de red en anillo, que admite velocidades de
2,5 Mbps de datos y conectar hasta 255 computadoras.
Mainframes requerían refrigeración especial y en la década
de 1970, los equipos refrigerados por aire, se trasladaron a las oficinas. En
consecuencia, los centros de datos murieron.
Data Centers en la
decada de 1980: Durante la década de 1980, la industria de la computación
experimentó el auge de la era microordenador gracias al nacimiento de la IBM
Personal Computer (PC). Éstas
Computadoras se instalaron en todas partes, y se prestó poca atención a las
necesidades ambientales y de funcionamiento específico de las máquinas. A partir de 1985, IBM proporcionó más de $ 30
millones en productos y apoyo a lo largo de 5 años en un centro de supercomputadoras
establecido en la Universidad de Cornell en Ithaca, Nueva York.
En 1988, IBM presenta el IBM System/400 Aplicación (AS/400),
y se convierte rápidamente en uno de los sistemas de computación de negocios
más populares del mundo. Como las operaciones de tecnología de la información
comenzó a crecer en complejidad, las empresas crecieron conscientes de la
necesidad de controlar los recursos de TI.
Data Centers en la
decada de 1990: Microinformática (ahora llamado "server")
comenzaron a encontrar su lugar en las antiguas salas de ordenadores y fueron
siendo llamados "centros de datos." Las compañías estaban poniendo
las salas de servidores dentro de sus paredes empresa con la disponibilidad de
equipos de red de bajo costo. El auge de los centros de datos se produjo
durante la burbuja de las punto-com. Las
empresas necesitan conectividad a Internet rápido y un funcionamiento
ininterrumpido de implementar sistemas y establecer una presencia en Internet. Muchas
empresas comenzaron a construir grandes instalaciones para ofrecer a las
empresas una amplia gama de soluciones para la implementación y operación de
los sistemas. Rackspace Hosting abrió su primer centro de datos a las empresas
en 1999.
Data Centers en la
decada de 2000: A partir de 2007, el centro de datos promedio consume tanta
energía como 25.000 hogares. Hay 5,75 millones de nuevos servidores desplegados
cada año. El número de centros de datos del gobierno ha pasado de 432 en 1999 a
1,100 + hoy.
Los centros de datos representan el 1,5% del consumo de
energía de EE.UU. y la demanda está creciendo 10% por año. Facebook lanzó el
Proyecto OpenCompute, que cuenta con características a su Prineville, Oregon
centro de datos que utiliza 38% menos energía para hacer el mismo trabajo que
el resto de sus instalaciones, mientras que cuesta un 24% menos.
TENDENCIA Y MERCADO DATACENTER
Data centers en Colombia: una apuesta por el desarrollo y la
sostenibilidad. El mercado de los centros de datos colombianos enfrenta 2013
asumiendo el reto de la eficiencia energética. Esta preocupación queda patente
tanto en los proyectos ya existentes como en los de nueva creación. El sector
es consciente de ello y está empleando soluciones que permitan alcanzar ese
objetivo.
Precisamente las plataformas DCIM, cada vez más extendidas
en la región, parecen la mejor opción para incrementar los ratios de
eficiencia. Esta tendencia no es la única que se percibe en Colombia. El uso
generalizado de hosting, virtualización y outsourcing es otra de las claves del
sector de data centers.
El interés por el desarrollo de los centros de datos es más
que patente en Colombia. De hecho, el sector de las nuevas tecnologías ocupa un
lugar preferente. El país tiene registradas más de 2.600 empresas TIC y el
gobierno ha fomentado su impulso mediante acuerdos de inversión y tratados de
libre comercio.
Buena prueba de ello es la proliferación de las zonas
francas, consideradas la 6º locomotora del país y destino elegido por numerosas
empresas para instalar allí sus centros de datos.
Si 2013 fue catalogado en el mercado de las Tecnologías de
la Información (TI) como el año de la innovación, el 2014 no sólo significará
una profundización de tal concepto sino también un período en que se vivirá con
mayor intensidad el proceso de transformación que viene dándose en la actual
década.
Esto explica por qué la inversión en TI por parte de las
empresas se mantendrá este año en pleno crecimiento a nivel global, teniendo en
los servicios Cloud y los data centers dos de los principales ejes donde se
materializa la tendencia TI más relevante de la actualidad: la transición hacia
la llamada “tercera plataforma”.
Según cifras dadas a conocer en el reporte de Predicciones
2014 de IDC se prevé que en este año el mercado mundial de las TI tenga una expansión
de un 5,1% respecto del período anterior, cimentada en el crecimiento de los
servicios y tecnologías Cloud y de Big Data, que aumentarán en un 25% y un 30%,
respectivamente.
La “tercera plataforma” se refiere a un conjunto de
tecnologías y servicios relacionados con las cuatro claves que orientan la
inversión de las empresas: Cloud Computing, Big Data, Social Business y
Mobility. Son conceptos que están entrelazados y que, de una u otra manera,
responden a la necesidad de hacer disponible la información empresarial en
cualquier dispositivo, momento y lugar como principal imperativo.
En tal sentido, este proceso de transformación tiene como
“epicentro”, por así denominarlo, al data center, el que permite a las
organizaciones contar con servicios basados en la nube que tengan la capacidad
de hacer disponible la información en diversas plataformas, mientras se
automatizan procesos y se reducen los gastos en mantenimiento. En este contexto
no es casual que se espere un buen dinamismo en el mercado de TI este año y en
lo que resta de la década, ya que los data centers viven y seguirán viviendo un
cambio evolutivo importante.
Apalancado por esta “tercera plataforma”, los data center
están rompiendo paulatinamente con las limitaciones tradicionales que las empresas
encontraban en su infraestructura de TI, abriéndoles el paso a una innovación
real en sus procesos de negocios y facilitándoles el camino al incremento de
las capacidades de procesamiento, almacenamiento y gestión de los servicios de
TI de una forma más vinculada a sus requerimientos reales.
En este fenómeno, sin duda, la virtualización ha jugado un
rol determinante, al hacer posible y conjugar la reducción de costos en los
data centers con una mayor eficiencia y rendimiento de la infraestructura. Por
ello, la virtualización no sólo se relaciona hoy con los servidores sino que
sigue expandiéndose dentro del centro de datos abarcando también el
almacenamiento, la red y el procesamiento. Todo ello representa hoy una
drástica evolución, que significa no sólo una optimización de recursos sino muy
especialmente una mayor agilidad, la cual, a su vez, permite a un universo
mayor de organizaciones acceder a las ventajas que entregan las TI,
convirtiéndolas en un aliado aún más estrecho del negocio a través de una
innovación permanente.
PLANES DE ACCION DE DATACENTER EN COLOMBIA
La demanda por servicios de colocation, alojamiento,
hosting, seguridad y comunicaciones de valor agregado continúa creciendo en
Colombia a medida que las empresas incrementan la adopción de aplicaciones
basadas en la nube. Es así como desde 2011 han obtenido un crecimiento continuo
de alrededor del 13%. Para Ricardo Imbacuán, Gerente de Columbus Colombia “El
mercado de servicios de Datacenter en Colombia tiene un grado de madurez
importante, donde las multinacionales invierten en este tipo de servicios para
sus operaciones locales y como hub central para la región. Los proveedores lo
utilizan para prestar servicios fuera del país”.
Para los servicios de datacenter el sector de banca y
finanzas es el más importante con el 26.4% de los ingresos totales en el 2013
(USD 51.3 Millones) en especialmente jalonado por el crecimiento de banca en
línea, banca móvil, y la entrada de nuevos jugadores en el mercado.
Por su parte, el sector de IT y Telecomunicaciones es la segunda vertical en importancia a nivel de
ingresos en servicios de datacenter, donde en los últimos años compañías
desarrolladoras de software, de testing de software y de contenido han
tercerizado servicios de Datacenter. Al
2013 esta vertical representa el 25.4% de los ingresos totales.
Mientras que el gobierno es la tercera en adopción de
servicios de Datacenter, impulsado por el proceso de modernización del estado,
el programa Gobierno en Línea y el Programa Vive Digital. Estos modelos han
sido referentes en América Latina, donde Colombia ocupa el primer lugar en América Latina del Índice
de Gobierno Electrónico según Naciones Unidas.
Columbus es una empresa especializada en la tercerización de
servicios de Telecomunicaciones y de Infraestructuras tecnológicas. Actualmente
cuenta con 800 clientes en Colombia que incluyen empresas grandes y medianas,
de todos los sectores económicos, lo que le ha brindado experiencia en la
atención de las necesidades de las diferentes empresas.
Columbus Bussines Solutions ofrece una solución integral
para que los negocios de sus clientes sigan creciendo con la disponibilidad de
espacio, energía y servicios adecuados
para satisfacer sus necesidades, ayudándolos, a reducir sus gastos operativos,
de administración y mantenimiento. Estos
servicios incluyen el alquiler de espacios y equipos, el almacenamiento de data
con altos niveles de seguridad, monitoreo y soporte por especialistas que
garantizan la continuidad de los negocios de sus clientes.
Imbacuán, explica que “los servicios de telecomunicaciones
requieren de constantes y muy altas inversiones así como de licencias y
permisos emitidos por el regulador. Compañías como Columbus construyeron
modelos de negocios en tecnología y telecomunicaciones que ofrecen servicios
costo/efectivos sin sacrificar calidad, disponibilidad y servicio, permitiendo
así nuevamente que las compañías se enfoquen en un desarrollo más estratégico
de sus negocios. Definitivamente, es una propuesta Gana-Gana, el cliente recibe
el servicio, asesoría y precio que busca y Columbus maximiza y hace más
eficiente el uso de sus activos y de la cadena de valor”.
No hay comentarios:
Publicar un comentario