lunes, 2 de junio de 2014

RESEÑA Y DESARROLLOS DATACENTERS

VARIABLES DE DESARROLLO DE LOS DATACENTER


Las variables datacenter se califican referente a su certificación en este caso se mostrarán las características esenciales de un Data Center Tier IV, siendo esta la mejor calificación para ella:

Disponibilidad: La disponibilidad de un Data Center Tier IV es del 99.995%; lo que indica que no está garantizado su disponibilidad durante 26 minutos al año. En el escalón inferior tenemos al Data Center Tier III con una disponibilidad del 99.982%; lo que indica una indisponibilidad durante 95 minutos (1 hora y media, 3 veces más). La disponibilidad de un Data Center Tier IV se calcula con la probabilidad de un accidente importante cada 5 años. Sin embargo la disponibilidad de un Data Center Tier IV no refleja necesariamente la disponibilidad de una aplicación o de un servicio alojado que puede variar según la plataforma utilizada. Cuando hablamos de disponibilidad del Data Center Tier IV nos referimos a los servicios típicos de un Data Center: comunicaciones, almacenamiento, fuente de alimentación, refrigeración, etc.

Redundancia: Un Data Center Tier IV está básicamente pensado para que cada servidor de un sala IT tenga una doble fuente de alimentación eléctrica independiente y activa a la vez. Se basa en un sistema de suministro eléctrico que se calcula con la base instalada de servidores y que se replica enteramente con un margen adicional (del 10% por ejemplo) para nunca tener el sistema eléctrico a pleno uso de su capacidad total. Se replican también los medios de acceso de las comunicaciones con una doble cometida de fibra que enlaza con 2 centrales de comunicación distintas. No se comparten nunca los recursos de respaldo como en un Data Center Tier III dónde instalamos solamente una capacidad adicional que se puede compartir en caso de fallo.

Escalabilidad: Un Data Center Tier IV tiene que ser modular; lo que permite la escalabilidad. Cada módulo con una o varias salas IT funciona de manera independiente. Se puede añadir módulos al Data Center sin interrupción de servicio y sin que afecten a los módulos existentes. Un Data Center Tier IV debe también tener la capacidad de aumentar la capacidad eléctrica de las salas IT en función del consumo.

Enfriamiento: Se realiza el enfriamiento de las salas IT de un Data Center a través de la circulación de aire en el entre-suelo dónde se instala el cableado eléctrico. Ese enfriamiento se hace utilizando el poder calorífico del aire exterior mezclándolo con el aire del Data Center para conseguir ahorro de energía.

Eficiencia: La eficiencia de un Data Center se mide con la relación que existe entre la energía que recibe el Data Center y la energía que se emplea realmente en la sala IT. Teóricamente esa relación debería igualarse a 1. En la realidad un Data Center Tier IV alcanza unos niveles próximos a 1,2 - 1,4

Precio: La eficiencia de un Data Center en la utilización de la energía es una manera de contener el gasto de operación y mantenimiento que se puede transferir al usuario final en caso de explotación comercial.

Datacenter

DESARROLLO HISTÓRICO


Los primeros Data Centers se diseñaron siguiendo las arquitecturas clásicas de informática de red, en las que los equipos eran “apilables” en mesas, armarios o racks. La necesidad de fácil gestión y de optimización del espacio han hecho que se evolucione hacia sistemas basados en equipos cuyas dimensiones permiten aprovechar al máximo el volumen disponible en los racks (equipos “enracables”), logrando una alta densidad de equipos por unidad de espacio.
Los Data Center iniciales tampoco estaban diseñados para proporcionar facilidades de red avanzadas, ni los requerimientos mínimos de ancho de banda y velocidad de las arquitecturas actuales.


Data Centers en la decada de 1960: Antes de 1960 (1945), el ejército desarrolló una gran máquina llamada ENIAC (electronic Numerator, Integrator, Analyzer and Computer):
- Pesaba 30 toneladas
- Tomó hasta 1800 pies cuadrados o espacio
- Se requería 6 técnicos a tiempo completo para que siga funcionando
- Realizaba 5.000 operaciones por segundo

Hasta la década de 1960, las computadoras se utilizaban principalmente por las agencias gubernamentales. Eran grandes mainframes almacenados en habitaciones - lo que llamamos hoy "centro de datos". A partir de 1960, los ordenadores convertidos de tubo de vacío a dispositivos en estado sólido como el transistor, que duran mucho más tiempo, son más pequeños, más eficientes, más fiable y más barato que los dispositivos de tubo de vacío equivalentes.
A principios de la década de 1960 muchos equipos costaban alrededor de $ 5 millones cada uno y de ellos podría ser alquilado por $ 17.000 por mes. A mediados de la década de 1960, el uso del ordenador desarrollado comercialmente y fue compartida por varias partes.
American Airlines e IBM se unieron para desarrollar un programa de reservas denomina el sistema “Sabre”. Este sistema revolucionario fue la primera aplicación de negocio en tiempo real, y permitió a American Airlines reemplazar el sistema de reservas de pasajeros escritos a mano de la década de 1950 con el sistema de reservas automatizado para el futuro.
El sistema fue instalado en dos ordenadores IBM 7090, que se encuentra en un centro de computación especialmente diseñado en Briarcliff Manor, Nueva York. El sistema de computadora central del estado de la técnica de procesado de 84.000 llamadas telefónicas por día. La investigación, el desarrollo y la instalación de la inversión inicial en este sistema tomó 400 años-hombre de esfuerzo, a un costo de desarrollo de casi EE.UU. $ 40 millones.

Data Centers en la decada de 1970: En 1971, Intel lanzó el primer microprocesador comercial del mundo: el 4004. Centros de datos en los EE.UU. comenzaron a documentar los planes formales de recuperación ante desastres en 1973. Si algún desastre ocurriera, que no necesariamente afecta las operaciones de negocio, como la mayoría de las funciones manejadas por computadoras eran deberes bookkeping después de los hechos. Estas funciones son operaciones por lotes y no de naturaleza compleja.
En 1978, SunGuard desarrolló la primera actividad comercial de recuperación de desastres, un arrendado de 30.000 metros cuadrados de espacio en el 401 Broad Street, donde todavía están ubicados.
En 1973, la minicomputadora Xerox Alto fue un paso histórico en el desarrollo de las computadoras personales debido a su interfaz gráfica de usuario, la pantalla de mapa de bits de alta resolución, gran memoria de almacenamiento interno y externo, un ratón y un software especial.
En 1977, la primera red de área local disponible en el mercado del mundo, ARCnet se puso en servicio en el Chase Manhattan Bank, Nueva York, como beta-sitio. Era el más simple y menos costoso tipo de red de área local utilizando la arquitectura de red en anillo, que admite velocidades de 2,5 Mbps de datos y conectar hasta 255 computadoras.
Mainframes requerían refrigeración especial y en la década de 1970, los equipos refrigerados por aire, se trasladaron a las oficinas. En consecuencia, los centros de datos murieron.
Data Centers en la decada de 1980: Durante la década de 1980, la industria de la computación experimentó el auge de la era microordenador gracias al nacimiento de la IBM Personal Computer (PC).  Éstas Computadoras se instalaron en todas partes, y se prestó poca atención a las necesidades ambientales y de funcionamiento específico de las máquinas.  A partir de 1985, IBM proporcionó más de $ 30 millones en productos y apoyo a lo largo de 5 años en un centro de supercomputadoras establecido en la Universidad de Cornell en Ithaca, Nueva York.
En 1988, IBM presenta el IBM System/400 Aplicación (AS/400), y se convierte rápidamente en uno de los sistemas de computación de negocios más populares del mundo. Como las operaciones de tecnología de la información comenzó a crecer en complejidad, las empresas crecieron conscientes de la necesidad de controlar los recursos de TI.
Data Centers en la decada de 1990: Microinformática (ahora llamado "server") comenzaron a encontrar su lugar en las antiguas salas de ordenadores y fueron siendo llamados "centros de datos." Las compañías estaban poniendo las salas de servidores dentro de sus paredes empresa con la disponibilidad de equipos de red de bajo costo. El auge de los centros de datos se produjo durante la burbuja de las punto-com.  Las empresas necesitan conectividad a Internet rápido y un funcionamiento ininterrumpido de implementar sistemas y establecer una presencia en Internet. Muchas empresas comenzaron a construir grandes instalaciones para ofrecer a las empresas una amplia gama de soluciones para la implementación y operación de los sistemas. Rackspace Hosting abrió su primer centro de datos a las empresas en 1999.
Data Centers en la decada de 2000: A partir de 2007, el centro de datos promedio consume tanta energía como 25.000 hogares. Hay 5,75 millones de nuevos servidores desplegados cada año. El número de centros de datos del gobierno ha pasado de 432 en 1999 a 1,100 + hoy.


Los centros de datos representan el 1,5% del consumo de energía de EE.UU. y la demanda está creciendo 10% por año. Facebook lanzó el Proyecto OpenCompute, que cuenta con características a su Prineville, Oregon centro de datos que utiliza 38% menos energía para hacer el mismo trabajo que el resto de sus instalaciones, mientras que cuesta un 24% menos.

TENDENCIA Y MERCADO DATACENTER

Data centers en Colombia: una apuesta por el desarrollo y la sostenibilidad. El mercado de los centros de datos colombianos enfrenta 2013 asumiendo el reto de la eficiencia energética. Esta preocupación queda patente tanto en los proyectos ya existentes como en los de nueva creación. El sector es consciente de ello y está empleando soluciones que permitan alcanzar ese objetivo.
Precisamente las plataformas DCIM, cada vez más extendidas en la región, parecen la mejor opción para incrementar los ratios de eficiencia. Esta tendencia no es la única que se percibe en Colombia. El uso generalizado de hosting, virtualización y outsourcing es otra de las claves del sector de data centers.
El interés por el desarrollo de los centros de datos es más que patente en Colombia. De hecho, el sector de las nuevas tecnologías ocupa un lugar preferente. El país tiene registradas más de 2.600 empresas TIC y el gobierno ha fomentado su impulso mediante acuerdos de inversión y tratados de libre comercio.
Buena prueba de ello es la proliferación de las zonas francas, consideradas la 6º locomotora del país y destino elegido por numerosas empresas para instalar allí sus centros de datos.

Si 2013 fue catalogado en el mercado de las Tecnologías de la Información (TI) como el año de la innovación, el 2014 no sólo significará una profundización de tal concepto sino también un período en que se vivirá con mayor intensidad el proceso de transformación que viene dándose en la actual década.
Esto explica por qué la inversión en TI por parte de las empresas se mantendrá este año en pleno crecimiento a nivel global, teniendo en los servicios Cloud y los data centers dos de los principales ejes donde se materializa la tendencia TI más relevante de la actualidad: la transición hacia la llamada “tercera plataforma”.

Según cifras dadas a conocer en el reporte de Predicciones 2014 de IDC se prevé que en este año el mercado mundial de las TI tenga una expansión de un 5,1% respecto del período anterior, cimentada en el crecimiento de los servicios y tecnologías Cloud y de Big Data, que aumentarán en un 25% y un 30%, respectivamente.

La “tercera plataforma” se refiere a un conjunto de tecnologías y servicios relacionados con las cuatro claves que orientan la inversión de las empresas: Cloud Computing, Big Data, Social Business y Mobility. Son conceptos que están entrelazados y que, de una u otra manera, responden a la necesidad de hacer disponible la información empresarial en cualquier dispositivo, momento y lugar como principal imperativo.
En tal sentido, este proceso de transformación tiene como “epicentro”, por así denominarlo, al data center, el que permite a las organizaciones contar con servicios basados en la nube que tengan la capacidad de hacer disponible la información en diversas plataformas, mientras se automatizan procesos y se reducen los gastos en mantenimiento. En este contexto no es casual que se espere un buen dinamismo en el mercado de TI este año y en lo que resta de la década, ya que los data centers viven y seguirán viviendo un cambio evolutivo importante.

Apalancado por esta “tercera plataforma”, los data center están rompiendo paulatinamente con las limitaciones tradicionales que las empresas encontraban en su infraestructura de TI, abriéndoles el paso a una innovación real en sus procesos de negocios y facilitándoles el camino al incremento de las capacidades de procesamiento, almacenamiento y gestión de los servicios de TI de una forma más vinculada a sus requerimientos reales.


En este fenómeno, sin duda, la virtualización ha jugado un rol determinante, al hacer posible y conjugar la reducción de costos en los data centers con una mayor eficiencia y rendimiento de la infraestructura. Por ello, la virtualización no sólo se relaciona hoy con los servidores sino que sigue expandiéndose dentro del centro de datos abarcando también el almacenamiento, la red y el procesamiento. Todo ello representa hoy una drástica evolución, que significa no sólo una optimización de recursos sino muy especialmente una mayor agilidad, la cual, a su vez, permite a un universo mayor de organizaciones acceder a las ventajas que entregan las TI, convirtiéndolas en un aliado aún más estrecho del negocio a través de una innovación permanente.

PLANES DE ACCION DE DATACENTER EN COLOMBIA

La demanda por servicios de colocation, alojamiento, hosting, seguridad y comunicaciones de valor agregado continúa creciendo en Colombia a medida que las empresas incrementan la adopción de aplicaciones basadas en la nube. Es así como desde 2011 han obtenido un crecimiento continuo de alrededor del 13%. Para Ricardo Imbacuán, Gerente de Columbus Colombia “El mercado de servicios de Datacenter en Colombia tiene un grado de madurez importante, donde las multinacionales invierten en este tipo de servicios para sus operaciones locales y como hub central para la región. Los proveedores lo utilizan para prestar servicios fuera del país”.

Para los servicios de datacenter el sector de banca y finanzas es el más importante con el 26.4% de los ingresos totales en el 2013 (USD 51.3 Millones) en especialmente jalonado por el crecimiento de banca en línea, banca móvil, y la entrada de nuevos jugadores en el mercado.
Por su parte, el sector de IT y Telecomunicaciones es  la segunda vertical en importancia a nivel de ingresos en servicios de datacenter, donde en los últimos años compañías desarrolladoras de software, de testing de software y de contenido han tercerizado servicios de Datacenter.  Al 2013 esta vertical representa el 25.4% de los ingresos totales.
Mientras que el gobierno es la tercera en adopción de servicios de Datacenter, impulsado por el proceso de modernización del estado, el programa Gobierno en Línea y el Programa Vive Digital. Estos modelos han sido referentes en América Latina, donde Colombia ocupa  el primer lugar en América Latina del Índice de Gobierno Electrónico según Naciones Unidas.

Columbus es una empresa especializada en la tercerización de servicios de Telecomunicaciones y de Infraestructuras tecnológicas. Actualmente cuenta con 800 clientes en Colombia que incluyen empresas grandes y medianas, de todos los sectores económicos, lo que le ha brindado experiencia en la atención de las necesidades de las diferentes empresas.

Columbus Bussines Solutions ofrece una solución integral para que los negocios de sus clientes sigan creciendo con la disponibilidad de espacio, energía y  servicios adecuados para satisfacer sus necesidades, ayudándolos, a reducir sus gastos operativos, de administración y  mantenimiento. Estos servicios incluyen el alquiler de espacios y equipos, el almacenamiento de data con altos niveles de seguridad, monitoreo y soporte por especialistas que garantizan la continuidad de los negocios de sus clientes.
Imbacuán, explica que “los servicios de telecomunicaciones requieren de constantes y muy altas inversiones así como de licencias y permisos emitidos por el regulador. Compañías como Columbus construyeron modelos de negocios en tecnología y telecomunicaciones que ofrecen servicios costo/efectivos sin sacrificar calidad, disponibilidad y servicio, permitiendo así nuevamente que las compañías se enfoquen en un desarrollo más estratégico de sus negocios. Definitivamente, es una propuesta Gana-Gana, el cliente recibe el servicio, asesoría y precio que busca y Columbus maximiza y hace más eficiente el uso de sus activos y de la cadena de valor”.

No hay comentarios:

Publicar un comentario