domingo, 8 de junio de 2014

IDEA DE PROYECTO Y RELACIÓN CON EL MODULO

Recolección de información de diferentes Sistemas CCTV (cámaras instaladas a nivel Nacional en Colombia en diferentes municipios, para la seguridad Ciudadana), en donde toda esta información llegue a un punto central en la Nube (servidor) para que todo el sistema sea unificado en un solo lugar y desde allí la policía pueda acceder a información de video de cualquier lugar del país en donde cuente con sistemas CCTV ya implementados.

Se vincula la idea con la virtualización de los Datacenter, en donde hay proveedores que ya proveen sistemas de Cloud Computing en donde se puede contar espacios suficientemente amplios para poder almacenar gran cantidad de información.

Se ve reflejado en las tendencias tecnológicas el cual nos muestran un avance en los medios de transmisión y la cantidad de información que se puede transportar actualmente alrededor de los Giga Bytes real.


Este proyecto podrá dejar hacer consultas desde cualquier parte del país de videos ya grabados con anterioridad o ver alguna cámara del Sistema en forma real online, en donde la policía podrá tener control de las mismas cámaras en cualquier parte, siempre y cuando tenga credenciales y autorización para ingresar a los sistemas. En este momento se maneja el monitoreo de manera local y se almacena la información localmente y remota por medio de servidores de data center de la policía, la idea de esta implementación es que se realice almacenamiento en la nube y se pueda obtener un ahorro en los data center reduciendo costos y dejando libre espacio en los data enter para información de más importancia.


miércoles, 4 de junio de 2014

RELACIÓN DE LAS TENDENCIAS TECNOLOGICAS EN DATACENTER

En relación con la arquitectura de NGN (Redes de próxima generación), observamos un gran crecimiento en las redes de fibra óptica en capacidad de transmisión, permitiendo la integración de la transmisión de muchos servicios y aplicativos por la misma red, (video, voz y datos), teniendo en cuenta que esta se conforma por las capas de transporte, servicios, control y la capa de gestión. En observamos el crecimiento de diferentes capas; como es la de transporte, permitiendo conmutaciones y transporte de datos mucho más rápido de un extremo a otro extremo por medio de protocolos de enrutamiento. La capa de acceso el cual puede ser inalámbrico, por diferentes tecnologías de XDSL, Fibra óptica, satelital. 
Se observa un gran crecimiento en todas estas tecnologías por medio del protocolo IP, en redes LAN, MPLS, entre otras, creciendo por el medio de trasmisión hoy en día más importante como es la fibra óptica permitiendo un gran ancho de banda y capacidad de tráfico alrededor de los Giga bytes por segundo.
Se pueden integrar gran cantidad de protocolos y normas en los diferentes medios de transmisión que día a día son evolucionando permitiendo una mayor robustez de los sistemas en las redes de transmisión.
Todas estas tendencias tecnológicas ayudan a la gran evolución de los datacenter para una mayor capacidad de acceso y transportar la información de las compañías a los datacenter, mejoras de aplicativos, servicios, etc.

Prioridades, preocupaciones y tendencias en el data center

• Prioridades en el centro de datos. Como se ha señalado, las principales prioridades de los CIOs para los próximos tres años son: incrementar la agilidad y la velocidad para implementar aplicaciones de negocio (32 por ciento), una mejor gestión de los recursos para alinear capacidad y demanda (31 por ciento global), mejorar la flexibilidad del data center (19 por ciento) y reducir los costes de energía y refrigeración (17 por ciento).

• Las principales preocupaciones de los responsables de TI son: seguridad, rendimiento, fiabilidad y el presupuesto para su mantenimiento y gestión, en escala global.

• Las principales tendencias tecnológicas son: el acceso en movilidad a la información corporativa (para una media del 33 por ciento), siendo especialmente importante en China (47 por ciento), Brasil (40 por ciento), Alemania (39 por ciento), India (35 por ciento) y España (35 por ciento). La virtualización (32 por ciento de media global), la apuesta por un fabric unificado que integra el tráfico de datos de redes LAN y SAN (29 por ciento), la virtualización desktop (27 por ciento y 17 por ciento en España) y el cloud computing (27 por ciento) completan esta clasificación.

• Tendencias de negocio que afectarán al data center en los próximos tres años: dos de cada cinco responsables de TI (40 por ciento) y uno de cada tres en España (33 por ciento) señalan el incremento en aplicaciones y datos, la seguridad y gestión del riesgo (39 por ciento global y 34 por ciento en España) y la reducción de costes (34 por ciento y 30 por ciento en España) como las tendencias de negocio que más afectan al data center, además del soporte de profesionales móviles y un mayor uso del vídeo y las herramientas de colaboración.
• Gestión del data center mediante unified fabric y la computación unificada: el 28 por ciento de los responsables de TI sitúan el fabric unificado como su principal estrategia para gestionar los centros de datos, y un 17 por ciento apuestan por la informática unificada. En España, estos porcentajes son aún más relevantes (33 y 35 por ciento, respectivamente).
• El papel de la red: casi siete de cada diez empresas consultadas (69 por ciento) respaldan la creciente importancia de la red debido a su posición central en el data center y su capacidad para unificar y gestionar recursos. En España, este ratio asciende al 72 por ciento.

Nuevos roles en el centro de datos derivados de la mayor integración y colaboración

La apuesta por la unificación de la infraestructura del data center ha fomentado una mayor colaboración entre equipos de TI inicialmente separados, generando a su vez nuevos programas de formación, certificaciones y puestos de trabajo (como Data Center Architect o Data Center Manager).


Nuevas ocupaciones en TI: el 48 por ciento de los profesionales de TI encuestados prevén la creación de nuevas ocupaciones en los próximos tres años como resultado directo de la mayor colaboración entre equipos de TI inicialmente separados. India (59 por ciento), China (56 por ciento), México (53 por ciento) y España (53 por ciento) superan ese porcentaje medio. 

Beneficios de las tendencias tecnológicas

Aumento  de movilidad y acceso a la información en cualquier dispositivo desde cualquier lugar.
Con la explosión en el uso de teléfonos inteligentes y los precios de las tabletas bajando a niveles inesperados, la adopción de dispositivos móviles corporativamente es inminente, sobre todo cuando tenemos en cuenta que muchas empresas tuvieron que permitir el uso de dispositivos personales (BYOD) para acceder a la información corporativa.
Este incremento de dispositivos permite aumentar la movilidad de los colaboradores y trae nuevos retos para los departamentos de TI, que tienen que garantizar la seguridad por un lado y la accesibilidad de los datos por el otro, esto sin contar con que se esperan herramientas que faciliten el trabajo desde los móviles.
Los usuarios tendrán más dispositivos conectados a Internet, además del celular, la tableta y el portátil; para el próximo año en las empresas se adicionarán más dispositivos personales, una apuesta del sector esta en los relojes inteligentes que son una gran expectativa por parte de los fabricantes  más reconocidos en el mundo de los consumidores Apple, Samsung, Google.

Seguridad en la nube

Aunque la nube cuando se compara con los sistemas internos, particularmente en las empresas medianas y grandes, ha demostrado ser más segura, trae nuevos retos en términos de protección de datos, confidencialidad de la información, mecanismos de respaldo o trazabilidad de lo que hacen los usuarios. Con la adopción de la nube por parte de la gran empresa surgen nuevas oportunidades en materia de seguridad y las empresas que están avanzadas empiezan a ver los beneficios para mejorar el control y el respaldo de la información.
Por cada solución en la nube surgen componentes, aplicaciones o sistemas que ayudan a fortalecer la seguridad de la misma.

Respaldo en la conectividad a internet

Debido a la adopción de la nube como estrategia de IT y de negocio se generará más dependencia de la conexión corporativa a internet que es la que actualmente nos está definiendo la disponibilidad de la solución en la nube, en la medida que la información que se está poniendo en la nube es más de negocio y operación, las empresas dependen para su operación de la conectividad a internet, por lo que los próximos años veremos la adopción de canales de respaldo tradicionales y con la incursión de la nueva tecnología 4LTE empezaremos a ver canales móviles como alternativa para la conectividad.


Riesgos

En toda actualización de modelo tecnológico, la totalidad de los riesgos debe ser considerada. Sin  embargo, el escenario actual de baja productividad  de los data centers y la creciente demanda de recursos  indican la real necesidad de implementaciones de nuevos modelos optimizados.

El análisis de nuevas tendencias y ciclos tecnológicos sugiere un camino claro en dirección a un nuevo modelo de abastecimiento, control y gerencia de data centers. Quedar afuera de ese movimiento puede resultar una pérdida de ventaja competitiva y demora en la implementación de nuevas estrategias de negocio.

Teniendo en cuenta la gran dependencia de los negocios en relación a todo lo que está instalado en los data centers, es primordial en proyectos de evolución y virtualización la elección correcta de tecnologías y de un socio que pueda garantizar la calidad en la implementación e integración de todas las partes (servidores, red y almacenamiento, entre otros). Entre los principales problemas verificados en proyectos podemos destacar:

Proyectos incompletos: algunos proyectos no son concluidos, en virtud del análisis insuficiente de todo el ambiente. La implementación de la virtualización, por ejemplo, causa impacto en la red y en el ambiente de almacenamiento. Muchas veces esos impactos no son analizados previamente, haciendo que los proyectos no sean concluidos o que sólo se realicen implementaciones básicas.

Baja productividad: En algunos casos, una cantidad mayor de servidores y servicios podrían ser consolidados o virtualizados; pero, debido a la falta de planeamiento correcto, el nivel ideal de optimización no es alcanzado.

Mayor complejidad: En caso que sean implementadas sólo las características básicas, el nivel de complejidad de la administración de los ambientes puede aumentar. En el caso de la virtualización, por ejemplo, una implementación amplia puede reducir tareas de administración, facilitar nuevas implementaciones, reducir down time en ventanas de cambios, etc.

Cabe aclarar que siempre habrá un riesgo eminente en cuanto a la seguridad, si no se implementa un sistema eficiente de seguridad con encriptaciones, y aun así manteniendo una frecuente actualización en estos sistemas, podrá ser victima de violadores de red como hackers, etc.






lunes, 2 de junio de 2014

RESEÑA Y DESARROLLOS DATACENTERS

VARIABLES DE DESARROLLO DE LOS DATACENTER


Las variables datacenter se califican referente a su certificación en este caso se mostrarán las características esenciales de un Data Center Tier IV, siendo esta la mejor calificación para ella:

Disponibilidad: La disponibilidad de un Data Center Tier IV es del 99.995%; lo que indica que no está garantizado su disponibilidad durante 26 minutos al año. En el escalón inferior tenemos al Data Center Tier III con una disponibilidad del 99.982%; lo que indica una indisponibilidad durante 95 minutos (1 hora y media, 3 veces más). La disponibilidad de un Data Center Tier IV se calcula con la probabilidad de un accidente importante cada 5 años. Sin embargo la disponibilidad de un Data Center Tier IV no refleja necesariamente la disponibilidad de una aplicación o de un servicio alojado que puede variar según la plataforma utilizada. Cuando hablamos de disponibilidad del Data Center Tier IV nos referimos a los servicios típicos de un Data Center: comunicaciones, almacenamiento, fuente de alimentación, refrigeración, etc.

Redundancia: Un Data Center Tier IV está básicamente pensado para que cada servidor de un sala IT tenga una doble fuente de alimentación eléctrica independiente y activa a la vez. Se basa en un sistema de suministro eléctrico que se calcula con la base instalada de servidores y que se replica enteramente con un margen adicional (del 10% por ejemplo) para nunca tener el sistema eléctrico a pleno uso de su capacidad total. Se replican también los medios de acceso de las comunicaciones con una doble cometida de fibra que enlaza con 2 centrales de comunicación distintas. No se comparten nunca los recursos de respaldo como en un Data Center Tier III dónde instalamos solamente una capacidad adicional que se puede compartir en caso de fallo.

Escalabilidad: Un Data Center Tier IV tiene que ser modular; lo que permite la escalabilidad. Cada módulo con una o varias salas IT funciona de manera independiente. Se puede añadir módulos al Data Center sin interrupción de servicio y sin que afecten a los módulos existentes. Un Data Center Tier IV debe también tener la capacidad de aumentar la capacidad eléctrica de las salas IT en función del consumo.

Enfriamiento: Se realiza el enfriamiento de las salas IT de un Data Center a través de la circulación de aire en el entre-suelo dónde se instala el cableado eléctrico. Ese enfriamiento se hace utilizando el poder calorífico del aire exterior mezclándolo con el aire del Data Center para conseguir ahorro de energía.

Eficiencia: La eficiencia de un Data Center se mide con la relación que existe entre la energía que recibe el Data Center y la energía que se emplea realmente en la sala IT. Teóricamente esa relación debería igualarse a 1. En la realidad un Data Center Tier IV alcanza unos niveles próximos a 1,2 - 1,4

Precio: La eficiencia de un Data Center en la utilización de la energía es una manera de contener el gasto de operación y mantenimiento que se puede transferir al usuario final en caso de explotación comercial.

Datacenter

DESARROLLO HISTÓRICO


Los primeros Data Centers se diseñaron siguiendo las arquitecturas clásicas de informática de red, en las que los equipos eran “apilables” en mesas, armarios o racks. La necesidad de fácil gestión y de optimización del espacio han hecho que se evolucione hacia sistemas basados en equipos cuyas dimensiones permiten aprovechar al máximo el volumen disponible en los racks (equipos “enracables”), logrando una alta densidad de equipos por unidad de espacio.
Los Data Center iniciales tampoco estaban diseñados para proporcionar facilidades de red avanzadas, ni los requerimientos mínimos de ancho de banda y velocidad de las arquitecturas actuales.


Data Centers en la decada de 1960: Antes de 1960 (1945), el ejército desarrolló una gran máquina llamada ENIAC (electronic Numerator, Integrator, Analyzer and Computer):
- Pesaba 30 toneladas
- Tomó hasta 1800 pies cuadrados o espacio
- Se requería 6 técnicos a tiempo completo para que siga funcionando
- Realizaba 5.000 operaciones por segundo

Hasta la década de 1960, las computadoras se utilizaban principalmente por las agencias gubernamentales. Eran grandes mainframes almacenados en habitaciones - lo que llamamos hoy "centro de datos". A partir de 1960, los ordenadores convertidos de tubo de vacío a dispositivos en estado sólido como el transistor, que duran mucho más tiempo, son más pequeños, más eficientes, más fiable y más barato que los dispositivos de tubo de vacío equivalentes.
A principios de la década de 1960 muchos equipos costaban alrededor de $ 5 millones cada uno y de ellos podría ser alquilado por $ 17.000 por mes. A mediados de la década de 1960, el uso del ordenador desarrollado comercialmente y fue compartida por varias partes.
American Airlines e IBM se unieron para desarrollar un programa de reservas denomina el sistema “Sabre”. Este sistema revolucionario fue la primera aplicación de negocio en tiempo real, y permitió a American Airlines reemplazar el sistema de reservas de pasajeros escritos a mano de la década de 1950 con el sistema de reservas automatizado para el futuro.
El sistema fue instalado en dos ordenadores IBM 7090, que se encuentra en un centro de computación especialmente diseñado en Briarcliff Manor, Nueva York. El sistema de computadora central del estado de la técnica de procesado de 84.000 llamadas telefónicas por día. La investigación, el desarrollo y la instalación de la inversión inicial en este sistema tomó 400 años-hombre de esfuerzo, a un costo de desarrollo de casi EE.UU. $ 40 millones.

Data Centers en la decada de 1970: En 1971, Intel lanzó el primer microprocesador comercial del mundo: el 4004. Centros de datos en los EE.UU. comenzaron a documentar los planes formales de recuperación ante desastres en 1973. Si algún desastre ocurriera, que no necesariamente afecta las operaciones de negocio, como la mayoría de las funciones manejadas por computadoras eran deberes bookkeping después de los hechos. Estas funciones son operaciones por lotes y no de naturaleza compleja.
En 1978, SunGuard desarrolló la primera actividad comercial de recuperación de desastres, un arrendado de 30.000 metros cuadrados de espacio en el 401 Broad Street, donde todavía están ubicados.
En 1973, la minicomputadora Xerox Alto fue un paso histórico en el desarrollo de las computadoras personales debido a su interfaz gráfica de usuario, la pantalla de mapa de bits de alta resolución, gran memoria de almacenamiento interno y externo, un ratón y un software especial.
En 1977, la primera red de área local disponible en el mercado del mundo, ARCnet se puso en servicio en el Chase Manhattan Bank, Nueva York, como beta-sitio. Era el más simple y menos costoso tipo de red de área local utilizando la arquitectura de red en anillo, que admite velocidades de 2,5 Mbps de datos y conectar hasta 255 computadoras.
Mainframes requerían refrigeración especial y en la década de 1970, los equipos refrigerados por aire, se trasladaron a las oficinas. En consecuencia, los centros de datos murieron.
Data Centers en la decada de 1980: Durante la década de 1980, la industria de la computación experimentó el auge de la era microordenador gracias al nacimiento de la IBM Personal Computer (PC).  Éstas Computadoras se instalaron en todas partes, y se prestó poca atención a las necesidades ambientales y de funcionamiento específico de las máquinas.  A partir de 1985, IBM proporcionó más de $ 30 millones en productos y apoyo a lo largo de 5 años en un centro de supercomputadoras establecido en la Universidad de Cornell en Ithaca, Nueva York.
En 1988, IBM presenta el IBM System/400 Aplicación (AS/400), y se convierte rápidamente en uno de los sistemas de computación de negocios más populares del mundo. Como las operaciones de tecnología de la información comenzó a crecer en complejidad, las empresas crecieron conscientes de la necesidad de controlar los recursos de TI.
Data Centers en la decada de 1990: Microinformática (ahora llamado "server") comenzaron a encontrar su lugar en las antiguas salas de ordenadores y fueron siendo llamados "centros de datos." Las compañías estaban poniendo las salas de servidores dentro de sus paredes empresa con la disponibilidad de equipos de red de bajo costo. El auge de los centros de datos se produjo durante la burbuja de las punto-com.  Las empresas necesitan conectividad a Internet rápido y un funcionamiento ininterrumpido de implementar sistemas y establecer una presencia en Internet. Muchas empresas comenzaron a construir grandes instalaciones para ofrecer a las empresas una amplia gama de soluciones para la implementación y operación de los sistemas. Rackspace Hosting abrió su primer centro de datos a las empresas en 1999.
Data Centers en la decada de 2000: A partir de 2007, el centro de datos promedio consume tanta energía como 25.000 hogares. Hay 5,75 millones de nuevos servidores desplegados cada año. El número de centros de datos del gobierno ha pasado de 432 en 1999 a 1,100 + hoy.


Los centros de datos representan el 1,5% del consumo de energía de EE.UU. y la demanda está creciendo 10% por año. Facebook lanzó el Proyecto OpenCompute, que cuenta con características a su Prineville, Oregon centro de datos que utiliza 38% menos energía para hacer el mismo trabajo que el resto de sus instalaciones, mientras que cuesta un 24% menos.

TENDENCIA Y MERCADO DATACENTER

Data centers en Colombia: una apuesta por el desarrollo y la sostenibilidad. El mercado de los centros de datos colombianos enfrenta 2013 asumiendo el reto de la eficiencia energética. Esta preocupación queda patente tanto en los proyectos ya existentes como en los de nueva creación. El sector es consciente de ello y está empleando soluciones que permitan alcanzar ese objetivo.
Precisamente las plataformas DCIM, cada vez más extendidas en la región, parecen la mejor opción para incrementar los ratios de eficiencia. Esta tendencia no es la única que se percibe en Colombia. El uso generalizado de hosting, virtualización y outsourcing es otra de las claves del sector de data centers.
El interés por el desarrollo de los centros de datos es más que patente en Colombia. De hecho, el sector de las nuevas tecnologías ocupa un lugar preferente. El país tiene registradas más de 2.600 empresas TIC y el gobierno ha fomentado su impulso mediante acuerdos de inversión y tratados de libre comercio.
Buena prueba de ello es la proliferación de las zonas francas, consideradas la 6º locomotora del país y destino elegido por numerosas empresas para instalar allí sus centros de datos.

Si 2013 fue catalogado en el mercado de las Tecnologías de la Información (TI) como el año de la innovación, el 2014 no sólo significará una profundización de tal concepto sino también un período en que se vivirá con mayor intensidad el proceso de transformación que viene dándose en la actual década.
Esto explica por qué la inversión en TI por parte de las empresas se mantendrá este año en pleno crecimiento a nivel global, teniendo en los servicios Cloud y los data centers dos de los principales ejes donde se materializa la tendencia TI más relevante de la actualidad: la transición hacia la llamada “tercera plataforma”.

Según cifras dadas a conocer en el reporte de Predicciones 2014 de IDC se prevé que en este año el mercado mundial de las TI tenga una expansión de un 5,1% respecto del período anterior, cimentada en el crecimiento de los servicios y tecnologías Cloud y de Big Data, que aumentarán en un 25% y un 30%, respectivamente.

La “tercera plataforma” se refiere a un conjunto de tecnologías y servicios relacionados con las cuatro claves que orientan la inversión de las empresas: Cloud Computing, Big Data, Social Business y Mobility. Son conceptos que están entrelazados y que, de una u otra manera, responden a la necesidad de hacer disponible la información empresarial en cualquier dispositivo, momento y lugar como principal imperativo.
En tal sentido, este proceso de transformación tiene como “epicentro”, por así denominarlo, al data center, el que permite a las organizaciones contar con servicios basados en la nube que tengan la capacidad de hacer disponible la información en diversas plataformas, mientras se automatizan procesos y se reducen los gastos en mantenimiento. En este contexto no es casual que se espere un buen dinamismo en el mercado de TI este año y en lo que resta de la década, ya que los data centers viven y seguirán viviendo un cambio evolutivo importante.

Apalancado por esta “tercera plataforma”, los data center están rompiendo paulatinamente con las limitaciones tradicionales que las empresas encontraban en su infraestructura de TI, abriéndoles el paso a una innovación real en sus procesos de negocios y facilitándoles el camino al incremento de las capacidades de procesamiento, almacenamiento y gestión de los servicios de TI de una forma más vinculada a sus requerimientos reales.


En este fenómeno, sin duda, la virtualización ha jugado un rol determinante, al hacer posible y conjugar la reducción de costos en los data centers con una mayor eficiencia y rendimiento de la infraestructura. Por ello, la virtualización no sólo se relaciona hoy con los servidores sino que sigue expandiéndose dentro del centro de datos abarcando también el almacenamiento, la red y el procesamiento. Todo ello representa hoy una drástica evolución, que significa no sólo una optimización de recursos sino muy especialmente una mayor agilidad, la cual, a su vez, permite a un universo mayor de organizaciones acceder a las ventajas que entregan las TI, convirtiéndolas en un aliado aún más estrecho del negocio a través de una innovación permanente.

PLANES DE ACCION DE DATACENTER EN COLOMBIA

La demanda por servicios de colocation, alojamiento, hosting, seguridad y comunicaciones de valor agregado continúa creciendo en Colombia a medida que las empresas incrementan la adopción de aplicaciones basadas en la nube. Es así como desde 2011 han obtenido un crecimiento continuo de alrededor del 13%. Para Ricardo Imbacuán, Gerente de Columbus Colombia “El mercado de servicios de Datacenter en Colombia tiene un grado de madurez importante, donde las multinacionales invierten en este tipo de servicios para sus operaciones locales y como hub central para la región. Los proveedores lo utilizan para prestar servicios fuera del país”.

Para los servicios de datacenter el sector de banca y finanzas es el más importante con el 26.4% de los ingresos totales en el 2013 (USD 51.3 Millones) en especialmente jalonado por el crecimiento de banca en línea, banca móvil, y la entrada de nuevos jugadores en el mercado.
Por su parte, el sector de IT y Telecomunicaciones es  la segunda vertical en importancia a nivel de ingresos en servicios de datacenter, donde en los últimos años compañías desarrolladoras de software, de testing de software y de contenido han tercerizado servicios de Datacenter.  Al 2013 esta vertical representa el 25.4% de los ingresos totales.
Mientras que el gobierno es la tercera en adopción de servicios de Datacenter, impulsado por el proceso de modernización del estado, el programa Gobierno en Línea y el Programa Vive Digital. Estos modelos han sido referentes en América Latina, donde Colombia ocupa  el primer lugar en América Latina del Índice de Gobierno Electrónico según Naciones Unidas.

Columbus es una empresa especializada en la tercerización de servicios de Telecomunicaciones y de Infraestructuras tecnológicas. Actualmente cuenta con 800 clientes en Colombia que incluyen empresas grandes y medianas, de todos los sectores económicos, lo que le ha brindado experiencia en la atención de las necesidades de las diferentes empresas.

Columbus Bussines Solutions ofrece una solución integral para que los negocios de sus clientes sigan creciendo con la disponibilidad de espacio, energía y  servicios adecuados para satisfacer sus necesidades, ayudándolos, a reducir sus gastos operativos, de administración y  mantenimiento. Estos servicios incluyen el alquiler de espacios y equipos, el almacenamiento de data con altos niveles de seguridad, monitoreo y soporte por especialistas que garantizan la continuidad de los negocios de sus clientes.
Imbacuán, explica que “los servicios de telecomunicaciones requieren de constantes y muy altas inversiones así como de licencias y permisos emitidos por el regulador. Compañías como Columbus construyeron modelos de negocios en tecnología y telecomunicaciones que ofrecen servicios costo/efectivos sin sacrificar calidad, disponibilidad y servicio, permitiendo así nuevamente que las compañías se enfoquen en un desarrollo más estratégico de sus negocios. Definitivamente, es una propuesta Gana-Gana, el cliente recibe el servicio, asesoría y precio que busca y Columbus maximiza y hace más eficiente el uso de sus activos y de la cadena de valor”.