Posts Tagged ‘costes’

A Propósito De La Nube. Infraestructura Física (2)

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Ya sabemos que las organizaciones se dirigen hacia el consumo de TI como un servicio, basado en un catálogo, transparente desde el punto de vista financiero, orientado a las necesidades del negocio, y cuyos niveles de servicio se encuentran acordados entre las partes. Este catálogo debe incluir todos los componentes necesarios para la implantación de un servicio, incluyendo la infraestructura física.    

Infraestructura física

También sabemos que en este modelo el usuario paga solamente por aquello que consume, cuando lo consume. Esto tiene un impacto sobre la infraestructura física, que ahora tiene que responder a nuevos requerimientos como crecimiento bajo demanda, simplicidad y velocidad de despliegue, escalabilidad ilimitada, y competitividad en costes; algunas estrategias para alcanzar estos objetivos son:

  • Estandarización, que ofrece ventajas tanto desde el punto de vista económico como operativo y de gestión. Esto fomenta la proliferación de plataformas hardware uniformemente basadas en arquitecturas de consumo masivo x86, y consolidadas en sistemas operativos VMware, Microsoft o Linux; también ha favorecido la aparición de las llamadas infraestructuras convergentes, que contienen todos los elementos de proceso, almacenamiento o red necesarios para el despliegue de una nube.  
  • Virtualización masiva de las infraestructuras, que comenzó como una estrategia de reducción de costes asociada a la adquisición de servidores y que se ha extendido a toda la infraestructura, incluyendo el almacenamiento y la red; es la vía para proporcionar una calidad de servicio óptima y máxima flexibilidad ante el cambio.
  • Automatización, necesaria para proporcionar infraestructura bajo demanda; esta tarea se lleva a cabo mediante el software, que es quien aporta realmente valor a una infraestructura hardware escasamente diferenciada, y es el origen del fenómeno que conocemos como ‘Datacenter Definido Por Software’

Uno de los objetivos del Datacenter Definido Por Software es proporcionar la necesaria interoperabilidad entre diferentes nubes, privadas o públicas, permitiendo el movimiento de datos y procesos en ambas direcciones, y creando una auténtica federación de nubes gestionadas desde un único punto.

Esta nube híbrida, proporciona la capacidad para escalar dinámicamente y responder a demandas de negocio impredecibles, lo que es percibido por el negocio como una clara mejora en términos de alineamiento, eficiencia y satisfacción para el usuario final, mientras que la dirección de TI tendrá una clara percepción de ahorro económico.


Tan Improductivo como valioso. Backup.

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Empezar diciendo que el backup es una tarea improductiva suena un poco fuerte, pero en honor a la verdad es una descripción realista. No hay mejor backup que aquél que no se utiliza nunca. Ahora bien, nadie discute su necesidad, es nuestro seguro cuando la información se pierde o se corrompe. 

Seguridad versus costes

Un clásico dilema entre seguridad y costes. La seguridad anima a realizar copias muy frecuentemente, de forma que si se corrompe la información podemos volver a la situación más reciente posible. Adicionalmente queremos disponer de copias de cierta información en un momento dado: bases de datos tal como estaban al cierre del transaccional, los ficheros del final del batch, la situación de ayer y anteayer, fotos del final de mes, del cierre de año, de los últimos siete años…     

El límite a tanta seguridad lo pone el consumo de recursos. El volumen de datos de backup en estas condiciones puede fácilmente ser entre cinco y diez veces más grande que el volumen de datos de producción original. Otros recursos afectados son la necesidad de capacidad de proceso, las comunicaciones y el tiempo, que se manifiesta en forma de ventanas de backup difíciles de cumplir.

El backup nos ha acompañado siempre (el restore lo ha hecho CASI siempre), y aunque llevamos trabajando en él durante décadas, nunca deja de ser un tema candente, problemático y evolutivo al mismo tiempo.  

El declive de las cinta

Hemos asistido al declinar del backup en cinta a favor del backup a disco. Ciertamente continúa existiendo una notable base instalada de dispositivos de cinta o robótica asociada, pero no es menos cierto que en la mayor parte de los casos se trata de infraestructura heredada y ya son pocos los nuevos proyectos en los que se apuesta por este tipo de tecnología.  

Las ventajas del  backup a disco tienen mucho que ver con la eliminación de un buen número de tareas manuales o engorrosas, tales como el etiquetado de cartuchos, carga y descarga de librerías, movimiento físico de información entre múltiples centros de proceso o el mantenimiento de la robótica y sus piezas mecánicas. Y con el incremento de la disponibilidad del dato, cuando éste es necesario al ofrecer los discos mecanismos de protección tales como RAID y evitar accidentes o accesos indebidos a la información durante los procesos de transporte y manipulación manual.

La irrupción de la deduplicación

Apoyado en el cambio anterior, se despliega otro avance impactante: la deduplicación. Más allá del tradicional ciclo de backup total seguido de n backups incrementales, la deduplicación permite hacer backup sólo de aquellos bloques que han cambiado, mostrando a la vez un backup sintético que tiene toda la apariencia de un backup total, y que requiere de un único paso para restaurarse.

La deduplicación nos permite incrementar de forma dramática la escalabilidad, reduciendo al mismo tiempo la ventana de backup, los costes operativos, energéticos y de espacio físico o el ancho de banda de las comunicaciones en proyectos de respaldo remoto (oficinas remotas, disaster recovery, etc.). La deduplicación se ha mostrado especialmente eficaz en los entornos virtualizados, en los que distintos sistemas virtuales contienen la misma información de forma redundante cientos o miles de veces.   

IT as a service nuevo reto para el backup

Ahora, las nuevas arquitecturas de producción Cloud Computing suponen una vuelta de tuerca adicional  en escalabilidad y hacen aparecer nuevos requerimientos a los que las tecnologías de backup han de adaptarse.

Los modelos de TI consumidos como servicio generan la convivencia entre múltiples usuarios, departamentos e incluso compañías diferentes en el caso de proveedores de servicios. Al reto de los nuevos servicios multicliente, ofrecidos bien a clientes internos o externos, las tecnologías de backup han respondido con la capacidad de aislar los datos de unos usuarios respecto de otros (multitenancy). De esta forma, cada cliente entendido como un grupo de trabajo, departamento o compañía se considera autónomo y se limita y autoriza a un ámbito determinado de los datos de backup, simplificando su trabajo, respetando la confidencialidad de los datos y evitando interferencias de unos usuarios con otros. 

En definitiva la tecnología y el ingenio desarrollados en los últimos cinco años nos han permitido actuar simultáneamente sobre ambos factores de equilibrio. Mejorar dramáticamente la seguridad de nuestros datos disminuyendo los costes asociados.

 

Videos Recomendados

Expand The Data Lake: New Data Lake, New Breakthroughs

Archivo del Blog

  • 2016 3
  • 2015 20
  • 2014 7
  • 2013 16
  • 2012 21
facebook
twitter
linkedin
youtube
rss