Posts Tagged ‘EMC Avamar’

Ventanas virtuales

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Con motivo del VMworld 2012 San Francisco, EMC y VMware han realizado un comunicado conjunto anunciando la disponibilidad de VMware vSphere Data Protection.

Se trata de una nueva solución de Backup basada en la tecnología de EMC Avamar, que permite realizar backup a disco de máquinas virtuales sin necesidad de agentes y con funcionalidad de deduplicación en origen.   Esta solución de respaldo se incorpora embebida en la nueva generación de la plataforma operativa de VMware, vSphere5.1, con la que se encuentra íntimamente integrada. Se gestiona directamente desde el cliente web de vSphere y es un sistema de protección muy sencillo de poner en marcha.

Es un buen momento para recordar en qué consiste la tecnología  Avamar y cuál es su valor en un entorno virtual.

El Backup tradicional y sus ciclos de backup total semanal e incrementales diarios, generan una enorme cantidad de datos duplicados. Esto, que sucede en cualquier entorno, es aún más patente en los entornos virtuales, donde un nuevo sistema puede provisionarse en escasos 10 minutos y donde  la redundancia de los datos alcanza dimensiones muy  importantes. La consecuencia es que el número de sistemas virtuales va creciendo en la misma medida que crecen la complejidad y la ventana de backup.

De hecho, el backup tradicional y sus tareas asociadas han sido uno de los grandes  inhibidores en el desarrollo y adopción de entornos cien por cien virtuales. Los beneficios derivados de la virtualización, en términos de compartición de infraestructura, flexibilidad, etc. se ven negativamente impactados por la competencia entre distintos sistemas para hacer backup durante un período restringido de horario.

La forma en que Avamar funciona consiste en dividir los datos en segmentos de longitud variable, comprimirlos, aplicarles un algoritmo hash de identificación y comprobar si ese segmento ya existe en el servidor de backup, en cuyo caso no se copia. Por el contrario, si los datos son únicos, se envían y con ellos se construye un backup full lógico, directamente preparado para realizar una recuperación sencilla cuando haga falta.

Los beneficios de esta estrategia son claros. Una reducción del tráfico de datos asociado al backup que alcanza el 95%, con los consiguientes ahorros en CPU, almacenamiento, conectividad o red. Menores requerimientos ambientales, tales como electricidad, refrigeración o espacio físico. Un backup mucho más rápido y una recuperación más sencilla, equivalente a recuperar directamente de un full backup. Menor RTO (Recovery Time Objective). Y un disaster recovery más eficaz, replicando solamente los bloques o segmentos necesarios y comprimidos, haciendo con ello un uso muy eficiente de la red WAN.

En definitiva, se trata de evitar que las tareas de respaldo puedan suponer ahora o en el futuro un obstáculo en los proyectos de virtualización, y simplificar así el camino hacia la nube.

Videos Recomendados

Expand The Data Lake: New Data Lake, New Breakthroughs

Archivo del Blog

  • 2016 3
  • 2015 20
  • 2014 7
  • 2013 16
  • 2012 21
facebook
twitter
linkedin
youtube
rss