Archive for 2012

El Universo Digital (y 6). Crecimiento sin crisis

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Tenemos nuevo reporte de IDC, la sexta edición ya, sobre el Universo Digital. Este informe es siempre una lectura interesante para cualquier audiencia, por cuanto ayuda a entender una experiencia de la vida diaria como es el crecimiento explosivo de los datos. Pero, claro, a los profesionales de TI nos interesa además en su vertiente de previsión y evolución tecnológica.

(more…)

EMC va de Sapphire

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

La semana pasada tuvo lugar el evento anual de SAP en Europa: Sapphire, al que tuve la suerte de asistir. Una enorme superficie física con grandes y pequeñas sesiones en prácticamente todas las esquinas.

EMC se encontraba representada en su propio stand y en el de VCE, la iniciativa de infraestructura convergente conjunta de EMC, VMware y Cisco, quienes a su vez contaban con representación propia.

A los que nos han visitado o han asistido a nuestras presentaciones les hemos hablado de lo que hacemos en el entorno SAP, por tanto, las conversaciones han girado alrededor de conceptos como  transformación, virtualización, seguridad, archivado, rendimiento, alta disponibilidad, big data, etc.

A continuación, expongo un breve resumen de los puntos que fui anotando por su interés y que reflejan parte de nuestra actividad y visión en el mundo SAP.

Transformación, optimización, alta disponibilidad

EMC ha compartido en estos foros su voluntad de continuar liderando la transformación de TI hacia cloud computing. Percibimos un interés palpable de nuestros clientes en esta transformación aplicada a los entornos SAP, que actualmente suelen incluir múltiples plataformas de proceso y sistemas operativos. Las mejores prácticas contemplan la estandarización y virtualización de infraestructuras y aplicaciones, lo que impulsa la transformación de las plataformas heredadas hacia plataformas x86 como vía eficiente hacia la nube.

Hemos hablado de optimización de los entornos productivos a través de estrategias como aprovisionamiento virtual y distribución automática de cargas de trabajo, es decir, cómo utilizar de la forma más eficiente posible la inversión en infraestructura (memoria, disco flash, etc.) y evitar al mismo tiempo que un pico de trabajo pueda poner en riesgo a las aplicaciones. Y todo ello con una reducción radical en los costes de gestión.

Uno de los temas más interesantes tratados es el de dotar de alta disponibilidad a los entornos SAP, a través de la federación de infraestructuras y la evolución de la producción hacia entornos multidatacenter activo-activo. Esto permite la transformación del tradicional ‘Disaster Recovery’ hacia el concepto ‘EMC Disaster Avoidance’ para el conjunto de aplicaciones SAP, sean bases de datos, aplicaciones, frontales, etc.

Nuevas plataformas

Y claro, también hemos hablado de HANA, para la que por cierto se ha anunciado soporte para virtualización en entornos no productivos. De las plataformas scale-out, que ya hemos certificado junto con Cisco (Cisco UCS + VNX5300) y en las que el almacenamiento unificado VNX proporciona persistencia a HANA, cumpliendo con los requerimientos de rendimiento, protección y acceso multiprotocolo que esta base de datos en memoria requiere. También, y como novedad, hemos dado a conocer el estado del proceso de certificación de nuestras infraestructuras convergentes (VCE VBLOCK) para el entorno HANA, diseñadas y fabricadas en colaboración con Cisco y VMware.

En alguna charla se ha dejado entrever el futuro de esta colaboración técnica de EMC y SAP. HANA está llamado a ser en el corto plazo un sistema de misión crítica, y esta es una conversación en la que EMC se siente cómoda. Disaster Recovery, alta disponibilidad, backup a distancia son algunos de los conceptos que serán importantes tanto en HANA como en cualquier otro entorno crítico. Y es en estas soluciones donde estamos trabajando y esperamos verlas certificadas en los próximos meses.

Ver vídeos relacionados con Sapphire Now 2012:

http://www.youtube.com/watch?v=eA_sEzrfcvY&feature=youtu.be

http://www.sapvirtualevents.com/sapphirenow/sessiondetails.aspx?sId=3732

http://scn.sap.com/community/hana-in-memory/blog/2012/10/04/sap-hana-real-time-race-las-vegas-challenger-ciscoemc 

¿Por dónde empezamos en seguridad? Empieza por el caco de barrio

Desde que hace ya un tiempo me invitaran a colaborar en este blog, he estado pensando cuál sería la mejor temática para este primer post, que se ha retrasado más de lo que me hubiera gustado.

No es por falta de temas a tratar. La privacidad,  siempre candente,fue mi primera candidata. Otras opciones interesantes fueron una perspectiva del panorama del fraude online, el repasorecomendaciones sobre cómo enfrentarse a las amenazas online -con especial foco en los más jóvenes– o la evolución de lo que se ha dado en llamar “CyberWarfare”, término surgido a raíz de que las cíber-armas salieran a la luz pública, que se han convertido en los súper virus de moda.

Todos estos, y algunos otros, son temas de los que espero hablar en el futuro. Sin embargo, en la primera intervención que tuve en este blog, mencioné brevemente cuáles son las preocupaciones de las empresas respecto a la seguridad informática. Creo que empezar por este tema y tener una idea más clara sobre las amenazas a las que se enfrentan los responsables de seguridad informática (que en la mayoría de los casos lleva muchos otros gorros), les permitirá priorizar sus recursos para mitigar el riesgo.

En general, a medida que las empresas maduran tecnológicamente, van incorporando la seguridad informática a las “cosas que hay que hacer”; el foco de sus esfuerzos es la necesidad de proteger la información que poseen, tanto los propios datos internos o confidenciales como la información de terceros sobre la que tienen responsabilidad de custodia (datos personales).

Existen otras amenazas con un impacto económico o en la reputación, pero en definitiva enfrentarse a una brecha que implique pérdida de datos es “el desastre”.

En el panorama económico actual, el responsable de seguridad, con unos recursos cada vez más limitados, tiene que decidir de qué amenazas debe preocuparse. Para ello, es útil saber qué métodos se usan para sustraer los datos. Históricamente, la información sobre técnicas e impacto de los ataques ha sido escasa y anecdótica, pero afortunadamente esto está cambiando. Actualmente contamos con el Verizon Data Breach Investigation Report, como la fuente de información más reconocida cuando se trata de ataques cibernéticos.

El informe de 2012, basado en investigaciones de incidentes realizadas durante 2011, nos proporciona una perspectiva sobre las amenazas reales a las que se enfrentan las empresas. Me gustaría compartir con vosotros las principales conclusiones:

  • El 94% de los ataques no son sofisticados, no usan técnicas esotéricas sino relativamente sencillas. No debemos subestimar a los atacantes, que posiblemente son capaces de ataques más elaborados, pero simplemente no les hace falta para conseguir sus objetivos.
  • El 79% de los ataques son blancos de oportunidad, es decir, los atacantes no buscaban una víctima concreta, sino que atacan a los que son vulnerables.
  • El 97% de los ataques se hubieran podido prevenir mediante controles simples o de nivel medio. Unido a las cifras anteriores, creo que la analogía con el efecto disuasorio de las puertas blindadas es válido: no son un obstáculo para un atacante decidido y con recursos, pero sí que hacen que el ladrón común se dirija a otro objetivo.

De la lectura de este informe, concluimos que la mayoría de las empresas no tienen por qué obsesionarse con protegerse contra un atacante de élite decidido y con recursos. Estos existen, y son una amenaza real y seria, pero volviendo a la analogía con el mundo real, mientras que los grandes museos tienen que preocuparse por burlar a los ladrones de guante blanco, la mayoría de nosotros debemos empezar por el caco de barrio, que se asoma a las ventanas para ver si están abiertas.

Esta comparación, aunque útil, falla en un punto clave: la detección de los ataques. En casa, si el ladrón se lleva la TV nos damos cuenta, pero en el mundo digital no es así:

  • El 85% de los ataques tardaron semanas o más en ser descubiertos, por lo que los atacantes han tenido tiempo de robar mucha información, borrar sus huellas, dejar nuevas “puertas traseras” para poder acceder en el futuro…
  • El 92% de los ataques los descubrió/reportó un tercero, es decir, la empresa no sólo sufre un ataque, sino que al no ser capaz de detectarlo, ni siquiera puede planificar la gestión de la crisis.

Por lo tanto, si la pregunta es dónde invierto para ser más efectivo, mi respuesta sería en implementar al menos los controles más básicos para disuadir a los atacantes que buscan blancos de oportunidad, y por si aún así somos atacados, invertir en ser capaces de detectar el ataque y al menos tener la posibilidad de gestionar el incidente.

Sensores humanos para alimentar el Big Data

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Big Data es una fuerza de transformación de los negocios y de los servicios que las  administraciones  prestan al ciudadano. Big Data proporciona la base para obtener un nuevo y  mejor conocimiento de los ciudadanos, los consumidores o nuestros competidores. Ya he tratado este tema en alguna entrada previa de este mismo blog: Reflexiones sobre VIG Data (Sí, con V de Volumen, Variedad, Velocidad, Valor…)

Hoy me interesa otra faceta de Big Data. Se trata de conocer no tanto a esos consumidores y competidores como a las personas que se esconden tras ellos, la cara humana del Big Data.

The Human Face of Big Data es  un proyecto liderado por el fotógrafo norteamericano Rick Smolan  y del que EMC es patrocinador principal. Este ambicioso proyecto consta de múltiples fases con el objetivo común de mostrar el impacto que para la sociedad tiene Big Data.

Te animo a participar en la fase actual del proyecto, a colaborar en la evaluación del planeta, convirtiéndote en uno de sus  sensores. Para ello necesitas un dispositivo iOS (iPhone o iPad) o Android, teléfono o tableta y descargarte la aplicación correspondiente en este link thehumanfaceofbigdata.com

La aplicación permite, a través de una serie de preguntas y de las capacidades propias de los dispositivos inteligentes, conocer algunos de nuestros hábitos, nuestros desplazamientos, nuestros objetivos o nuestros sueños. Nos permite compararnos sobre la marcha con las respuestas de millones de otras personas en el mundo, y a veces nos sorprende, como cuando localiza y nos muestra un alma gemela, nuestro ‘Doppelgänger’, la persona cuyas respuestas y modo de vida son más similares a los nuestros sobre una muestra tan amplia como dispersa geográficamente.

La aplicación no solicita ningún tipo de información de contacto, como tu nombre, teléfono o correo electrónico, y dispone del correspondiente documento  de términos de uso y privacidad.

En esta misma página web puedes encontrar algunos ejemplos de utilización de Big Data que tienen un impacto social de primera magnitud. Desde la utilización de animales marinos para comprobar el estado de los océanos (noto cierto paralelismo con la aplicación para humanos, pero sin smartphone) hasta proyectos para devolver la visión a personas cegadas por la degeneración macular. Estos ejemplos tan emocionantes  formarán parte de un libro de fotografía que Smolan publicará en las próximas semanas y que pretende resumir en imágenes todo el efecto de transformación social de cada uno de estos proyectos Big Data.

Os animo a todos a uniros a este gran experimento  participando en la recogida de datos, y a seguir de cerca esta iniciativa que nos muestra la mejor cara de la tecnología. Nada más alejado del Gran Hermano de Orwell.

EMC FORUM 2012

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Bajo el lema de la transformación, acabamos de celebrar nuestro evento anual: EMC Forum.  Este año hemos batido un récord de asistencia, con 891 participantes entre clientes y partners de EMC. Esta asistencia muestra que existe un gran interés en la evolución y las novedades  de nuestra industria y que los profesionales de TI aprovechan este foro para acercarse a la innovación, así como para conocer de primera mano cómo otras organizaciones de su entorno afrontan los nuevos retos de TI.

En esta edición, como novedad, EMC ha realizado un estudio previo para conocer mejor las prioridades y preocupaciones de nuestros clientes.

Las organizaciones españolas han respondido que el reto más importante para este año 2012 es el mantenimiento de las infraestructuras software y hardware existentes, es decir, lo que venimos describiendo como “mantener las luces encendidas”. Una comparación rápida sitúa este tema  como la quinta prioridad en el Reino Unido, mientras que en Alemania ni siquiera figura entre los cinco retos más importantes para este año. Parece un reflejo de la crisis económica y su distribución geográfica.

El resto de los temas de interés para nuestros clientes son proyectos en los que la innovación está muy presente, y han girado alrededor de temas como la gestión de la información, cloud computing, virtualización, seguridad, escalabilidad de infraestructuras, etc. En general, temas relacionados con las cuatro grandes tendencias de TI: lo social, movilidad, cloud computing y Big Data. Ya he opinado anteriormente que estos cuatro temas se encuentran interconectados. Las redes sociales son una de las áreas de interés de las analíticas de Big Data, mientras las demandas de movilidad se traducen en la necesidad de nubes aún más accesibles y seguras, cuya flexibilidad de uso supone un catalizador para un uso eficiente de volúmenes de datos cada vez mayores y así sucesivamente.

En cuanto a las sesiones, voy a hacer un repaso de los temas más interesantes, tanto a cargo de EMC como de nuestros partners.  Hemos hablado de la transformación interna de EMC para consumir TI como un servicio, convertidos en usuarios de las mismas soluciones cloud que proponemos al mercado. Hemos  compartido las etapas del proyecto, las arquitecturas resultantes y los beneficios alcanzados.

Sesiones sobre la federación de infraestructuras y datacenters como elemento de base para favorecer la movilidad de las aplicaciones, así como para proporcionar nuevos niveles de disponibilidad a los servicios. RPO* cero, RTO** cero. Ciencia ficción, evitar desastres en lugar de recuperarlos.

Big Data ha ocupado un conjunto de sesiones en sus dos principales vertientes. Algunas dedicadas a las problemáticas que su enorme volumen acarrea, donde se ha tratado la escalabilidad, seguridad y gestión. Otras sesiones se han focalizado en la enorme oportunidad que este concepto significa, y aquí se ha hablado de analíticas avanzadas, velocidad y puesta en marcha de la información.

Hemos echado un vistazo a las tecnologías de disco y de memoria. Por si este tipo de temas a veces parece muy técnico y alejado del negocio, hemos reflexionado sobre cómo los nuevos procesos en tiempo real imponen nuevos niveles de rendimiento y de cuáles son las vías para alcanzar esos niveles respetando los presupuestos existentes. Almacenamientos estratificados, mezclas de volumen a bajo precio y rendimiento extremo, con la automatización de los niveles de servicio como piedra angular.

Infraestructuras convergentes, deduplicación, scale-out, datacenter dirigido por software… palabras clave de un auténtico despliegue de las tecnologías, servicios y soluciones que ofrecemos. Pero lo más destacable encabezaba este post. Año tras año EMC Forum es una oportunidad para los profesionales de TI donde encontrarse unos con otros, con nosotros y con nuestros partners. Para EMC es, además de un gran oportunidad, un motivo de satisfacción reunir a tantos amigos alrededor de nuestra casa. Gracias por vuestra asistencia y os esperamos el año que viene.

*RPO (Recovery Point Objective)
**RTO (Recovery Time Objective)

Ventanas virtuales

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Con motivo del VMworld 2012 San Francisco, EMC y VMware han realizado un comunicado conjunto anunciando la disponibilidad de VMware vSphere Data Protection.

Se trata de una nueva solución de Backup basada en la tecnología de EMC Avamar, que permite realizar backup a disco de máquinas virtuales sin necesidad de agentes y con funcionalidad de deduplicación en origen.   Esta solución de respaldo se incorpora embebida en la nueva generación de la plataforma operativa de VMware, vSphere5.1, con la que se encuentra íntimamente integrada. Se gestiona directamente desde el cliente web de vSphere y es un sistema de protección muy sencillo de poner en marcha.

Es un buen momento para recordar en qué consiste la tecnología  Avamar y cuál es su valor en un entorno virtual.

El Backup tradicional y sus ciclos de backup total semanal e incrementales diarios, generan una enorme cantidad de datos duplicados. Esto, que sucede en cualquier entorno, es aún más patente en los entornos virtuales, donde un nuevo sistema puede provisionarse en escasos 10 minutos y donde  la redundancia de los datos alcanza dimensiones muy  importantes. La consecuencia es que el número de sistemas virtuales va creciendo en la misma medida que crecen la complejidad y la ventana de backup.

De hecho, el backup tradicional y sus tareas asociadas han sido uno de los grandes  inhibidores en el desarrollo y adopción de entornos cien por cien virtuales. Los beneficios derivados de la virtualización, en términos de compartición de infraestructura, flexibilidad, etc. se ven negativamente impactados por la competencia entre distintos sistemas para hacer backup durante un período restringido de horario.

La forma en que Avamar funciona consiste en dividir los datos en segmentos de longitud variable, comprimirlos, aplicarles un algoritmo hash de identificación y comprobar si ese segmento ya existe en el servidor de backup, en cuyo caso no se copia. Por el contrario, si los datos son únicos, se envían y con ellos se construye un backup full lógico, directamente preparado para realizar una recuperación sencilla cuando haga falta.

Los beneficios de esta estrategia son claros. Una reducción del tráfico de datos asociado al backup que alcanza el 95%, con los consiguientes ahorros en CPU, almacenamiento, conectividad o red. Menores requerimientos ambientales, tales como electricidad, refrigeración o espacio físico. Un backup mucho más rápido y una recuperación más sencilla, equivalente a recuperar directamente de un full backup. Menor RTO (Recovery Time Objective). Y un disaster recovery más eficaz, replicando solamente los bloques o segmentos necesarios y comprimidos, haciendo con ello un uso muy eficiente de la red WAN.

En definitiva, se trata de evitar que las tareas de respaldo puedan suponer ahora o en el futuro un obstáculo en los proyectos de virtualización, y simplificar así el camino hacia la nube.

Viejos conocidos: SAP y EMC

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Estas últimas semanas, y por múltiples razones que han coincidido en el tiempo, SAP se ha convertido en un tema recurrente de conversación en EMC.

Por un lado, nuestro departamento de TI ha puesto en producción lo que se denomina internamente proyecto ‘Propel’. Este proyecto consiste en la renovación de la plataforma que soporta el núcleo de los procesos de negocio de EMC, mediante un conjunto de soluciones basadas en el software empresarial de SAP.

Por otro lado, EMC y CISCO acaban de cualificar y lanzar al mercado la primera solución conjunta de infraestructura para SAP/HANA (https://community.emc.com/docs/DOC-17076).  HANA es una base de datos en memoria que parece destinada a convertirse en piedra angular de la mayor parte de las aplicaciones de SAP y, por tanto, de su estrategia.

La solución ahora cualificada se compone de software de SAP, servidores UCS de Cisco y almacenamiento VNX de EMC. Se trata de una configuración preparada para responder a las necesidades de crecimiento  de estos entornos en los tiempos del Big Data, sin descuidar las exigencias de rendimiento extremo que se esperan de una plataforma  ‘in memory’. O sea, una solución con capacidad de escalar de forma lineal (scale-out). Esta configuración es la primera de una serie de soluciones alrededor de SAP, que actualmente se están probando en nuestros laboratorios y  esperamos ver cualificadas próximamente.

Algunas de las ventajas que los clientes obtendrán de esta plataforma son un rendimiento predecible y una gestión integrada y simplificada de los distintos componentes, así como unos niveles de disponibilidad acordes con la criticidad de la plataforma a la que proporcionan servicio. En definitiva, reducción de los riesgos derivados de la infraestructura que una renovación de aplicaciones de este calado puede implicar y contención de los costes de explotación.

Otras áreas de colaboración entre ambas compañías, esta vez incluyendo a VMware, tienen que ver con las iniciativas de virtualización y cloud computing (http://www.sap.com/news-reader/index.epx?pressid=17747 ). SAP está transformando su oferta tecnológica con HANA, y lo hace atendiendo a múltiples demandas del mercado, entre las que figuran en lugar destacado los conceptos de desarrollo de la nube. La oportunidad para nuestros clientes es clara: la evolución de cualquier plataforma SAP en general y la introducción de HANA en particular constituye un buen momento para la revisión de la infraestructura que la soporta, adecuándola al nivel de servicio e innovación del nuevo software.

Las tendencias en esta materia apuntan hacia la transformación de las plataformas legacy y a favor de la estandarización sobre plataformas x86, reduciendo los costes asociados al hardware y favoreciendo la virtualización de las aplicaciones, pilares básicos en el desarrollo de una estrategia cloud,  junto con la capacidad de gestionar el crecimiento, la velocidad de despliegue y la automatización. Todas estas son tareas en las que EMC y VMware juegan un papel de primera fila ayudando a sus clientes a articular TI como un servicio.

EMC y SAP mantienen una relación multidimensional desde hace más de quince años. EMC es cliente de SAP, SAP es cliente de EMC y ambas compañías mantienen una relación de colaboración en la optimización y puesta a punto de soluciones. El resultado de esta relación es muy positivo para EMC, quien de acuerdo con los reportes de IDC(1) es líder de almacenamiento en entornos SAP. SAP es líder en el desarrollo de software de gestión empresarial. La colaboración entre ambas empresas proporciona una base sólida de confianza para nuestros mutuos clientes.

Ver el video “Transform SAP With Cloud And Big Data”

(1 IDC Storage User Demand Study, Fall 2011)

¡Nos vamos de Vacaciones!

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Tan Improductivo como valioso. Backup.

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Empezar diciendo que el backup es una tarea improductiva suena un poco fuerte, pero en honor a la verdad es una descripción realista. No hay mejor backup que aquél que no se utiliza nunca. Ahora bien, nadie discute su necesidad, es nuestro seguro cuando la información se pierde o se corrompe. 

Seguridad versus costes

Un clásico dilema entre seguridad y costes. La seguridad anima a realizar copias muy frecuentemente, de forma que si se corrompe la información podemos volver a la situación más reciente posible. Adicionalmente queremos disponer de copias de cierta información en un momento dado: bases de datos tal como estaban al cierre del transaccional, los ficheros del final del batch, la situación de ayer y anteayer, fotos del final de mes, del cierre de año, de los últimos siete años…     

El límite a tanta seguridad lo pone el consumo de recursos. El volumen de datos de backup en estas condiciones puede fácilmente ser entre cinco y diez veces más grande que el volumen de datos de producción original. Otros recursos afectados son la necesidad de capacidad de proceso, las comunicaciones y el tiempo, que se manifiesta en forma de ventanas de backup difíciles de cumplir.

El backup nos ha acompañado siempre (el restore lo ha hecho CASI siempre), y aunque llevamos trabajando en él durante décadas, nunca deja de ser un tema candente, problemático y evolutivo al mismo tiempo.  

El declive de las cinta

Hemos asistido al declinar del backup en cinta a favor del backup a disco. Ciertamente continúa existiendo una notable base instalada de dispositivos de cinta o robótica asociada, pero no es menos cierto que en la mayor parte de los casos se trata de infraestructura heredada y ya son pocos los nuevos proyectos en los que se apuesta por este tipo de tecnología.  

Las ventajas del  backup a disco tienen mucho que ver con la eliminación de un buen número de tareas manuales o engorrosas, tales como el etiquetado de cartuchos, carga y descarga de librerías, movimiento físico de información entre múltiples centros de proceso o el mantenimiento de la robótica y sus piezas mecánicas. Y con el incremento de la disponibilidad del dato, cuando éste es necesario al ofrecer los discos mecanismos de protección tales como RAID y evitar accidentes o accesos indebidos a la información durante los procesos de transporte y manipulación manual.

La irrupción de la deduplicación

Apoyado en el cambio anterior, se despliega otro avance impactante: la deduplicación. Más allá del tradicional ciclo de backup total seguido de n backups incrementales, la deduplicación permite hacer backup sólo de aquellos bloques que han cambiado, mostrando a la vez un backup sintético que tiene toda la apariencia de un backup total, y que requiere de un único paso para restaurarse.

La deduplicación nos permite incrementar de forma dramática la escalabilidad, reduciendo al mismo tiempo la ventana de backup, los costes operativos, energéticos y de espacio físico o el ancho de banda de las comunicaciones en proyectos de respaldo remoto (oficinas remotas, disaster recovery, etc.). La deduplicación se ha mostrado especialmente eficaz en los entornos virtualizados, en los que distintos sistemas virtuales contienen la misma información de forma redundante cientos o miles de veces.   

IT as a service nuevo reto para el backup

Ahora, las nuevas arquitecturas de producción Cloud Computing suponen una vuelta de tuerca adicional  en escalabilidad y hacen aparecer nuevos requerimientos a los que las tecnologías de backup han de adaptarse.

Los modelos de TI consumidos como servicio generan la convivencia entre múltiples usuarios, departamentos e incluso compañías diferentes en el caso de proveedores de servicios. Al reto de los nuevos servicios multicliente, ofrecidos bien a clientes internos o externos, las tecnologías de backup han respondido con la capacidad de aislar los datos de unos usuarios respecto de otros (multitenancy). De esta forma, cada cliente entendido como un grupo de trabajo, departamento o compañía se considera autónomo y se limita y autoriza a un ámbito determinado de los datos de backup, simplificando su trabajo, respetando la confidencialidad de los datos y evitando interferencias de unos usuarios con otros. 

En definitiva la tecnología y el ingenio desarrollados en los últimos cinco años nos han permitido actuar simultáneamente sobre ambos factores de equilibrio. Mejorar dramáticamente la seguridad de nuestros datos disminuyendo los costes asociados.

 

Video presentación blogger de seguridad

Las preocupaciones de la calle se dividen en preocupaciones de los usuarios finales sobre robo de datos, identidades y de las empresas a quienes les preocupa el cumplimiento de normas… (more…)

Videos Recomendados

Expand The Data Lake: New Data Lake, New Breakthroughs

Archivo del Blog

  • 2016 3
  • 2015 20
  • 2014 7
  • 2013 16
  • 2012 21
facebook
twitter
linkedin
youtube
rss