Posts Tagged ‘Datacenter’

Estrategia para el SDS

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Aunque ahora me encuentro en Madrid, tengo que confesar que acabo de volver de Boston, de nuestros headquarters en Hopkinton, en los que siempre se puede encontrar compañeros que son fuente eterna de inspiración y compendio de buen saber alrededor del mundo de TI.

Quiero esta vez compartir y reflexionar alrededor del SDS (Software Defined Storage), una de las piezas que componen el puzzle del llamado SDDC (Software Defined Data Center), estrategia de diseño de CPDs que seguro está en la mente de prácticamente cualquier persona relacionada con el mundo de TI.

Como el último que llega a casa siempre es el más esperado, el SDS está absolutamente presente en todos los ámbitos en los que he tenido la oportunidad de compartir con clientes, y los fabricantes estamos presentando propuestas para atender a esta incipiente tendencia de diseño de TI.

Y claro está, no puedo dejar pasar la oportunidad para advertir de lo importante que es tener una estrategia clara, bien definida y, sobre todo, completa. Y aquí es donde entra EMC de pleno en el juego con nuestra solución ViPR para SDS.

vipr

Muchas personas me comentan soluciones de distintos fabricantes para abordar estrategias de SDS, pero todas ellas responden a una problemática concreta dentro de toda la estrategia SDS, son piezas separadas. El asunto en sí es complejo, ya que no se trata solo de desarrollar soluciones que proporcionen capacidades como thin provisioning, terceras copias, copias remotas, gestión de recursos HW sin inteligencia, filesystems escalables, etc., sino que no hay que olvidarse de las estrategias de gestión y protección de la información, como activo-activo, disaster recovery, servicios de respaldo de la información (backup), movilidad de datos, y en general toda la funcionalidad necesaria para dar producción en el CPD actual. Todo ello gestionado, administrado y controlado además desde una única plataforma.

Todavía no he sido capaz de encontrar en el mercado ninguna solución, ViPR aparte, que aborde toda la problemática que conlleva el hecho de abstraer toda la funcionalidad e inteligencia que hoy en día reside en los propios sistemas de almacenamiento, elevarla a una capa solo SW y que además esté diseñada para tratar tanto con almacenamiento de propósito específico como HW commodity, este último tan de moda en la actualidad.

Les invito a profundizar en ViPR de EMC, actualmente la única plataforma que, por su diseño y capacidades, contempla la estrategia completa alrededor del SDS, teniendo en cuenta tanto la funcionalidad necesaria, como su extensión a todo tipo de sistemas de almacenamiento. Espero que esto les haga reflexionar y plantearse si realmente están abordando su estrategia de SDS de forma global y completa para su organización.

El fin de las arquitecturas accidentales

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

En EMC tenemos identificado lo que llamamos Arquitecturas Accidentales de Backup. Estas arquitecturas se han ido generando con los años, y obedecen a la gran cantidad de actores que están envueltos a la hora de garantizar la seguridad de los datos en una instalación.

Tenemos personas a cargo de los servidores físicos, responsables de máquinas virtuales, gestores de almacenamiento, de aplicaciones, administradores de bases de datos, de laptops, responsables de oficinas remotas…y cada uno tiene su librillo, con el que se siente cómodo y que necesita realizar para garantizar la seguridad y consistencia de su entorno, manteniendo la visibilidad y el control. El resultado es una enorme complejidad y unos altos costes de infraestructura y gestión.

Así los equipos de almacenamiento realizan un snap vía comando, mientras el DBA lanza su propio Backup con las herramientas que la base de datos le proporciona y el administrador de máquinas virtuales guarda una plantilla. No siempre se sabe  lo que está protegido y lo que no, y tampoco si la protección y los costes son consistentes con la criticidad de la información a través de toda la organización.

En estos últimos años, Cloud Computing nos ha enseñado que las organizaciones se dirigen hacia el consumo de TI como un servicio. Pienso que el Backup es precisamente una de las funciones idóneas para convertir en un servicio y donde el retorno de la inversión es más evidente. Un servicio transversal para todos los integrantes del Datacenter, respetando las herramientas que les son conocidas pero integrándolos mediante políticas unificadas y que permita gestionar la infraestructura, la monitorización, las analíticas, etc.

Esa filosofía es la que EMC ha incorporado a sus productos de Backup, patente en el lanzamiento realizado esta semana (https://community.emc.com/docs/DOC-24965). Mejor dicho, a sus  soluciones de protección de la información, Data Protection Suite, puesto que junto con el Backup se integran servicios de Disaster Recovery y Archivado.

Arquitecturas de backup

Arquitecturas de Protección: Integradas, abiertas, modulares.

Así, se da un paso adelante en la integración de bases de datos y backup, permitiendo a los DBas realizar el backup en su propio entorno, en el formato propio de la BBDD y con las herramientas que les son conocidas pero totalmente integradas con las políticas de protección corporativas. De esta forma, por ejemplo, un administrador de SAP HANA hace su Backup a través de SAP HANA Studio, y esta copia es registrada por el software de backup como propia, permitiendo al administrador de backup extender su ciclo de vida. Un administrador de Oracle puede hacer lo mismo a través de RMAN. Por cierto, que como parte del lanzamiento EMC ha certificado la primera plataforma de Backup deduplicado para Oracle Exadata.

También se potencia la integración con VMware, de forma que se permite hacer backup de máquinas virtuales a nivel de imagen desde vSphere, desde donde también se puede llevar a cabo la recuperación de las mismas; con ello se incrementan las capacidades de autoservicio. Es también interesante la asignación de políticas de seguridad mínimas por defecto cada vez que se crea una nueva máquina virtual, lo que permite saber que todos nuestros sistemas virtuales se encuentran protegidos sin excepción.  Además, se permite hacer boot de una máquina virtual directamente desde el backup, sin restauración previa. Menos de dos minutos para arrancar una máquina desde su backup, que puede luego moverse con vMotion a su ubicación definitiva.

Y cómo no, también integración más profunda con el almacenamiento, de forma que la plataforma de protección permite realizar copias de seguridad en los almacenamientos (snaps), incorporándolas también en la política de seguridad general y facilitando una recuperación muy veloz en caso de necesidad.

Para no hacer la entrada muy extensa, sólo señalar que éstas son quizá las aplicaciones más extendidas, pero se ha continuado el esfuerzo de integración de otras muchas aplicaciones de archivado y seguridad de datos, tales como Symantec, Commvault, Atempo, Opentext, etc. lo que permite a nuestros clientes desplegar una infraestructura modular y abierta.

En definitiva, la protección de la información entendida como un catálogo de servicios del datacenter, con visibilidad corporativa, incorporando backup, archivado y disaster recovery; integración entre los sistemas físicos y virtuales, las aplicaciones y el almacenamiento; escalabilidad más sostenible, reduciendo los costes y la complejidad. Una arquitectura de protección completa, frente a las arquitecturas accidentales basadas en silos.

La Fórmula 1 se transforma, los sistemas de Lotus también

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Lotus y EMC han anunciado su colaboración para la renovación de la infraestructura de información del equipo de Fórmula 1. Había pensado inicialmente en titular esta entrada algo así como ‘Lotus acelera en su camino hacia la nube’, uniendo los conceptos de velocidad asociados a Lotus con la nube tan ligada a EMC.  

Pero me ha interesado aún más el concepto de transformación, muy representativo de la colaboración entre ambas compañías.

El caso es que la Fórmula 1 va a sufrir un cambio de reglamento en el año 2014, lo que va a suponer modificaciones profundas en el diseño de los monoplazas (Vídeo). Cambiarán los motores V8 de 2.4 litros, que serán sustituidos por motores 1.6 v6 turbo, se introducen cambios aerodinámicos,  nuevos sistemas de recuperación de energía, restricciones adicionales de carburante, y se extiende la durabilidad mínima de los motores.

Dice Eric Boullier, Director del Equipo Lotus (Vídeo), que este cambio radical en el diseño de los coches supone una gran oportunidad para hacer las cosas de forma más inteligente que sus competidores y sacarles ventaja. De hecho, y no puede ser de otro modo, el objetivo de Lotus es convertirse en campeones del mundo del ‘Gran Circo’ en 2015.

Lotus Formula 1 y EMC

Desde el punto de vista de Tecnologías de la Información, esta colaboración se traduce en un importante despliegue que incluye diversas tecnologías de EMC.

Lotus alojará tanto sus sistemas de diseño CAD como sus sistemas ERP en arquitecturas convergentes vBlock, que serán instalados en sus  datacenters y en unidades móviles de soporte. Es curiosa esta idea del vBlock, conteniendo toda la capacidad de proceso, conectividad, o almacenamiento necesario para proporcionar servicios de escritorio virtual y aplicaciones móviles desde un camión; la infraestructura de soporte a la nube escondida en un paddok.  

También se desplegarán infraestructuras de almacenamiento en nube ATMOS, donde llegará la información archivada por Cloud Tiering App buscando optimizar el almacenamiento; Data Domain se implantará para realizar backup deduplicado y Syncplicity será utilizado para la sincronización de información en dispositivos móviles y su compartición entre miembros del equipo, securizada y organizada a través de Documentum.   

Toda una transformación de TI. Aprovechar que las condiciones de nuestro negocio y su entorno cambian como una oportunidad para mejorar lo que venimos haciendo y obtener nuevas ventajas competitivas.  Patrick Louis, CEO de Lotus, se refiere a ello como disponer de la gente y la tecnología correctas. Estoy orgulloso de que incluya a EMC en ambos conceptos.

Primavera 2013 ¿Qué se lleva en Almacenamiento?

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Esta pregunta tan simple me provoca unos instantes de reflexión. Las tendencias alrededor del mundo de TI nos hablan de Cloud Computing, Big Data, Movilidad, Redes sociales…pero ¿cómo se ve 2013 con las gafas del almacenamiento en sentido estricto? He intentado responder a esta pregunta sobre la marcha, sin pretender resultar exhaustivo.    

Empezando por lo más básico, continúan las tendencias ya en marcha respecto a las tecnologías de almacenamiento, siempre con los objetivos de mejorar la eficiencia y el rendimiento. La sustitución de las cintas y cartuchos por almacenamiento en disco, el alza de la deduplicación y la compresión así como las técnicas de provisión ‘thin’ y la automatización de la estratificación son reflejo de estas tendencias. 

Mención aparte merece  el desarrollo de tecnologías flash, que viene a complementar las tecnologías de discos mecánicos tradicionales y de las que estamos viendo un auténtico auge, bien en forma de arrays híbridos o en dispositivos totalmente electrónicos. Un ejemplo, EMC XtremSW, una tarjeta PCI de almacenamiento capaz de proporcionar más de un millón de operaciones por segundo y cuya segunda generación se encuentra en la calle desde hace unas semanas. Otro ejemplo, EMC XtremIO, un array 100% Flash, con arquitectura scale-out y deduplicación incorporada. Lo veremos en disponibilidad general en el verano.      

Los cada vez más exigentes niveles de servicio establecidos en el datacenter impulsan la adopción de infraestructuras convergentes, esto es, infraestructuras que contienen Almacenamiento, Capacidad de Proceso y Red en un sistema integrado. Los objetivos principales son el despliegue más rápido y consistente de la infraestructura, la mejora de los niveles de servicio y disponibilidad así como la reducción de los costes de gestión y mantenimiento. En el caso de EMC estas infraestructuras convergentes, nuestros VBlock, son desarrolladas y fabricadas junto con otras dos compañías líderes, Cisco y VMware. 

 Software Defined DataCenter

Cloud, BigData, Software Defined DataCenter

El fenómeno de la movilidad plantea nuevos retos relacionados con la colaboración y el intercambio de información, así como con la sincronización de dispositivos. Se requieren infraestructuras de almacenamiento que proporcionen servicio a grupos de usuarios ubicuos desde cualquier lugar y a través de dispositivos heterogéneos. También se requiere sincronizar los distintos dispositivos de un mismo usuario, todo ello, manteniendo las políticas de seguridad corporativa.  Syncplicity es nuestra solución integral de espacio en nube para dar respuesta a estos requerimientos, que puede implantarse en nube pública o privada, sobre infraestructuras de almacenamiento de EMC.     

El fenómeno de Big Data, la necesidad de almacenar y procesar cantidades ingentes de información no estructurada (imágenes vídeos, pdfs, etc) está impulsando nuevas infraestructuras de almacenamiento hiperescalables (arquitecturas scale-out), que están llamadas a ampliar su protagonismo en el mercado. Cuando se aumenta la capacidad de un sistema de este tipo, se incrementa de forma lineal su rendimiento, previniendo la posible generación de cuellos de botella en este universo de datos masivos. Gartner ha señalado en su último estudio a EMC Isilon como líder indiscutible de la industria en este segmento.   

También relacionado con las nuevas exigencias en niveles de servicio, la Federación de Infraestructuras permite desarrollar modelos de datacenters federados activo/activo, donde las aplicaciones adquieren movilidad geográfica sin interrupción del servicio, y donde la tradicional recuperación ante desastres (Disaster Recovery) evoluciona hacia escenarios de evitación del desastre (Disaster Avoidance). EMC VPLEX se encarga de federar estas infraestructuras de almacenamiento, que pueden ser o no de EMC, y extender la federación hacia otros datacenters.  

Por último, como resultado de los procesos de virtualización y estandarización de infraestructuras que hemos visto desarrollarse en los últimos años, continuará el fenómeno de transferencia de valor desde el hardware hacia el software, sustanciando lo que llamamos Software Defined Datacenter (SDDC). Este concepto de inteligencia dirigida por el software  responde a la búsqueda de entornos más flexibles, ágiles y económicos, donde el software es el encargado de proporcionar nuevos servicios avanzados y orquestar sistemas de almacenamiento heterogéneos. Un concepto en plena efervescencia esta primavera.

 

 

 

 

 

 

 

Universos abiertos

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Mi primer trabajo serio, tras varias experiencias como free-lance, me llevó a finales de los ’80 a trabajar en el departamento de informática de un gran banco, un entorno mainframe. Un mainframe no era un ordenador cualquiera. Los que trabajábamos en este entorno destilábamos entonces un cierto orgullo profesional, fruto de trabajar con los que se anunciaban como los ordenadores más grandes del mundo. 

En aquel momento y en aquel entorno, el mainframe era el centro de un universo alrededor del cual giraba todo. Y todo significa TODO. Los sistemas de almacenamiento en disco, las cintas y cartuchos, las impresoras, todos ellos tratados como subsistemas o periféricos. Los terminales y las comunicaciones (específicas),  los sistemas de alimentación eléctrica y la refrigeración por agua. Los analistas de sistemas, operadores, planificadores, desarrolladores, responsables de seguridad…e incluso los managers. El Datacenter orbitando alrededor de una única plataforma, un universo autocontenido y de fronteras conocidas.

Hoy el mainframe convive con sistemas abiertos que coexisten  a su vez con sistemas virtuales los cuales  pueden componerse en forma de nube. Los sistemas de almacenamiento proporcionan servicio a múltiples plataformas heterogéneas simultáneamente. Las redes de comunicaciones, los sistemas eléctricos y de climatización tienden a la estandarización, comunes para todas las plataformas. Y estas plataformas son ahora  las que orbitan alrededor de las personas, donde es común que un técnico de sistemas, por ejemplo, tenga a su cargo algunos centenares de sistemas virtuales.

En definitiva, se trata de un universo más abierto, donde las fronteras se expanden, no sólo en término de plataformas o localizaciones, sino incluso empresas distintas. Si utilizo uno o múltiples  proveedores de servicio, conceptualmente mi datacenter llega hasta allí e incluso alcanza a un usuario final cuyo terminal es heterogéneo, inteligente y móvil. Un espacio vasto y en permanente expansión.

En este nuevo entorno, algunas habilidades aparecen o se potencian en nuestras organizaciones.  La primera es, quizá la de pensar en nosotros mismos como parte del negocio y no solamente como un centro de costes, esto es, hacer nuevas propuestas, añadir valor a la cadena productiva. 

Hay que potenciar la visión estratégica, y más en este momento de presupuestos bajo presión, analizar las oportunidades de crecimiento del negocio a medio y largo plazo. Explorar nuevos modelos de arquitecturas y explotación. Conocer la oferta de servicios generada a nuestro alrededor, en infraestructura, plataforma y aplicaciones. Escoger las opciones más adecuadas para cada departamento o servicio, en función del  valor y coste.

Construir arquitecturas globales a través de distintas tecnologías.  Planificar la convivencia o integración entre los sistemas y arquitecturas. Medir la calidad de nuestro servicio y pasar la factura a quien corresponda.

Y hay que lidiar con los nuevos usuarios, nacidos digitales, innovadores, indisciplinados, y más productivos, acostumbrados a navegar por universos abiertos y difíciles de encerrar en el datacenter. Todo ello no sólo manteniendo sino incrementando la seguridad de nuestros datos y procesos.

Seguramente veremos aparecer nuevos perfiles para cubrir algunas de estas necesidades, pero en cualquier caso, algo queda claro: No nos vamos a aburrir.  

 

 

 

 

 

Videos Recomendados

Expand The Data Lake: New Data Lake, New Breakthroughs

Archivo del Blog

  • 2016 3
  • 2015 20
  • 2014 7
  • 2013 16
  • 2012 21
facebook
twitter
linkedin
youtube
rss