Posts Tagged ‘almacenamiento’

La apuesta por el Open Source

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Nos aproximamos a las Navidades, y no quería despedir el presente año si antes escribir sobre la firme apuesta de EMC por liberar software de valor añadido bajo licencia Open Source. Aunque esto no es una noticia nueva, el último anuncio al respecto realizado hace muy pocos días viene a confirmar y fortalecer este movimiento.

A modo de introducción y como resumen preliminar, creo bueno enumerar las distintas iniciativas en las que EMC está presente alrededor del mundo Open Source desde hace algún tiempo:
OpenStack (contribuciones al código base, drivers, Mirantis Fuel Plug-ins para ScaleIO)
Pivotal software como Open Source (Greenplum, HAWQ, MADLib, Gemfire)
VMware Photon
EMC CoprHD

De esta forma, y antes incluso de que comentemos el último anuncio, puede verse claramente el compromiso de EMC alrededor del Open Source. La participación activa en OpenStack, así como la liberación de paquetes de software completos de claro y diferencial valor añadido, hace pensar que estamos asistiendo claramente a un cambio en cómo se va a consumir el software durante los próximos años, y en el que EMC cree y quiere participar como protagonista.

Después de la anterior perspectiva, entramos de lleno ya en el último anuncio realizado hace unos días, a principios del presente mes de Diciembre. Todos estos anuncios se liberan bajo el acuerdo de licencia Apache 2:

1.- CoprHD (“copperhead”) versión 2.4, https://coprhd.github.io/
Se ha lanzado la nueva versión de CoprHD, lo cual demuestra la completa apuesta de EMC por enriquecer esta plataforma Open Source ya liberada desde hace muchos meses. Para los que no lo conozcan, CoprHD es una capa de abstracción, gestión de recursos y automatización de recursos de almacenamiento universales (bloque, NAS, objeto, HDFS). En otras palabras, un controlador de almacenamiento definido por software. En esta última versión se ha añadido soporte de ECS y XtremIO, y sobre todo, recogido las contribuciones a la plataforma realizadas por terceros, como Intel.

2.- RackHD (Rack Hardware Director), https://github.com/rackhd
Un nuevo proyecto Open Source que tiene como objetivo facilitar al máximo la gestión del HW a nivel de rack y muy alto escalado (piensen en sistemas hiperconvergentes). Se pretende gestionar de la mejor manera posible aquellas tareas inherentes a las plataformas y que a gran escala son muy complicadas de llevar a cabo. Piensen en actualizaciones de firmware y BIOS, telemetría, plantillas de arranque. Es decir, viene a contribuir al proceso de despliegue de servidores en el CPD. Por cierto, también es capaz de desplegar hipervisores y sistemas operativos.

Rackhd architecture-Proyecto Open Source

3.- REX-Ray 3.0, https://github.com/emccode/rexray
Un proyecto Open Source que pretende facilitar la gestión del almacenamiento en entornos de contenedores de aplicación (piensen en Dockers y Mesos). Es decir, se trata de gestionar la persistencia de los contenedores. Se han aumentado las capacidades de la plataforma y se ha añadido soporte de GCE (Google Compute Engine), Isilon y VMAX.

EMC corpHD-Proyecto Open Source

Como pueden observar, muchas noticias y novedades muy interesantes para cerrar el año. Me permito invitarles, como siempre antes de terminar, a profundizar en todas ellas. Felices Fiestas y próspero 2016.

DSSD ya está aquí

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Justo hace ahora un año que escribí un artículo titulado “Aplicaciones de nueva generación ¡Estáis de enhorabuena!” (http://esblog.emc.com/2014/06/23/aplicaciones-de-nueva-generacion-estais-de-enhorabuena/), y que recomiendo leer de nuevo. En aquella ocasión, quise hace mención a una iniciativa de EMC claramente pionera en el mercado, y que posibilitaría abordar cargas de trabajo tradicionalmente consideradas muy pesadas, de forma más efectiva, y por lo tanto, rentable.

Como sucede muchas veces en EMC, el asunto en cuestión comienza con la adquisición de una compañía totalmente desconocida (DSSD), pero que presenta un valor potencial enorme para la estrategia de EMC. Posteriormente, y con el paso del tiempo, se ven los frutos de dicha adquisición con soluciones de muy alto valor añadido disponibles en el mercado. Y este es el caso del artículo de hoy.

A lo largo de las próximas semanas, se va a anunciar de forma oficial la disponibilidad de DSSD D5, un sistema “Rack Scale Flash”, que presenta unas características únicas en el mercado. Se trata de almacenamiento compartido Flash, pero que se conecta directamente a los servidores mediante PCIe Gen3, utilizando NVMe. Esto permite disponer de los beneficios de la tecnología Infografía Flash, junto a la flexibilidad de un sistema de almacenamiento compartido. Tengan en cuenta que estamos hablando de poder presentar, en la primera versión, hasta 144TB y poder hacer más de 10 millones de IOPS (4K, Random Reads), con un ancho de banda de 100GB/s y una latencia no superior a 100 microsegundos. ¿Se imaginan las posibilidades que puede abrir esta tecnología?

Según ha ido trascurriendo el tiempo, hemos podido saber que el presente invento no solo puede funcionar como un sistema de memoria extendida del servidor, sino que además puede mostrase como si de un sistema de almacenamiento tradicional se tratara. Y lo mejor es que las distintas opciones, mostradas a continuación, pueden ofrecerse simultáneamente.

DSSD

De esta manera, sea cual sea la naturaleza de las cargas de trabajo que necesitemos acelerar, DSSD D5 proporciona un método de acceso a la misma, para poder disfrutar de su tremendo valor añadido. Cualquier aplicación de bloque puede acceder directamente al sistema a través del controlador de dispositivo que se proporciona. Aplicaciones que se alimenten de una fuente de datos Hadoop pueden también integrarse desde el primer día (EMC proporciona el conector para las principales distribuciones de Hadoop), y el resto de nuevas aplicaciones disponen de un API para efectuar la integración con el producto.

Debatía el otro día con un compañero las posibilidades que brinda esta tecnología. Por ejemplo, en el área de detección de fraude del sector financiero. ¿Se imaginan poder cruzar en tiempo real la inmensa cantidad de eventos que llegan de las diferentes partes de un sistema bancario en busca de fraude? El retorno de la inversión sería prácticamente inmediato. Otras aplicaciones como modelado genómico, de materiales, previsión climática, desarrollo aeronáutico y de automoción verían sus posibilidades incrementadas de forma exponencial. Las ganancias potenciales son enormes.

Como siempre, les invito a profundizar y reflexionar sobre esta nueva y excitante propuesta tecnológica de EMC, que seguro permitirá abordar un nuevo abanico de posibilidades, aportando un tremendo valor añadido.

La consolidación de ScaleIO

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Hace 15 meses, allá por diciembre del 2013, escribí un artículo titulado “El prometedor futuro de ScaleIO”, en el cual traté de mostrar las capacidades y el potencial de un producto, ScaleIO, que EMC había comprado recientemente por aquel entonces, y que reconozco me gustó muchísimo desde el primer momento.

Para aquellos que no conozcan ScaleIO, aparte de recomendar la lectura del anterior artículo, me permitiré mencionar muy brevemente que es un producto enfocado a construir un sistema de almacenamiento basado en discos y/o memoria que estén directamente conectados a un servidor, sirviendo la capacidad gestionada por red IP (Fibre Channel aquí brilla por su ausencia) y encargándose de toda la gestión y funcionalidad del sistema de almacenamiento generado. Todo esto, además, de forma transparente a las aplicaciones de negocio, que siguen accediendo en modo bloque a la capacidad. Estamos por lo tanto saliendo del paradigma habitual del sistema de almacenamiento y red SAN al que estamos acostumbrado desde hace ya muchos años.

En todo este tiempo, he tenido la oportunidad de trabajar de cerca con el producto y ver por lo tanto como ScaleIO ha desarrollado funcionalidades adicionales. Estas vienen a complementar la extraordinaria base sobre la que está desarrollado el producto, y que permiten que estemos en el momento de alumbrar una nueva gama de soluciones basados en esta tecnología, que van a permitir afrontar proyectos de una manera novedosa y disruptiva (como dicen los anglosajones). Por lo tanto, la actual oferta de producto basada en ScaleIO se va a ampliar de forma significativa, con nuevos lanzamientos que sucederán a lo largo del presente año. EMC cuenta con un significativo número de clientes que ya han adoptado ScaleIO como base tecnológica para proyectos clave dentro de sus respectivas organizaciones, y está muy claro que con la oferta que viene, el despliegue de esta tecnología se va a incrementar de forma significativa.

ScaleIO

Y es que ScaleIO nació como un producto a comercializar solamente como SW, siendo el cliente el que decide sobre qué infraestructura desea construir sus sistemas de almacenamiento. Pero ¿qué ocurre entonces con todos aquellos clientes (que son la mayoría) que desean adquirir una solución completa a un proveedor de confianza? Aquí es donde EMC, experta en adquisiciones de funcionalidades estratégicas que luego construye y comercializa como soluciones completas, es clave, y va a poner en el mercado una nueva gama de soluciones estratégicas para aquellos clientes que confían en la experiencia, la solidez del líder y el excelente soporte del que EMC viene históricamente haciendo gala.

Estén por lo tanto preparados para lo que está por venir durante el año. Veremos soluciones hiperconvergentes basadas en ScaleIO, con la potencia y escalabilidad necesarias para afrontar proyectos de cualquier demanda de prestaciones de una forma innovadora, y por supuesto, con el soporte completo de EMC a toda la solución.

Les invito a estar atentos, o incluso a registrarse y participar si no lo han hecho ya, a nuestro EMC World 2015, en el cual se anunciarán las soluciones sobre las que he tratado de focalizarme en este artículo. Estoy seguro que el conocimiento de estas soluciones hará que los responsables de diseño y arquitectura de las infraestructuras de TI puedan abordar sus necesidades de nuevas maneras, para poder así tener éxito en el difícil entorno actual, en el cual proporcionar la infraestructura necesaria con la capacidad de inversión disponible es todo un reto.

El sueño del Data Lake

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Si hoy nadie duda del valor de la información para las empresas, el fenómeno de Big Data ha acelerado el interés de las organizaciones alrededor de la explotación masiva del valor que para el negocio se oculta en los datos.

Sin embargo, lo normal es que esta información siga estando prisionera de los sistemas que la generaron así tenemos los registros financieros, los de ventas, los que vienen de sensores de la línea de fabricación, los contratos, los vídeos de seguridad…aunque transformamos y enviamos algunos de estos datos a un Data Warehouse, esto no significa una completa reutilización de la información por distintas aplicaciones, o lo que es lo mismo, no significa una explotación integral de los datos por distintas unidades de negocio.

EMC DATA LAKES

El concepto de Data Lake, un repositorio lógico e hiperescalable de información, viene motivado por la necesidad de movilizar la información, haciéndola accesible bien para su uso estadístico y analítico, bien para ser embebida en otro tipo de aplicaciones y procesos. Esto es, tiene que ver con liberar y explotar la información de los silos en los que se encuentra estancada.

Toda la Información

Pero ¿de qué tipo de información estamos hablando? De toda. Estructurada o desestructurada, interna o externa, de seguridad o financiera, tiempo real o batch. El Data Lake ideal contiene toda la información que el negocio necesita para su actividad, crecimiento y desarrollo competitivo.

Por ejemplo, la información de las redes sociales recolectada por el área de Marketing es relevante para conocer mejor a tu cliente, verificar el grado de aceptación de un competidor en el mercado o para entender el ruido generado por un determinado incidente con uno de nuestros productos; o sea, todo eso que llamamos análisis de sentimientos, tan importante en la estrategia de ventas e imagen de marca. Pero esa misma información también puede ser de utilidad para perfeccionar nuestros mecanismos de atención al cliente, de fabricación o de logística, incluso adelantando necesidades antes de que éstas realmente se manifiesten.

De la misma forma, los registros de actividad (logs) y secuencias de clics generados por los distintos dispositivos de nuestra plataforma de comercio electrónico, contienen información valiosa que nos permite entender el comportamiento de los usuarios, lo que es tan relevante para las áreas de seguridad como para las áreas de marketing. La misma información puede ser utilizada para proporcionar distintos ángulos a distintas unidades de negocio.

El Data Lake no sólo se nutre de datos internos de la organización. Cierta información externa, como la que tiene su origen en los mercados de futuros, los datos meteorológicos o calendarios de eventos, puede servirnos para planificar nuestras finanzas o definir nuestras políticas de precios, incluso de forma automática: si conozco el impacto del encarecimiento del petróleo en mis costes, puedo adaptar de forma automática mis tarifas, lo que reduce la posibilidad de errores e incrementa mi agilidad frente a la competencia.

Data Lake no es igual que Data Base.

A diferencia de las bases de datos, en el Data Lake se almacenan los datos tal cual se generaron, en su formato original y antes de someterlos a ninguna transformación o modelización, lo que permite garantizar que no han perdido ningún aspecto de la información original. Esta ingesta masiva es posible porque su escalabilidad es muy grande y sus costes muy bajos, tanto en términos de software como de hardware o gestión; no son comparables a los costes de una base de datos tradicional.

Otro aspecto diferencial es la riqueza de metadatos, datos que hablan de los datos, necesarios para mantener la seguridad y trazabilidad del dato, y que constituyen una fuente de valor añadido al aportar información sobre el contexto.

El concepto del Data Lake no es el de un archivo estático donde la información envejece y cumple su ciclo de vida; se trata de un repositorio activo y estratégico, capaz de crecer al ritmo que lo hagan la organización y las nuevas ideas, facilitando la ingesta, el cruce y la reutilización de información en cualquier formato. También permite la construcción de aplicaciones que puedan utilizar sus datos directamente, incluso en tiempo real, incrementando la inteligencia del negocio y posibilitando la respuesta inmediata ante ciertos eventos.

El Data Lake conjuga el valor de la información del negocio con las posibilidades que la ciencia de los datos proporciona, y es el sustrato en el que se apoya el desarrollo de un nuevo tipo de aplicaciones predictivas, de alto valor añadido, embebidas en los procesos de la organización y que favorecen el desarrollo de innovadores modelos de negocio.

 

Aplicaciones de nueva generación ¡estáis de enhorabuena!

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Ya aprieta el calor en Madrid, y esto me lleva a compartir mi entusiasmo ante una nueva propuesta de valor que EMC está preparando para las aplicaciones de nueva generación, a las que algunos asimilan (no sin razón) a cargas de trabajo pesadas, y otros a entornos de muy alto rendimiento, y que no puedo más que compartir con los lectores. 

Seguro que los gestores de IT de las compañías han tenido o tienen que enfrentarse al reto de proveer una infraestructura tecnológica que soporte aplicaciones de alto valor añadido al negocio, sin “romper el banco” en el intento. 

Es muy típico escuchar de un cliente demandar soluciones a entornos muy concretos que no ofrecen el rendimiento adecuado, o que consumen una barbaridad de recursos sin terminar de ofrecer lo que el cliente realmente espera. Incluso a veces, realizando fuertes inversiones en infraestructura, no resulta sencillo hacer que determinados entornos rindan de forma óptima al nivel que se desea.

Estoy hablando de entornos tipo “Analytics” o “Big Data”, bases de datos en memoria o sistemas de análisis en tiempo real. También, y de forma más específica, investigación genómica, reconocimiento facial o modelos climatológicos. En general, todo aquello que tenga que trabajar con Hadoop, Cloudera, Gemfire o SAP HANA. 

EMC, en su ánimo de ofrecer la mejor propuesta posible para todo tipo de entornos, está trabajando en una nueva solución basada en el producto de la compañía DSSD, de reciente adquisición por nuestra parte. La tecnología empleada es innovadora, y se basa en memoria flash para el servidor, pero con un enfoque tecnológico único en el mercado, para poder proporcionar las características adecuadas de rendimiento y fiabilidad que estos entornos de muy alto rendimiento demandan. La clave está, aparte de poder servir muchas IOPS, en proporcionar una latencia extremadamente baja a una cantidad de memoria mucho mayor de la posible con las tecnologías actuales. 

Flash Everywhere

A nadie se le escapa que el protagonismo de este tipo de entornos de alto rendimiento que suponen las aplicaciones de nueva generación en el mundo de IT, es cada vez más relevante, por su claro valor añadido hacia el negocio, y su uso se verá incrementado de forma exponencial en los próximos años. Adaptarse a este tipo de entornos de forma óptima y saber extraer todo el potencial que son capaces de brindar al negocio, marcará claramente la diferencia entre compañías. 

Invito por lo tanto a todos los interesados a profundizar en esta nueva tecnología, que viene a aumentar si cabe aún más la extensa y completa oferta de soluciones de EMC.

Estrategia para el SDS

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Aunque ahora me encuentro en Madrid, tengo que confesar que acabo de volver de Boston, de nuestros headquarters en Hopkinton, en los que siempre se puede encontrar compañeros que son fuente eterna de inspiración y compendio de buen saber alrededor del mundo de TI.

Quiero esta vez compartir y reflexionar alrededor del SDS (Software Defined Storage), una de las piezas que componen el puzzle del llamado SDDC (Software Defined Data Center), estrategia de diseño de CPDs que seguro está en la mente de prácticamente cualquier persona relacionada con el mundo de TI.

Como el último que llega a casa siempre es el más esperado, el SDS está absolutamente presente en todos los ámbitos en los que he tenido la oportunidad de compartir con clientes, y los fabricantes estamos presentando propuestas para atender a esta incipiente tendencia de diseño de TI.

Y claro está, no puedo dejar pasar la oportunidad para advertir de lo importante que es tener una estrategia clara, bien definida y, sobre todo, completa. Y aquí es donde entra EMC de pleno en el juego con nuestra solución ViPR para SDS.

vipr

Muchas personas me comentan soluciones de distintos fabricantes para abordar estrategias de SDS, pero todas ellas responden a una problemática concreta dentro de toda la estrategia SDS, son piezas separadas. El asunto en sí es complejo, ya que no se trata solo de desarrollar soluciones que proporcionen capacidades como thin provisioning, terceras copias, copias remotas, gestión de recursos HW sin inteligencia, filesystems escalables, etc., sino que no hay que olvidarse de las estrategias de gestión y protección de la información, como activo-activo, disaster recovery, servicios de respaldo de la información (backup), movilidad de datos, y en general toda la funcionalidad necesaria para dar producción en el CPD actual. Todo ello gestionado, administrado y controlado además desde una única plataforma.

Todavía no he sido capaz de encontrar en el mercado ninguna solución, ViPR aparte, que aborde toda la problemática que conlleva el hecho de abstraer toda la funcionalidad e inteligencia que hoy en día reside en los propios sistemas de almacenamiento, elevarla a una capa solo SW y que además esté diseñada para tratar tanto con almacenamiento de propósito específico como HW commodity, este último tan de moda en la actualidad.

Les invito a profundizar en ViPR de EMC, actualmente la única plataforma que, por su diseño y capacidades, contempla la estrategia completa alrededor del SDS, teniendo en cuenta tanto la funcionalidad necesaria, como su extensión a todo tipo de sistemas de almacenamiento. Espero que esto les haga reflexionar y plantearse si realmente están abordando su estrategia de SDS de forma global y completa para su organización.

Almacenamiento virtual, visibilidad y control

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

La aparición y desarrollo de la tercera plataforma de computación supone un reto muy serio para las infraestructuras tradicionales de almacenamiento. Este nuevo entorno requiere de la agilidad y flexibilidad de la nube, la escalabilidad sin precedentes que Big Data impone, la velocidad del tiempo real, o la necesidad de gestionar datos ubicuos y en formatos variopintos generados por redes sociales y dispositivos móviles.

Y claro, necesitamos cumplir estos nuevos requerimientos utilizando las infraestructuras que ya tenemos, es decir, potenciando las inversiones ya realizadas y evitando que se conviertan en silos incomunicados donde la información se estanca.

En este contexto, el de responder a las nuevas necesidades web-scale sobre  infraestructuras tradicionales, es en el que se encuadra el anuncio de nuevas versiones de ViPR y SRM suite del pasado 30 de Enero (vea lanzamiento).

Ya hemos hablado en este blog de ViPR (link al post de ViPR), vértice de la estrategia de almacenamiento definido por software de EMC. ViPR es una solución software que permite abstraer el almacenamiento de los distintos sistemas físicos, para componer un único conjunto de capacidad de almacenamiento o array virtual, una plataforma simple y extensible capaz de provisionar servicios de almacenamiento de forma automática y con escalado prácticamente ilimitado.

Virtual Data Center

EMC Storage Resource Management Suite (SRM) es una solución software que proporciona visibilidad y control sobre la capacidad, rendimiento y configuración de recursos de almacenamiento físico y virtual, lo que reduce el esfuerzo para mantener el control y garantizar el nivel de servicio sobre las infraestructuras, potenciando las inversiones ya realizadas.

SRM Suite

Sinergias de la integración
Desde el pasado 30 de enero, ViPR y SRM se integran en un único interface, centralizando la gestión de almacenamiento heterogéneo. En este entorno, ViPR descubre los arrays físicos que se encuentran en la instalación, y permite  realizar las tareas de  reporting y chargeback para los arrays virtuales en él definidos; por su parte SRM permite realizar tareas similares para los arrays físicos que ya se encuentran instalados y hacerlo a través de la misma consola.

La combinación de ambos productos permite:

  • Analizar la capacidad consumida así como las tendencias, facilitando las tareas de capacity planning.
  • Monitorizar el rendimiento end-to-end, desde el servidor hasta el almacenamiento físico o virtual, así como descubrir los posibles incumplimientos de los niveles de servicio acordados, lo que a su vez permite identificar posibles problemas.
  • Analizar cambios en el entorno y validarlos contra las reglas de compliance establecidas por la organización, para garantizar que el entorno se encuentra siempre en cumplimiento, y advirtiendo de cambios que pudieran afectar a la recuperabilidad de los datos.
  • Descubrir la capacidad física de los arrays que podría ser virtualizada y añadirla al pool virtual si así se precisa.
  • Automatizar los reportes sobre recursos alocados y realmente utilizados.
  • Centralizar la funcionalidad anterior en un único cuadro de mandos.

En definitiva en un entorno en el que la combinación de entornos físicos y virtuales, la presencia de distintos proveedores y un crecimiento explosivo favorecen la aparición de silos de información inconexos y difíciles de mantener, la integración de ViPR y SRM proporciona las herramientas orientadas a gestionar el entorno de manera más sencilla y eficiente, mejorando la visibilidad del servicio en su conjunto y favoreciendo la consistencia en temas de seguridad, disponibilidad o cumplimiento normativo.

entorno fisico y virtual

El prometedor futuro de ScaleIO

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Escribo esta vez desde Boston, donde lentamente el invierno hace acto de presencia y deja su característico manto nevado en nuestros headquarters en Hopkinton, donde he tenido varias reuniones con nuestros colegas americanos de esas que podrían denominarse “de estrategia”.

Y es que vengo de recoger de mi cliente una incipiente tendencia a la “comoditización” (palabra horrible por cierto, pero que seguro todos sabemos interpretar) de todos aquellos activos que no sean esenciales en el soporte de su entorno crítico de negocio. Hasta aquí nada nuevo, pero lo cierto es que la forma en la que mi cliente, y de alguna manera el propio mercado, pretende abordar esta faceta sí que plantea una serie de importantes beneficios, siempre que se ejecute de forma correcta.

No se nos escapa que cada vez hay más alternativa disponibles en el mercado de “bloques de proceso”, que no son más que elementos hardware que unifican, generalmente en un formato potencialmente barato, capacidad de proceso (CPU y memoria) además de almacenamiento interno (el DAS de toda la vida) en un formato tipo “mini-cuchilla” pensado para altas densidades en muy poco espacio. La clave estriba en que ahora este almacenamiento interno, en lugar de utilizarse para el típico arranque del sistema operativo y poco más, por sus características (discos Flash en muchos casos o incluso tarjetas de memoria) y tamaño, de repente se convierte en un potencial contenedor de información que, bien explotado, puede suponer un inmenso valor añadido en control de costes. 

Ahora bien, este potencial ahorro de costes solo será rentable si no queda convertido en un incremento de costes de gestión de estas nuevas plataformas, y ahí es donde entra en escena ScaleIO, un producto de reciente introducción por parte de EMC, pero que sospecho va a desarrollar un papel importantísimo durante los próximos meses, por su estratégica concepción y tremendo potencial para aumentar sus capacidades, ya de por sí llamativas, y por ende sus ámbitos de posible aplicación.

Permítanme que les cuente brevemente qué es ScaleIO, y seguro que comprenden el porqué de mis anteriores aseveraciones. ScaleIO es un producto 100% software, que tiene como misión principal aglutinar todo el espacio de almacenamiento que encuentre en los servidores (tarjetas Flash o discos de cualquier naturaleza), bajo una capa común de gestión. De esta forma, lo que antes eran discos aislados locales a cada servidor, pasan a convertirse en un pool de almacenamiento puesto a disposición de todo aquel servidor que lo necesite. Dicho de otra manera, puro Software Defined Storage (SDS) alineado con la estrategia de Software Defined Data Center (SDDC), tan de moda hoy en día.

La cosa no queda solo aquí, sino que además, el rendimiento que se le puede sacar al invento es totalmente adaptable a las necesidades que tenga el cliente. Desde el número de servidores que pueden llegar a participar, hasta que toda la comunicación del grid de almacenamiento que se construye es IP, soportando desde Gigabit hasta Infiniband. Esto, añadido a las características propias de gestión del producto (pooling, tiering, protección de la información, thin-provisioning, terceras copias, multi-tenancy, quality of service, cifrado, etc…) hacen que ScaleIO no sea el “juguete” que a muy primera vista puede parecer, sino más bien todo lo contrario, un producto con un enorme potencial de aplicación que aún está por descubrir.

No es mi intención describir en este artículo el detalle de ScaleIO, sino solamente despertar la atención del lector sobre algo que realmente creo va a ser “disruptivo”, como a los anglosajones les gusta decir, en el mundo del almacenamiento en los próximos meses. Les invito a profundizar en este producto que, junto con los demás disponibles, siguen haciendo de EMC la compañía de referencia del sector.

XtremIO. Cuando Flash no es sólo rápido

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

La semana pasada EMC anunció la disponibilidad general de su plataforma (Ver nota de prensa) XtremIO, un array de almacenamiento basado exclusivamente en tecnología Flash y con funcionalidades de datos avanzadas.

Asociamos Flash con hardware de almacenamiento caro. Yo no lo comparto. Ya he expresado en este mismo Blog que, en mi opinión, la tecnología Flash es fundamentalmente software. Hoy quiero insistir en esta idea, así como en el hecho de que Flash no es caro sino eficiente  ¿Es adecuado un array totalmente Flash en tiempos de contención de costes? Depende del tipo de proyecto y de la inteligencia que se incorpore.

Rendimiento y Coste por Transacción
A la hora de buscar eficiencias hay muchas formas de echar las cuentas, y las más adecuadas son aquellas que responden a necesidades del negocio. Así, un disco Flash es caro en términos de coste/capacidad, o sea, euros/GB. Pero es barato en términos de coste por transacción.

De lo anterior se deduce que es imposible a día de hoy justificar por ejemplo, el archivado masivo de todo tipo de ficheros inactivos sobre disco de tecnología Flash; no tiene sentido pagar más por almacenar una información que básicamente no será accedida o lo hará de forma muy selectiva. Sin embargo, el panorama puede ser muy distinto en otros entornos.

Pensemos en la problemática de algunas bases de datos de misión crítica, que soportan un gran número de transacciones y procesos batch. Para alcanzar requerimientos extremos de rendimiento, tradicionalmente se ha sobredimensionado la infraestructura de almacenamiento añadiendo un gran número de discos físicos, no para incrementar la capacidad sino el número de transacciones por segundo.

Esto convierte el soporte a estas bases de datos en algo muy caro desde el punto de vista de la compra de infraestructura física, del espacio que ocupa, de la energía que consume, del calor que disipa y de la gestión que requiere.

Cuando estamos ante una situación de este tipo, la tecnología XtremIO se convierte en un catalizador de eficiencia económica. De hecho no son infrecuentes casos (pinchar para ver ejemplo) en los que se alcanzan ahorros por encima del 80% en consumo energético y espacio físico en el Datacenter, a la vez que obtienen mejoras radicales en los tiempos de proceso y se favorece, incluso, desarrollar nuevos procesos analíticos que antes no tenían sentido.  Ahorro de costes, mejora en el nivel de servicio, respuestas a nuevos requerimientos del negocio. Un sueño.

xtremIO

Deduplicación y Coste por Puesto de Trabajo (o Coste por Landscape…)
El rendimiento radical de XtremIO, permite habilitar nuevas funcionalidades, siendo una de las más llamativas la deduplicación inline. Esta función no es una opción, sino una característica intrínseca del sistema que siempre se encuentra activa, que detecta cualquier bloque duplicado en vuelo y no llega a almacenarlo nunca; esta característica reduce el coste del almacenamiento, incrementa el rendimiento, la duración y disponibilidad de los discos Flash.

Pensemos en un proyecto de virtualización del puesto de trabajo, un proyecto VDI, digamos que para 1000 usuarios. No hay nada más parecido a un puesto de trabajo que otro puesto de trabajo. Esto significa que en el almacenamiento tradicional vamos a tener una cantidad muy importante de datos redundantes, resultado de clonar centenares de veces el mismo desktop con el mismo sistema operativo y las mismas aplicaciones.

El resultado de aplicar tecnología XtremIO a ese proyecto reducirá sensiblemente las necesidades de capacidad de almacenamiento (deduplicación de bloque), sin necesidad de pesados procesos de limpieza posteriores (inline),  con un rendimiento que permite abordar el acceso simultáneo de miles de usuarios (flash) y fácilmente escalable (scale-out). De nuevo, mejoras en el nivel de servicio, una respuesta más rápida y flexible a futuros crecimientos del negocio, conjugados con ahorro de costes que podemos medir en términos de coste/puesto de trabajo.

Esta misma filosofía puede ser exportada a otros entornos, por ejemplo, aplicaciones de gestión empresarial.  Lo más parecido a mi entorno SAP de producción son mis entornos SAP de preproducción, formación, test, etc. XtremIO permite obtener una copia instantánea del entorno (landscape), copia en la que se reduce la información redundante y se garantiza el elevado  rendimiento que una aplicación de este tipo requiere.

Otras eficiencias
Existen otras eficiencias que pueden ser potenciadas mediante XtremIO,  tales como  una mejor utilización de los procesadores, y por lo tanto en una menor demanda de crecimiento en CPUs con el consiguiente impacto que esto pueda tener sobre los costes de licencias de software.

O la capacidad de XtremIO de proporcionar el máximo rendimiento empleando simultáneamente todas las controladoras y todos los discos flash disponibles para cada operación de entrada/salida, que explica que el sistema se encuentre balanceado de forma inherente, y que no requiera pesadas operaciones de tuning y gestión asociadas.

XtremIO cambia las reglas de ese juego donde Flash es tan rápido como caro. Los costes, todo tipo de costes, han estado muy presentes durante la puesta de largo del producto para ser aplicados al proyecto correcto.

 

Renovación generacional y eficiencia de proceso

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Ayer asistimos al lanzamiento mundial de una importante serie de novedades en las soluciones de EMC: La nueva generación de almacenamiento unificado VNX, así como su incorporación en las arquitecturas de referencia VSPEX, la disponibilidad general de ViPR, nuestra solución de Almacenamiento Definido por Software y un primer vistazo al proyecto ‘Nile’, cuyo objetivo es trasladar los conceptos de facilidad de uso y consumo elástico de recursos de la nube pública al datacenter. Sobre todos estos temas nos gustará hablar en este foro en fechas próximas, pero hoy quiero repasar esta renovación generacional del almacenamiento de gama media y más concretamente, las mejoras derivadas de un uso más eficiente de la capacidad de proceso.

Es un buen momento para recordar que EMC ha ido evolucionando todas sus plataformas hardware hacia la estandarización mediante la adopción completa de tecnología Intel x86. Sin ASICs, ni otros elementos extraños. Esta estrategia no sólo significa incorporar sus CPUs a toda nuestra gama de soluciones, sino colaborar con su departamento de ingeniería para alinear el desarrollo de nuestros productos con los suyos, lo que finalmente se traduce en una mejora permanente del rendimiento de nuestros sistemas.

Desde este punto de vista, la nueva gama VNX es mucho más que un refresco tecnológico; constituye una evolución de la arquitectura, que rediseña los procesos de entrada salida para garantizar un incremento del rendimiento a gran escala y de forma automatizada, sin optimizaciones manuales.

Estas mejoras están imbricadas en la nueva generación de plataformas VNX, y se apoyan tanto en avances tecnológicos como en cambios de código que han dado lugar al nuevo entorno operativo MCx, enfocado en exprimir todas las ventajas de las CPU multicore. Es importante resaltar que la optimización se realiza vía software y que permite un factor de escalado del backend superior al 97%, prácticamente lineal, lo que constituye toda una medida de eficiencia; o sea, que la adición de un mayor número de cores en el futuro se asumirá de forma eficiente y se traducirá en el correspondiente incremento del rendimiento.

La optimización multicore es clave para el futuro de las plataformas de EMC, tanto para mantener una óptima relación precio/rendimiento como para desarrollar futuros e innovadores productos.

Entorno Operativo MCx

Eficiencia Multicore

Algunas de las mejoras que este software incorpora son:

Multi Core Cache. Las mejoras se han dirigido a optimizar los mecanismos automáticos de ajuste dinámico de cargas, eliminando las limitaciones artificiales e ineficiencias que provoca la división entre cache de lectura y escritura así como las tareas de parametrización manual asociadas. El resultado es una mejora patente del rendimiento y una mayor facilidad de uso.

Multicore RAID. El tamaño cada vez mayor de los sistemas de almacenamiento continuará promoviendo la protección RAID 6; en los nuevos sistemas VNX, la funcionalidad multicore RAID garantiza que si un segundo disco falla se recupera de forma paralela y simultánea con el primero. Además, se elimina la necesidad de definir de forma manual los discos de spare, de forma que cualquier disco no utilizado es candidato a ser utilizado para este fin. En definitiva, recuperaciones más rápidas, disponibilidad mejorada y gestión más sencilla.

Multicore Fast Cache. El uso de esta cache extendida se ha mejorado mediante la optimización de los algoritmos de memoria, promoviendo los datos de forma más temprana, reduciendo las latencias y liberando proactivamente recursos durante los períodos de actividad pico.

Symmetric Active/Active. Esta funcionalidad permite el acceso simultáneo de cualquier controladora a cualquier LUN sin necesidad de configurarlo manualmente, y mejora el rendimiento balanceando las cargas entre los procesadores de servicio en modo activo/activo; el resultado se traduce en un uso más eficiente de los recursos, mejoras de la disponibilidad en caso de incidentes en el canal, failover más limpios y rápidos, y eliminación de las tareas manuales de asignación LUN/Procesador.

Mejoras en el uso de tecnologías Flash, incluyendo la integración entre VNX y las tarjetas de cache de servidores XtremSF, lo que define un nuevo estrato de almacenamiento de rendimiento extremo.

Aunque esta entrada se ha focalizado fundamentalmente en la optimización del uso de las CPUs, éstas no son, por supuesto, las únicas mejoras de la nueva gama VNX. A éstas habría que añadir otras nuevas funcionalidades como deduplicación de bloque (la deduplicación de archivo ya estaba disponible en la generación anterior), mejoras en la integración con Microsoft Hyper-V, en la protección de aplicaciones o incrementos en la capacidad de los sistemas, etc. La información completa está disponible en nuestra página web (http://spain.emc.com/index.htm).

Videos Recomendados

Expand The Data Lake: New Data Lake, New Breakthroughs

Archivo del Blog

  • 2016 3
  • 2015 20
  • 2014 7
  • 2013 16
  • 2012 21
facebook
twitter
linkedin
youtube
rss