Posts Tagged ‘EMC’

La apuesta por el Open Source

Son ya unos cuantos años trabajando para EMC como para haber vivido en primera persona las transformaciones en las que la compañía se ha embarcado durante este tiempo. Algunas de esas transformaciones han sido por motivos internos y otras por motivos externos, pero siempre ha existido un agente de cambio, algo muy importante para que una organización continúe en la brecha.

Pero sin duda, la transformación en la que estamos ahora mismo embarcados es la mayor de todas las que he vivido. ¡No resiste comparación! Y uno de los anuncios fundamentales dentro de esta transformación, es la apuesta decidida de EMC por el “open source”.

Este camino comenzó primero en Pivotal, miembro de la Federación EMC, con la creación de la plataforma ODP (Open Data Platform) anunciada a comienzos de este año 2015. Esta iniciativa es un esfuerzo de las principales compañías alrededor del mercado de Big Data para promocionar y facilitar el uso de Apache Hadoop y las tecnologías de Big Data orientadas a las empresas. En el caso de Pivotal, este movimiento se vio plasmado con el anuncio de la última versión de Pivotal Big Data Suite, compatible con el mencionado estándar.

Posteriormente, fue también el anuncio por parte de Pivotal que iba a llevar al mundo Open Source componentes fundamentales de su solución como son Pivotal HAWQ, Pivotal GreenPlum Database y Pivotal GemFire.

Y recientemente ha recibido un espaldarazo muy importante cuando en el marco del evento anual de usuarios EMC World en Las Vegas, fue anunciado el proyecto CoprHD.

VIPR CONTROLLER

Bajo el paraguas de este proyecto, EMC ha liberado a la comunidad, el código fuente de ViPR Controller (Ver infografía), pieza clave en nuestra estrategia de Software Defined Storage. Con este movimiento, que no será el último en este año, se reafirma el compromiso con la estrategia Open Source y permitir enriquecer con desarrollos de terceros, productos claves en el portfolio EMC.

Sigo pensando que la mayoría de los clientes optarán por comprar una solución completa (compuesta por hardware, software y servicios) que les alivie de las tareas de integración y que por tanto, solo quieran concentrarse en obtener los beneficios que esta solución pueda aportar tanto desde un punto de vista tecnológico como de negocio.

Pero llevando el código al mundo Open Source, creará a la vez un ecosistema mucho más rico donde se puedan evaluar los productos de una manera más libre y al alcance de un mayor número de usuarios, lo que redundará en un beneficio de todos. En definitiva, y como suelo decir últimamente; dar a los clientes “libertad de elección”.

Primer Paso: Business Data Lake

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Las empresas han tomado conciencia de que la aparición y crecimiento de nuevas fuentes de datos, junto con las tecnologías Big Data y los nuevos enfoques analíticos, ofrecen una oportunidad sin precedentes para impulsar nuevos modelos de negocio e incrementar sus ventajas competitivas.

En este entorno, Hadoop ha pasado a formar parte de la visión estratégica de los negocios, dando lugar a un ecosistema complejo, cada vez más preparado para dar respuesta a distintos retos: análisis masivo de información, respuestas a eventos en tiempo real (Fast Data), distintos lenguajes de programación, interfaces SQL, procesado de datos en memoria

Una de las mayores preocupaciones consiste en saber por dónde empezar a construir toda esta arquitectura de negocio, cuál es la primera piedra; la respuesta está en el Data Lake, al que ya hemos dedicado un par de entradas en este blog; una de ellas es El sueño del Data Lake.

A principios de esta semana, EMC ha anunciado su solución Business Data Lake (BDL), que proporciona la capacidad de generar un Lago de Datos de nivel empresarial, alineado con las prioridades del negocio, y que permite agilizar la extracción de valor de los datos.

El Business Data Lake de EMC es una plataforma convergente que incorpora el almacenamiento, computación y los motores analíticos necesarios para ofrecer una plataforma de explotación de datos eficaz, proporcionando además capacidades de autoservicio, gestión extremo a extremo, integración y aprovisionamiento de todo el entorno de Big Data a través de bloques preconfigurados.

Aunque la solución permite combinar el valor de la Federación EMC al completo, con la virtualización de VMware y las capacidades analíticas de Pivotal, también es posible sustituir las plataformas analíticas por otras tales como Cloudera o Hortonworks, o incorporar distintas aplicaciones y bases de datos tales como Tableau, SAS o MongoDB en tiempo de lanzamiento, a los que se irán incorporando otros actores.

Business Data LakeInteroperabilidad clave

Quizá sea la interoperabilidad uno de los aspectos más interesantes de la solución. Esto se ha conseguido gracias a un significativo esfuerzo de ingeniería, orientado no sólo a garantizar que todas estas tecnologías funcionan en conjunto, sino a orquestar las funciones claves del Data Lake, tales como la ingesta de datos, el aprovisionamiento de aplicaciones, la seguridad o la gobernanza del entorno.

De esta forma, la integración con las soluciones de EMC permite ejecutar cualquiera de los componentes de las plataformas PivotalHD, Cloudera Enterprise o Hortonworks Data Platform, sobre las infraestructuras scale-out Isilon propuestas en el BDL; SAS integra y optimiza para el BDL su plataforma analítica, lo que permite crear y administrar sus modelos sobre una arquitectura de última generación.

Los ejemplos anteriores refuerzan el compromiso de todas estas compañías, y de EMC, con la interoperabilidad que estos entornos abiertos y críticos requieren, fortaleciendo la capacidad de elección del cliente.

El Business Data Lake refleja, en definitiva, un esfuerzo conjunto entre EMC y sus partners, que incluye el hardware, software y la integración e ingeniería necesaria para definir un primer paso sencillo y veloz que permita a las organizaciones innovar y comenzar a obtener valor de este fenómeno imparable del Big Data.

Mundo hiperconectado

Iñigo Olcoz

Iñigo Olcoz

Iñigo Olcoz, EMC Cloud Expert. Experto en soluciones de virtualización y cloud, con 5 años de experiencia en pre-venta y consultoría en EMC y casi 20 en el mercado de las TI. Forma parte del equipo de marketing técnico que define las soluciones de nube híbrida a nivel corporativo. @virtualOlcoz
Iñigo Olcoz

Latest posts by Iñigo Olcoz (see all)

Vivimos en un mundo hiperconectado. Aunque el diccionario de la Real Academia de la Lengua aun no reconoce la palabra la realidad es más que evidente. Algunos datos como botón de muestra:

  • Hoy en día el 40% de la población mundial está conectada a Internet. En 1995, hace sólo 20 años, esta cifra era del 1%.

En el discurso de la mayoría de proveedores tecnológicos encontramos con recurrencia los términos Mobile, Internet, Social Media como instrumentos clave de innovación tecnológica y competitividad. Hace 25 años estas realidades no existían si quiera.

Este mundo hiperconectado en el que vivimos produce realidades empresariales que responden a estos nuevos paradigmas. El mundo de los servicios públicos de transporte se rebela contra la competencia que empresas como Uber les plantean. Pero en EEUU ya son muchas las personas (en su mayoría jóvenes), que expresan su preferencia a viajar con ese usuario de Uber que conocen frente a cualquier otra alternativa.

O el ejemplo de una compañía de seguros basada en Hawai que instala sensores de velocidad y aceleración en los vehículos y tarifica el coste del seguro por hora o minuto ¡según el comportamiento del conductor!.

Dual Lingo que ofrece una herramienta para aprender idiomas ¡gratuita! su modelo de negocio se basa en los encargos de traducciones que se generan en su relación con sus usuarios.

 ¿Cómo competir con estas nuevas compañías?

No es fácil. De hecho la vida media de las compañías hoy en día, según los estudios del Dr Foster de la Universidad de Yale, ha pasado de 67 años para las compañías del S&P 500 en 1927 a 15 años hoy.

Compañías con buenos productos y servicios, una buena cartera de clientes, un modelo de negocio contrastado y buena salud financiera se verán en serios apuros si son incapaces de adaptarse a los cambios que el mercado experimenta, si no son capaces de instalarse en un proceso de innovación continuo, disruptivo con sus operativas y modelos de negocio históricos.

business model

La realidad es que deberán manifestar una excelencia operativa, algo que requiere de planificaciones a corto plazo, énfasis en los procesos, estabilidad, foco en la ejecución y resultados, decisiones de bajo riesgo y a la vez deberán apostar por la innovación, que implica decisiones de riesgo, procesos de cambio contínuo, foco en la creatividad, adaptabilidad y experimentación, y planificación a largo plazo.

 ¿Cómo conseguir ambos objetivos, excelencia operativa e innovación continua?

La clave es la adopción de la tecnología como clave del desarrollo empresarial. El departamento de TI pasa de ser un centro de costes que reporta directamente al Director Financiero a ser el habilitador, motor de la innovación y garante del acceso a nuevas tecnologías para el negocio.

Según el estudio anual de PwC entre más de 1300 CEOs, un factor fundamental en el éxito de sus compañías es que sea cual sea el ámbito de la misma, se convierta en una compañía de tecnología. Y como tal, el CEO cuenta en su agenda con una nueva asignatura, convertirse en un experto tecnólogo.

technology company

 

 

 

La consolidación de ScaleIO

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Hace 15 meses, allá por diciembre del 2013, escribí un artículo titulado “El prometedor futuro de ScaleIO”, en el cual traté de mostrar las capacidades y el potencial de un producto, ScaleIO, que EMC había comprado recientemente por aquel entonces, y que reconozco me gustó muchísimo desde el primer momento.

Para aquellos que no conozcan ScaleIO, aparte de recomendar la lectura del anterior artículo, me permitiré mencionar muy brevemente que es un producto enfocado a construir un sistema de almacenamiento basado en discos y/o memoria que estén directamente conectados a un servidor, sirviendo la capacidad gestionada por red IP (Fibre Channel aquí brilla por su ausencia) y encargándose de toda la gestión y funcionalidad del sistema de almacenamiento generado. Todo esto, además, de forma transparente a las aplicaciones de negocio, que siguen accediendo en modo bloque a la capacidad. Estamos por lo tanto saliendo del paradigma habitual del sistema de almacenamiento y red SAN al que estamos acostumbrado desde hace ya muchos años.

En todo este tiempo, he tenido la oportunidad de trabajar de cerca con el producto y ver por lo tanto como ScaleIO ha desarrollado funcionalidades adicionales. Estas vienen a complementar la extraordinaria base sobre la que está desarrollado el producto, y que permiten que estemos en el momento de alumbrar una nueva gama de soluciones basados en esta tecnología, que van a permitir afrontar proyectos de una manera novedosa y disruptiva (como dicen los anglosajones). Por lo tanto, la actual oferta de producto basada en ScaleIO se va a ampliar de forma significativa, con nuevos lanzamientos que sucederán a lo largo del presente año. EMC cuenta con un significativo número de clientes que ya han adoptado ScaleIO como base tecnológica para proyectos clave dentro de sus respectivas organizaciones, y está muy claro que con la oferta que viene, el despliegue de esta tecnología se va a incrementar de forma significativa.

ScaleIO

Y es que ScaleIO nació como un producto a comercializar solamente como SW, siendo el cliente el que decide sobre qué infraestructura desea construir sus sistemas de almacenamiento. Pero ¿qué ocurre entonces con todos aquellos clientes (que son la mayoría) que desean adquirir una solución completa a un proveedor de confianza? Aquí es donde EMC, experta en adquisiciones de funcionalidades estratégicas que luego construye y comercializa como soluciones completas, es clave, y va a poner en el mercado una nueva gama de soluciones estratégicas para aquellos clientes que confían en la experiencia, la solidez del líder y el excelente soporte del que EMC viene históricamente haciendo gala.

Estén por lo tanto preparados para lo que está por venir durante el año. Veremos soluciones hiperconvergentes basadas en ScaleIO, con la potencia y escalabilidad necesarias para afrontar proyectos de cualquier demanda de prestaciones de una forma innovadora, y por supuesto, con el soporte completo de EMC a toda la solución.

Les invito a estar atentos, o incluso a registrarse y participar si no lo han hecho ya, a nuestro EMC World 2015, en el cual se anunciarán las soluciones sobre las que he tratado de focalizarme en este artículo. Estoy seguro que el conocimiento de estas soluciones hará que los responsables de diseño y arquitectura de las infraestructuras de TI puedan abordar sus necesidades de nuevas maneras, para poder así tener éxito en el difícil entorno actual, en el cual proporcionar la infraestructura necesaria con la capacidad de inversión disponible es todo un reto.

El sueño del Data Lake

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Si hoy nadie duda del valor de la información para las empresas, el fenómeno de Big Data ha acelerado el interés de las organizaciones alrededor de la explotación masiva del valor que para el negocio se oculta en los datos.

Sin embargo, lo normal es que esta información siga estando prisionera de los sistemas que la generaron así tenemos los registros financieros, los de ventas, los que vienen de sensores de la línea de fabricación, los contratos, los vídeos de seguridad…aunque transformamos y enviamos algunos de estos datos a un Data Warehouse, esto no significa una completa reutilización de la información por distintas aplicaciones, o lo que es lo mismo, no significa una explotación integral de los datos por distintas unidades de negocio.

EMC DATA LAKES

El concepto de Data Lake, un repositorio lógico e hiperescalable de información, viene motivado por la necesidad de movilizar la información, haciéndola accesible bien para su uso estadístico y analítico, bien para ser embebida en otro tipo de aplicaciones y procesos. Esto es, tiene que ver con liberar y explotar la información de los silos en los que se encuentra estancada.

Toda la Información

Pero ¿de qué tipo de información estamos hablando? De toda. Estructurada o desestructurada, interna o externa, de seguridad o financiera, tiempo real o batch. El Data Lake ideal contiene toda la información que el negocio necesita para su actividad, crecimiento y desarrollo competitivo.

Por ejemplo, la información de las redes sociales recolectada por el área de Marketing es relevante para conocer mejor a tu cliente, verificar el grado de aceptación de un competidor en el mercado o para entender el ruido generado por un determinado incidente con uno de nuestros productos; o sea, todo eso que llamamos análisis de sentimientos, tan importante en la estrategia de ventas e imagen de marca. Pero esa misma información también puede ser de utilidad para perfeccionar nuestros mecanismos de atención al cliente, de fabricación o de logística, incluso adelantando necesidades antes de que éstas realmente se manifiesten.

De la misma forma, los registros de actividad (logs) y secuencias de clics generados por los distintos dispositivos de nuestra plataforma de comercio electrónico, contienen información valiosa que nos permite entender el comportamiento de los usuarios, lo que es tan relevante para las áreas de seguridad como para las áreas de marketing. La misma información puede ser utilizada para proporcionar distintos ángulos a distintas unidades de negocio.

El Data Lake no sólo se nutre de datos internos de la organización. Cierta información externa, como la que tiene su origen en los mercados de futuros, los datos meteorológicos o calendarios de eventos, puede servirnos para planificar nuestras finanzas o definir nuestras políticas de precios, incluso de forma automática: si conozco el impacto del encarecimiento del petróleo en mis costes, puedo adaptar de forma automática mis tarifas, lo que reduce la posibilidad de errores e incrementa mi agilidad frente a la competencia.

Data Lake no es igual que Data Base.

A diferencia de las bases de datos, en el Data Lake se almacenan los datos tal cual se generaron, en su formato original y antes de someterlos a ninguna transformación o modelización, lo que permite garantizar que no han perdido ningún aspecto de la información original. Esta ingesta masiva es posible porque su escalabilidad es muy grande y sus costes muy bajos, tanto en términos de software como de hardware o gestión; no son comparables a los costes de una base de datos tradicional.

Otro aspecto diferencial es la riqueza de metadatos, datos que hablan de los datos, necesarios para mantener la seguridad y trazabilidad del dato, y que constituyen una fuente de valor añadido al aportar información sobre el contexto.

El concepto del Data Lake no es el de un archivo estático donde la información envejece y cumple su ciclo de vida; se trata de un repositorio activo y estratégico, capaz de crecer al ritmo que lo hagan la organización y las nuevas ideas, facilitando la ingesta, el cruce y la reutilización de información en cualquier formato. También permite la construcción de aplicaciones que puedan utilizar sus datos directamente, incluso en tiempo real, incrementando la inteligencia del negocio y posibilitando la respuesta inmediata ante ciertos eventos.

El Data Lake conjuga el valor de la información del negocio con las posibilidades que la ciencia de los datos proporciona, y es el sustrato en el que se apoya el desarrollo de un nuevo tipo de aplicaciones predictivas, de alto valor añadido, embebidas en los procesos de la organización y que favorecen el desarrollo de innovadores modelos de negocio.

 

A Propósito De La Nube. Aplicaciones (4)

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Una vez acometida la transformación de la infraestructura, y habiendo experimentado los beneficios de la virtualización de aplicaciones de misión crítica, la siguiente necesidad será la de mover aplicaciones de unas infraestructuras a otras, para alcanzar nuevos niveles de agilidad y eficiencia.

Este es el momento oportuno para modernizar nuestro portfolio de aplicaciones, hacerlas más flexibles y prepararnos para responder más rápidamente a las necesidades de negocio.

Aplicaciones

Estas necesidades son nuevas y más exigentes que nunca. Pensemos en algunas de las nuevas compañías que operan en internet, donde con sólo unas docenas de empleados se proporciona servicio a millones de clientes. Esto requiere nuevas formas de gestar aplicaciones.

  • Las nuevas aplicaciones se escriben utilizando entornos de programación modernos que permitan abordar las necesidades de crecimiento y movilidad dentro de la nube o entre nubes.
  • En estos entornos los programadores no necesitan pensar en la infraestructura, la provisión de recursos físicos o la operativa. Simplemente necesitan focalizar en la lógica de negocio y programación, haciendo un uso eficiente de las inversiones realizadas para transformar la infraestructura en un servicio, sean de nube privada o pública.  
  • Las nuevas aplicaciones no se construyen con middleware heredado. Aquellos componentes caros, propietarios o que encadenen a un proveedor determinado serán descartados. El nuevo conjunto de aplicaciones utilizan middleware más ligero y arquitecturas portables, preparadas para funcionar en entornos virtuales y de nube, caracterizados por un bajo consumo de recursos y una escalabilidad ilimitada.  
  • El centro de gravedad de las nuevas aplicaciones son los datos. La aparición del concepto de ‘Lago de los Datos’ describe la convergencia entre las bases de datos tradicionales y aproximaciones más modernas a la infraestructura de los datos. Las más importantes características del ‘Lago de los Datos’ son la capacidad de almacenar y escalar sin límites así como de procesar cualquier cantidad de datos, en cualquier formato en un tiempo predecible; por tanto tiene que ser elástico, escalable, disponible, rápido y … barato

Adicionalmente, este repositorio tiene que disponer de otros servicios que pueden ser requeridos para hacer frente a determinadas necesidades del negocio, como tiempo real para reaccionar ante eventos de forma inmediata o interfaces amigables para los usuarios actuales de Inteligencia de Negocio.    

A Propósito De La Nube. Infraestructura Física (2)

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Ya sabemos que las organizaciones se dirigen hacia el consumo de TI como un servicio, basado en un catálogo, transparente desde el punto de vista financiero, orientado a las necesidades del negocio, y cuyos niveles de servicio se encuentran acordados entre las partes. Este catálogo debe incluir todos los componentes necesarios para la implantación de un servicio, incluyendo la infraestructura física.    

Infraestructura física

También sabemos que en este modelo el usuario paga solamente por aquello que consume, cuando lo consume. Esto tiene un impacto sobre la infraestructura física, que ahora tiene que responder a nuevos requerimientos como crecimiento bajo demanda, simplicidad y velocidad de despliegue, escalabilidad ilimitada, y competitividad en costes; algunas estrategias para alcanzar estos objetivos son:

  • Estandarización, que ofrece ventajas tanto desde el punto de vista económico como operativo y de gestión. Esto fomenta la proliferación de plataformas hardware uniformemente basadas en arquitecturas de consumo masivo x86, y consolidadas en sistemas operativos VMware, Microsoft o Linux; también ha favorecido la aparición de las llamadas infraestructuras convergentes, que contienen todos los elementos de proceso, almacenamiento o red necesarios para el despliegue de una nube.  
  • Virtualización masiva de las infraestructuras, que comenzó como una estrategia de reducción de costes asociada a la adquisición de servidores y que se ha extendido a toda la infraestructura, incluyendo el almacenamiento y la red; es la vía para proporcionar una calidad de servicio óptima y máxima flexibilidad ante el cambio.
  • Automatización, necesaria para proporcionar infraestructura bajo demanda; esta tarea se lleva a cabo mediante el software, que es quien aporta realmente valor a una infraestructura hardware escasamente diferenciada, y es el origen del fenómeno que conocemos como ‘Datacenter Definido Por Software’

Uno de los objetivos del Datacenter Definido Por Software es proporcionar la necesaria interoperabilidad entre diferentes nubes, privadas o públicas, permitiendo el movimiento de datos y procesos en ambas direcciones, y creando una auténtica federación de nubes gestionadas desde un único punto.

Esta nube híbrida, proporciona la capacidad para escalar dinámicamente y responder a demandas de negocio impredecibles, lo que es percibido por el negocio como una clara mejora en términos de alineamiento, eficiencia y satisfacción para el usuario final, mientras que la dirección de TI tendrá una clara percepción de ahorro económico.


A Propósito De La Nube. IT como Servicio

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

El Datacenter se encuentra en un proceso de transformación que afecta a la función de TI y a su relación con el negocio, reflejando lo que sucede en la sociedad.

Los usuarios han madurado, ya no son ignorantes de las nuevas tecnologías sino que las incorporan de forma proactiva en su vida cotidiana; estos usuarios están preparados para entender el uso de la tecnología en sus sectores de negocio, y quieren seleccionar el tipo de servicio que necesitan: aquél que les permite ser más productivos, competir en mejores condiciones o rebajar los costes de sus departamentos.  

Los servicios solicitados pueden coincidir o no con los que el departamento de Ti ofrece, y cuando oferta y demanda no se encuentran alineadas aparece el concepto de ‘TI en la sombra’: Las unidades de negocio se dirigen directamente al mercado para adquirir el servicio que necesitan, ignorando al departamento de TI.  

Es por ello necesario que TI desarrolle su propio catálogo de servicios, creado en respuesta a las necesidades expresadas por el negocio y orientado a proporcionar flexibilidad y agilidad en la respuesta a sus requerimientos.

A Propósito de la Nube. IT como Servicio

Este catálogo, cuyo uso se asemeja al menú de un autoservicio, debería de contener tanto los servicios que puedan ser proporcionados internamente por la organización de TI, como aquellos que puedan ser adquiridos a un tercero, con la finalidad de ser más económico o eficiente.  

Es importante, para los departamentos de TI, incorporar en su catálogo aquellos servicios externos que puedan ser necesarios para el negocio. Si se ignoran este tipo de requerimientos, la compra y el consumo de estos recursos podrían crecer sin control dentro de la organización.

Al involucrarse en este proceso, la organización de TI se convierte en un distribuidor de servicios más que en un mero proveedor de infraestructura, lo que conduce a las arquitecturas de nube híbrida.

Para que esta transformación tenga éxito, es necesario monitorizar los niveles de servicio acordados con el negocio, especialmente en las áreas de seguridad, calidad y agilidad en el despliegue de recursos, y por supuesto, en el coste. Es decir, lo habitual entre un cliente (las unidades de negocio) y su proveedor (el departamento de TI).

Estrategia para el SDS

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Aunque ahora me encuentro en Madrid, tengo que confesar que acabo de volver de Boston, de nuestros headquarters en Hopkinton, en los que siempre se puede encontrar compañeros que son fuente eterna de inspiración y compendio de buen saber alrededor del mundo de TI.

Quiero esta vez compartir y reflexionar alrededor del SDS (Software Defined Storage), una de las piezas que componen el puzzle del llamado SDDC (Software Defined Data Center), estrategia de diseño de CPDs que seguro está en la mente de prácticamente cualquier persona relacionada con el mundo de TI.

Como el último que llega a casa siempre es el más esperado, el SDS está absolutamente presente en todos los ámbitos en los que he tenido la oportunidad de compartir con clientes, y los fabricantes estamos presentando propuestas para atender a esta incipiente tendencia de diseño de TI.

Y claro está, no puedo dejar pasar la oportunidad para advertir de lo importante que es tener una estrategia clara, bien definida y, sobre todo, completa. Y aquí es donde entra EMC de pleno en el juego con nuestra solución ViPR para SDS.

vipr

Muchas personas me comentan soluciones de distintos fabricantes para abordar estrategias de SDS, pero todas ellas responden a una problemática concreta dentro de toda la estrategia SDS, son piezas separadas. El asunto en sí es complejo, ya que no se trata solo de desarrollar soluciones que proporcionen capacidades como thin provisioning, terceras copias, copias remotas, gestión de recursos HW sin inteligencia, filesystems escalables, etc., sino que no hay que olvidarse de las estrategias de gestión y protección de la información, como activo-activo, disaster recovery, servicios de respaldo de la información (backup), movilidad de datos, y en general toda la funcionalidad necesaria para dar producción en el CPD actual. Todo ello gestionado, administrado y controlado además desde una única plataforma.

Todavía no he sido capaz de encontrar en el mercado ninguna solución, ViPR aparte, que aborde toda la problemática que conlleva el hecho de abstraer toda la funcionalidad e inteligencia que hoy en día reside en los propios sistemas de almacenamiento, elevarla a una capa solo SW y que además esté diseñada para tratar tanto con almacenamiento de propósito específico como HW commodity, este último tan de moda en la actualidad.

Les invito a profundizar en ViPR de EMC, actualmente la única plataforma que, por su diseño y capacidades, contempla la estrategia completa alrededor del SDS, teniendo en cuenta tanto la funcionalidad necesaria, como su extensión a todo tipo de sistemas de almacenamiento. Espero que esto les haga reflexionar y plantearse si realmente están abordando su estrategia de SDS de forma global y completa para su organización.

El prometedor futuro de ScaleIO

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Escribo esta vez desde Boston, donde lentamente el invierno hace acto de presencia y deja su característico manto nevado en nuestros headquarters en Hopkinton, donde he tenido varias reuniones con nuestros colegas americanos de esas que podrían denominarse “de estrategia”.

Y es que vengo de recoger de mi cliente una incipiente tendencia a la “comoditización” (palabra horrible por cierto, pero que seguro todos sabemos interpretar) de todos aquellos activos que no sean esenciales en el soporte de su entorno crítico de negocio. Hasta aquí nada nuevo, pero lo cierto es que la forma en la que mi cliente, y de alguna manera el propio mercado, pretende abordar esta faceta sí que plantea una serie de importantes beneficios, siempre que se ejecute de forma correcta.

No se nos escapa que cada vez hay más alternativa disponibles en el mercado de “bloques de proceso”, que no son más que elementos hardware que unifican, generalmente en un formato potencialmente barato, capacidad de proceso (CPU y memoria) además de almacenamiento interno (el DAS de toda la vida) en un formato tipo “mini-cuchilla” pensado para altas densidades en muy poco espacio. La clave estriba en que ahora este almacenamiento interno, en lugar de utilizarse para el típico arranque del sistema operativo y poco más, por sus características (discos Flash en muchos casos o incluso tarjetas de memoria) y tamaño, de repente se convierte en un potencial contenedor de información que, bien explotado, puede suponer un inmenso valor añadido en control de costes. 

Ahora bien, este potencial ahorro de costes solo será rentable si no queda convertido en un incremento de costes de gestión de estas nuevas plataformas, y ahí es donde entra en escena ScaleIO, un producto de reciente introducción por parte de EMC, pero que sospecho va a desarrollar un papel importantísimo durante los próximos meses, por su estratégica concepción y tremendo potencial para aumentar sus capacidades, ya de por sí llamativas, y por ende sus ámbitos de posible aplicación.

Permítanme que les cuente brevemente qué es ScaleIO, y seguro que comprenden el porqué de mis anteriores aseveraciones. ScaleIO es un producto 100% software, que tiene como misión principal aglutinar todo el espacio de almacenamiento que encuentre en los servidores (tarjetas Flash o discos de cualquier naturaleza), bajo una capa común de gestión. De esta forma, lo que antes eran discos aislados locales a cada servidor, pasan a convertirse en un pool de almacenamiento puesto a disposición de todo aquel servidor que lo necesite. Dicho de otra manera, puro Software Defined Storage (SDS) alineado con la estrategia de Software Defined Data Center (SDDC), tan de moda hoy en día.

La cosa no queda solo aquí, sino que además, el rendimiento que se le puede sacar al invento es totalmente adaptable a las necesidades que tenga el cliente. Desde el número de servidores que pueden llegar a participar, hasta que toda la comunicación del grid de almacenamiento que se construye es IP, soportando desde Gigabit hasta Infiniband. Esto, añadido a las características propias de gestión del producto (pooling, tiering, protección de la información, thin-provisioning, terceras copias, multi-tenancy, quality of service, cifrado, etc…) hacen que ScaleIO no sea el “juguete” que a muy primera vista puede parecer, sino más bien todo lo contrario, un producto con un enorme potencial de aplicación que aún está por descubrir.

No es mi intención describir en este artículo el detalle de ScaleIO, sino solamente despertar la atención del lector sobre algo que realmente creo va a ser “disruptivo”, como a los anglosajones les gusta decir, en el mundo del almacenamiento en los próximos meses. Les invito a profundizar en este producto que, junto con los demás disponibles, siguen haciendo de EMC la compañía de referencia del sector.

Videos Recomendados

Expand The Data Lake: New Data Lake, New Breakthroughs

Archivo del Blog

  • 2016 3
  • 2015 20
  • 2014 7
  • 2013 16
  • 2012 21
facebook
twitter
linkedin
youtube
rss