Posts Tagged ‘cloud computing’

Demos la bienvenida a Virtustream

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Ya entrado el otoño, me dispongo a escribir sobre la última compañía que se ha incorporado a la Federación de EMC. Me refiero por supuesto a Virtustream. Con esta última adquisición, realizada a finales del pasado mes de mayo, ya son seis las empresas que forman parte de la Federación (EMC, VMware, RSA, VCE, Pivotal y Virtustream).

virtustreamY es que Virtustream viene a completar, con su experiencia como Cloud Service Provider en entornos aplicativos empresariales, la propuesta de EMC relativa a la nube.

Virtustream es una compañía que ofrece claros valores añadidos. El primero, el de ser un Cloud Service Provider con contrastada experiencia, infraestructuras propias y acuerdos con terceros. El segundo, que aporta experiencia y saber hacer al proporcionar servicios gestionados de aplicaciones empresariales (con más de 100 clientes ejecutando SAP en su nube, es uno de los pocos partners de SAP que proporciona el servicio SAP HANA Enterprise Cloud) y el tercero, que cuenta con una plataforma de gestión de Hybrid Cloud propia, que aporta una eficiencia extrema en el uso de los recursos disponibles, tanto on-premise como off-premise, mediante la gestión de μVM (micro virtual machines) y aportando la seguridad necesaria para gestionar aplicaciones en la nube con confianza.

Si usted está pensando en desplegar sus aplicaciones tradicionales de negocio (SAP, Navision, SAS, Exchange, SharePoint, Dynamics, HANA, Oracle, Hadoop, SQL, MySQL, DB2) en un modelo As-a-Service y en un proveedor de confianza y con experiencia contrastada, EMC, a través de Virtustream, se convierte en un referente en este proceso.

Si está evaluando la forma de optimizar al máximo sus recursos de nube on-premise y gestionar de forma eficiente y conjunta recursos off-premise, Virtustream ofrece su suite de software para desplegar en infraestructuras existentes. Simplemente desplegando la suite xStream (SW de Hybrid Cloud y Risk Management) usted será capaz de ahorrar en costes de infraestructura, al poder aprovechar los recursos existentes de una forma mucho más óptima, evitando inversiones adicionales, o bien pudiendo desplegar más carga de trabajo sobre recursos existentes. Se estiman ahorros en el TCO de entre un 20% y un 65%, dependiendo del caso en concreto.

Como de costumbre, no me gustaría terminar el presente artículo sin invitarles a profundizar sobre Virtustream, la nueva propuesta tecnológica de EMC, que aporta un inmenso valor añadido en el despliegue y adopción de arquitecturas de nube.

A Propósito De La Nube. Aplicaciones (4)

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Una vez acometida la transformación de la infraestructura, y habiendo experimentado los beneficios de la virtualización de aplicaciones de misión crítica, la siguiente necesidad será la de mover aplicaciones de unas infraestructuras a otras, para alcanzar nuevos niveles de agilidad y eficiencia.

Este es el momento oportuno para modernizar nuestro portfolio de aplicaciones, hacerlas más flexibles y prepararnos para responder más rápidamente a las necesidades de negocio.

Aplicaciones

Estas necesidades son nuevas y más exigentes que nunca. Pensemos en algunas de las nuevas compañías que operan en internet, donde con sólo unas docenas de empleados se proporciona servicio a millones de clientes. Esto requiere nuevas formas de gestar aplicaciones.

  • Las nuevas aplicaciones se escriben utilizando entornos de programación modernos que permitan abordar las necesidades de crecimiento y movilidad dentro de la nube o entre nubes.
  • En estos entornos los programadores no necesitan pensar en la infraestructura, la provisión de recursos físicos o la operativa. Simplemente necesitan focalizar en la lógica de negocio y programación, haciendo un uso eficiente de las inversiones realizadas para transformar la infraestructura en un servicio, sean de nube privada o pública.  
  • Las nuevas aplicaciones no se construyen con middleware heredado. Aquellos componentes caros, propietarios o que encadenen a un proveedor determinado serán descartados. El nuevo conjunto de aplicaciones utilizan middleware más ligero y arquitecturas portables, preparadas para funcionar en entornos virtuales y de nube, caracterizados por un bajo consumo de recursos y una escalabilidad ilimitada.  
  • El centro de gravedad de las nuevas aplicaciones son los datos. La aparición del concepto de ‘Lago de los Datos’ describe la convergencia entre las bases de datos tradicionales y aproximaciones más modernas a la infraestructura de los datos. Las más importantes características del ‘Lago de los Datos’ son la capacidad de almacenar y escalar sin límites así como de procesar cualquier cantidad de datos, en cualquier formato en un tiempo predecible; por tanto tiene que ser elástico, escalable, disponible, rápido y … barato

Adicionalmente, este repositorio tiene que disponer de otros servicios que pueden ser requeridos para hacer frente a determinadas necesidades del negocio, como tiempo real para reaccionar ante eventos de forma inmediata o interfaces amigables para los usuarios actuales de Inteligencia de Negocio.    

A Propósito De La Nube. Infraestructura Física (2)

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Ya sabemos que las organizaciones se dirigen hacia el consumo de TI como un servicio, basado en un catálogo, transparente desde el punto de vista financiero, orientado a las necesidades del negocio, y cuyos niveles de servicio se encuentran acordados entre las partes. Este catálogo debe incluir todos los componentes necesarios para la implantación de un servicio, incluyendo la infraestructura física.    

Infraestructura física

También sabemos que en este modelo el usuario paga solamente por aquello que consume, cuando lo consume. Esto tiene un impacto sobre la infraestructura física, que ahora tiene que responder a nuevos requerimientos como crecimiento bajo demanda, simplicidad y velocidad de despliegue, escalabilidad ilimitada, y competitividad en costes; algunas estrategias para alcanzar estos objetivos son:

  • Estandarización, que ofrece ventajas tanto desde el punto de vista económico como operativo y de gestión. Esto fomenta la proliferación de plataformas hardware uniformemente basadas en arquitecturas de consumo masivo x86, y consolidadas en sistemas operativos VMware, Microsoft o Linux; también ha favorecido la aparición de las llamadas infraestructuras convergentes, que contienen todos los elementos de proceso, almacenamiento o red necesarios para el despliegue de una nube.  
  • Virtualización masiva de las infraestructuras, que comenzó como una estrategia de reducción de costes asociada a la adquisición de servidores y que se ha extendido a toda la infraestructura, incluyendo el almacenamiento y la red; es la vía para proporcionar una calidad de servicio óptima y máxima flexibilidad ante el cambio.
  • Automatización, necesaria para proporcionar infraestructura bajo demanda; esta tarea se lleva a cabo mediante el software, que es quien aporta realmente valor a una infraestructura hardware escasamente diferenciada, y es el origen del fenómeno que conocemos como ‘Datacenter Definido Por Software’

Uno de los objetivos del Datacenter Definido Por Software es proporcionar la necesaria interoperabilidad entre diferentes nubes, privadas o públicas, permitiendo el movimiento de datos y procesos en ambas direcciones, y creando una auténtica federación de nubes gestionadas desde un único punto.

Esta nube híbrida, proporciona la capacidad para escalar dinámicamente y responder a demandas de negocio impredecibles, lo que es percibido por el negocio como una clara mejora en términos de alineamiento, eficiencia y satisfacción para el usuario final, mientras que la dirección de TI tendrá una clara percepción de ahorro económico.


El paso hacia la nube

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Estamos de lleno en Navidad, una época entrañable para muchos, y que suele ir acompañada de algunas vacaciones bien merecidas. Antes de que el que les escribe se tome las suyas, no quería despedirme del 2014 sin hacer una reflexión sobre un tema tan candente como es el paso hacia la nube.

Es difícil encontrar algún CIO o responsable de TI, que en sus planes a corto o medio plazo no tenga como prioridad alguna iniciativa relacionada con la nube. Es cierto que los motivos que impulsan a pensar en la nube pueden parecer distintos (ahorro de costes, eficiencia y agilidad en la provisión, control del “shadow IT”, nuevas metodologías de desarrollo de aplicaciones) pero al final no se trata más que de transformar las infraestructuras actuales de CPD para adaptarlas al modelo as a Service, con todas las ventajas que esto conlleva, y que son por todos conocidas.

Ahora bien, abordar semejante reto transformacional no es ni mucho menos un asunto sencillo, y requiere de una cuidadosa planificación, selección clara de los objetivos a cumplir, y sobre todo, la elección de un partner tecnológico que sea capaz de acompañar al cliente en esta aventura de forma satisfactoria.

Como no podía ser de otra manera, EMC cuenta con todos los requisitos para ser ese partner de confianza en el paso hacia la nube. Desde la estrategia de federación de compañías (Pivotal, VMware, EMC II), el porfolio de soluciones, y sobre todo, el equipo humano que lo componen, EMC es capaz de liderar junto al cliente esta aventura transformacional con éxito.

Me gustaría además comentar el enfoque de Hybrid Cloud de EMC, único en el mercado, el cual permite a los clientes elegir la tecnología con la que quieren hacer este viaje a la “nube”. Disponemos de soluciones basadas completamente en stack de la federación, o soluciones compatibles con proveedores de nube pública, o en estándares abiertos reconocidos como líderes en soluciones de nube (OpenStack).

Además, se ofrece todo lo necesario para poder implementar nubes privadas (on-prem), híbridas (con las 3 opciones mencionadas anteriormente), así como herramientas que permiten un aprovechamiento óptimo de la oferta de nube pública existente en la actualidad.
No quería dejar pasar esta ocasión para comentar que EMC, en su oferta de nube, no solo piensa desde el punto de vista de la infraestructura, sino que además proporciona todo el conocimiento y las herramientas necesarias para que las aplicaciones de nuestros clientes puedan sacar el máximo partido de todas las infraestructuras de nube que se ofrecen. Desde metodología Agile development, hasta todo el conjunto de herramientas (Pivotal Suite) necesarias para el desarrollo de las aplicaciones, basadas en estándares de mercado (Cloud Foundry), así como las consultorías necesarias para adaptar no solo los procesos de negocio, sino los recursos humanos de las compañías a esta nueva forma de trabajo que supone el paso hacia la nube.

Como siempre, les invito a profundizar en todos estos aspectos de la oferta de EMC, que seguro serán de su interés.

Feliz Navidad.

Cloud es demasiado importante para ser propietario

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Con este tweet Paul Maritz, CEO de Pivotal, anunciaba la conversión de Cloud Foundry en una Fundación, así como la puesta en marcha de un modelo de gobierno abierto y formal. CF, la iniciativa software de Platform-as-a-Service (PaaS) de Pivotal, podrá de esta forma evolucionar para convertirse en la base de todo un ecosistema de plataforma abierta.

Cloud Foundry nació como un proyecto de Open Source; pero siempre que se genera un proyecto de código abierto liderado por una empresa, la potencial comunidad de desarrolladores se pregunta acerca del grado de independencia de la plataforma, así como de los compromisos de desarrollo futuro.

La tentación para la empresa generadora es la de comenzar a tratarlo como software comercial, y el riesgo para la comunidad de desarrolladores es el de perder protagonismo, que sus necesidades no sean escuchadas, y con ello perder esfuerzos e inversiones realizadas alrededor de la plataforma.

El año pasado ya se creó un consejo asesor para reducir la preocupación derivada de que Pivotal fuera el único grupo liderando Cloud Foundry.

El siguiente paso, dado la semana pasada, ha sido el de crear una Fundación independiente, que ejerce la custodia de la estructura y gobernanza del proyecto. La Fundación cuenta con un consejo definido y los apropiados mecanismos de decisión, lo que permite a otras compañías y organizaciones con intereses en el proyecto involucrarse, directamente, en la estrategia y dirección de la hoja de ruta; además esto proporciona visibilidad de estos esfuerzos y transparencia al público en general.

Cloud Pública, Privada, Open Source

Cloud foundry

Ser miembro de la Fundación significa contribuir al núcleo de Cloud Foundry, pero eso no impide que cualquier empresa pueda crear alrededor del núcleo sus propios productos o extensiones específicas. En situaciones de competencia entre los miembros de la Fundación, seguramente tendrán que explicar a sus clientes que hay cierta cantidad de código idéntica en todos ellos y ciertos servicios diferenciales.

La nueva Fundación tiene como algunos de sus miembros a EMC, Pivotal, VMware, IBM, HP, SAP o Rackspace, nombres que dan una idea del interés que esta iniciativa ha despertado en el mercado, en la línea de evitar que una sola compañía pueda dictar el futuro de las aplicaciones o servicios Cloud. En definitiva, se trata de que las aplicaciones se puedan codificar de forma independiente y sean portables a (cualquier) nube.

 

El fin de las arquitecturas accidentales

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

En EMC tenemos identificado lo que llamamos Arquitecturas Accidentales de Backup. Estas arquitecturas se han ido generando con los años, y obedecen a la gran cantidad de actores que están envueltos a la hora de garantizar la seguridad de los datos en una instalación.

Tenemos personas a cargo de los servidores físicos, responsables de máquinas virtuales, gestores de almacenamiento, de aplicaciones, administradores de bases de datos, de laptops, responsables de oficinas remotas…y cada uno tiene su librillo, con el que se siente cómodo y que necesita realizar para garantizar la seguridad y consistencia de su entorno, manteniendo la visibilidad y el control. El resultado es una enorme complejidad y unos altos costes de infraestructura y gestión.

Así los equipos de almacenamiento realizan un snap vía comando, mientras el DBA lanza su propio Backup con las herramientas que la base de datos le proporciona y el administrador de máquinas virtuales guarda una plantilla. No siempre se sabe  lo que está protegido y lo que no, y tampoco si la protección y los costes son consistentes con la criticidad de la información a través de toda la organización.

En estos últimos años, Cloud Computing nos ha enseñado que las organizaciones se dirigen hacia el consumo de TI como un servicio. Pienso que el Backup es precisamente una de las funciones idóneas para convertir en un servicio y donde el retorno de la inversión es más evidente. Un servicio transversal para todos los integrantes del Datacenter, respetando las herramientas que les son conocidas pero integrándolos mediante políticas unificadas y que permita gestionar la infraestructura, la monitorización, las analíticas, etc.

Esa filosofía es la que EMC ha incorporado a sus productos de Backup, patente en el lanzamiento realizado esta semana (https://community.emc.com/docs/DOC-24965). Mejor dicho, a sus  soluciones de protección de la información, Data Protection Suite, puesto que junto con el Backup se integran servicios de Disaster Recovery y Archivado.

Arquitecturas de backup

Arquitecturas de Protección: Integradas, abiertas, modulares.

Así, se da un paso adelante en la integración de bases de datos y backup, permitiendo a los DBas realizar el backup en su propio entorno, en el formato propio de la BBDD y con las herramientas que les son conocidas pero totalmente integradas con las políticas de protección corporativas. De esta forma, por ejemplo, un administrador de SAP HANA hace su Backup a través de SAP HANA Studio, y esta copia es registrada por el software de backup como propia, permitiendo al administrador de backup extender su ciclo de vida. Un administrador de Oracle puede hacer lo mismo a través de RMAN. Por cierto, que como parte del lanzamiento EMC ha certificado la primera plataforma de Backup deduplicado para Oracle Exadata.

También se potencia la integración con VMware, de forma que se permite hacer backup de máquinas virtuales a nivel de imagen desde vSphere, desde donde también se puede llevar a cabo la recuperación de las mismas; con ello se incrementan las capacidades de autoservicio. Es también interesante la asignación de políticas de seguridad mínimas por defecto cada vez que se crea una nueva máquina virtual, lo que permite saber que todos nuestros sistemas virtuales se encuentran protegidos sin excepción.  Además, se permite hacer boot de una máquina virtual directamente desde el backup, sin restauración previa. Menos de dos minutos para arrancar una máquina desde su backup, que puede luego moverse con vMotion a su ubicación definitiva.

Y cómo no, también integración más profunda con el almacenamiento, de forma que la plataforma de protección permite realizar copias de seguridad en los almacenamientos (snaps), incorporándolas también en la política de seguridad general y facilitando una recuperación muy veloz en caso de necesidad.

Para no hacer la entrada muy extensa, sólo señalar que éstas son quizá las aplicaciones más extendidas, pero se ha continuado el esfuerzo de integración de otras muchas aplicaciones de archivado y seguridad de datos, tales como Symantec, Commvault, Atempo, Opentext, etc. lo que permite a nuestros clientes desplegar una infraestructura modular y abierta.

En definitiva, la protección de la información entendida como un catálogo de servicios del datacenter, con visibilidad corporativa, incorporando backup, archivado y disaster recovery; integración entre los sistemas físicos y virtuales, las aplicaciones y el almacenamiento; escalabilidad más sostenible, reduciendo los costes y la complejidad. Una arquitectura de protección completa, frente a las arquitecturas accidentales basadas en silos.

ViPR, picadura virtual

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Cloud Computing está transformando TI: estandarización de entornos, arquitecturas x86, virtualización, altos grados de automatización…todos ellos hitos en el camino hacia la nube, hacia el consumo de TI como un servicio.  

Cloud Privada, Pública o Híbrida, reflejando que a la hora de buscar eficiencias estamos dispuestos a explorar terrenos más allá de nuestro entorno tradicional, y que percibimos la nube pública como una más de nuestras posibilidades de desarrollar TI.  

En esta línea, durante los últimos años hemos asistido a una virtualización general de los servidores liderada por VMware y otros. Ahora le toca al almacenamiento (Vídeo: http://bcove.me/yn814k8p) adaptarse a una nueva generación de aplicaciones diseñadas para la nube, facilitando su consumo como un servicio que ayude a los desarrolladores y gestores de estas nuevas aplicaciones en sus tareas.

ViPR permite un nuevo enfoque del entorno Cloud acercando el almacenamiento a los modelos de consumo de nube pública, mediante la virtualización y gestión simplificada.  Esta nueva plataforma, que se enmarca en la estrategia ‘Software Defined Datacenter’ de EMC y VMware,  resulta interesante tanto para proveedores de servicios, como para aquellas empresas cuyos departamentos de TI evolucionan hacia modelos ‘as a Service’.

ViPR

‘Hypervisor’ de Almacenamiento

Es un hecho que la gestión de arrays de almacenamiento, especialmente en entornos multiproveedor, ocupa tiempo y recursos que son sustraídos de otras tareas de mayor valor añadido, tales como la gestión del rendimiento de las aplicaciones o del ciclo de vida de la información.

ViPR y su funcionalidad Control Plane (Controlador) permiten simplificar estas tareas, por la vía de convertir distintos arrays físicos en un pool único y virtual de almacenamiento. Este pool puede ser particionado ofreciendo al usuario un catálogo de arrays virtuales que respondan lo más precisamente posible a requerimientos de aplicaciones concretas. Esto es, habrá arrays virtuales que ofrezcan copias locales o remotas, que se encuentran federados o no, y con mejor o peor rendimiento y calidad de servicio, etc.

Como se ve, es un concepto muy similar al de los servidores virtuales, realizado a través de un portal autoservicio que permite seleccionar las funcionalidades de almacenamiento que respondan a sus requerimientos, medir el consumo y realizar chargeback; todo ello integrado con VMware, OpenStack o Microsoft Hyper-V.

ViPR virtualiza pero no trata a todos los almacenamientos por igual, sino que conoce su capacidad, características y funcionalidades y se integra con ellas a través de conectores específicos, tanto si el almacenamiento es de EMC como si es de otro proveedor; esto también distingue a ViPR de otras iniciativas de virtualización que simplemente ignoran la funcionalidad de las infraestructuras que gestionan.  Desde su lanzamiento, soportará almacenamientos de EMC y NetApp, estando previsto añadir otras plataformas en un futuro. Además, EMC pone a disposición de partners, clientes y otros proveedores las APIs de ViPR, lo que permite a estos jugadores añadir nuevos tipos de arrays o nuevos servicios software, lo que la convierte en una iniciativa abierta. 

Servicios de Datos

A la complejidad de gestión de un entorno heterogéneo, se une el que distintas aplicaciones pueden acceder a los datos de diferente manera (NFS, REST, etc). Tradicionalmente hay una fuerte dependencia entre el tipo de acceso al dato, el array que lo soporta y la aplicación que lo accede. Esto provoca que cuando queremos reprocesar la información en una aplicación distinta de aquella que la generó, en ocasiones haya que copiar la información de un array a otro añadiendo tiempo de proceso y duplicando el almacenamiento.   

La filosofía Cloud, en cambio, significa simplicidad, solicitar los servicios de una API para integrar aplicaciones en los almacenamientos, y no tener que cambiar nada en las aplicaciones cuando cambian las infraestructuras que las soportan.

ViPR a través del Data Plane nos ofrece una serie de servicios tales como la capacidad de gestionar objetos utilizando las API de Amazon S3, OpenStack Swift o ATMOS, acceder a esos objetos sobre sistemas de ficheros (Object On File Data Service), procesarlos sobre el sistema de ficheros distribuido de Hadoop  (HDFS Data Service), y otros servicios relacionados con el movimiento de datos y continuidad de negocio (Business Continuity y Mobility Data Services).

Bueno. Y todo esto ¿para qué sirve? Pues por ejemplo para crear un  servicio nuevo, como HDFS, en un almacenamiento que no disponía de ello en origen.  Así, las aplicaciones pueden generar datos en NFS, que pueden ser procesados o reprocesados en HDFS, y puestos a  disposición de los usuarios vía NFS o CIFS. Sin necesidad de mover, copiar o recrear el dato.  ViPR trabaja con la infraestructura global de la compañía, dispersa si es el caso, sin necesidad de mover la información para reusarla.

Otro caso de uso es el de permitir a las aplicaciones utilizar sus interfaces REST pero almacenando el objeto sobre un file system y mejorando con ello el rendimiento de forma dramática. Pensemos, por ejemplo, en procesar vía NFS y a todo rendimiento un vídeo generado como un objeto REST.

También podemos realizar analíticas avanzadas sobre objetos generados por las aplicaciones… o hacer backup de objetos sin necesidad de realizar miles de llamadas a una API. Todo un universo de nuevas posibilidades, que se verán incrementados según aparezcan nuevos requerimientos de las aplicaciones en nube hacia los almacenamientos, siempre con el objetivo de reducir la complejidad y mejorar la calidad de servicio.    

¿Dudas? Puedes unirte a la discusión con nuestros ingenieros en la comunidad ECN https://community.emc.com/thread/174175?tstart=0

Primavera 2013 ¿Qué se lleva en Almacenamiento?

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Esta pregunta tan simple me provoca unos instantes de reflexión. Las tendencias alrededor del mundo de TI nos hablan de Cloud Computing, Big Data, Movilidad, Redes sociales…pero ¿cómo se ve 2013 con las gafas del almacenamiento en sentido estricto? He intentado responder a esta pregunta sobre la marcha, sin pretender resultar exhaustivo.    

Empezando por lo más básico, continúan las tendencias ya en marcha respecto a las tecnologías de almacenamiento, siempre con los objetivos de mejorar la eficiencia y el rendimiento. La sustitución de las cintas y cartuchos por almacenamiento en disco, el alza de la deduplicación y la compresión así como las técnicas de provisión ‘thin’ y la automatización de la estratificación son reflejo de estas tendencias. 

Mención aparte merece  el desarrollo de tecnologías flash, que viene a complementar las tecnologías de discos mecánicos tradicionales y de las que estamos viendo un auténtico auge, bien en forma de arrays híbridos o en dispositivos totalmente electrónicos. Un ejemplo, EMC XtremSW, una tarjeta PCI de almacenamiento capaz de proporcionar más de un millón de operaciones por segundo y cuya segunda generación se encuentra en la calle desde hace unas semanas. Otro ejemplo, EMC XtremIO, un array 100% Flash, con arquitectura scale-out y deduplicación incorporada. Lo veremos en disponibilidad general en el verano.      

Los cada vez más exigentes niveles de servicio establecidos en el datacenter impulsan la adopción de infraestructuras convergentes, esto es, infraestructuras que contienen Almacenamiento, Capacidad de Proceso y Red en un sistema integrado. Los objetivos principales son el despliegue más rápido y consistente de la infraestructura, la mejora de los niveles de servicio y disponibilidad así como la reducción de los costes de gestión y mantenimiento. En el caso de EMC estas infraestructuras convergentes, nuestros VBlock, son desarrolladas y fabricadas junto con otras dos compañías líderes, Cisco y VMware. 

 Software Defined DataCenter

Cloud, BigData, Software Defined DataCenter

El fenómeno de la movilidad plantea nuevos retos relacionados con la colaboración y el intercambio de información, así como con la sincronización de dispositivos. Se requieren infraestructuras de almacenamiento que proporcionen servicio a grupos de usuarios ubicuos desde cualquier lugar y a través de dispositivos heterogéneos. También se requiere sincronizar los distintos dispositivos de un mismo usuario, todo ello, manteniendo las políticas de seguridad corporativa.  Syncplicity es nuestra solución integral de espacio en nube para dar respuesta a estos requerimientos, que puede implantarse en nube pública o privada, sobre infraestructuras de almacenamiento de EMC.     

El fenómeno de Big Data, la necesidad de almacenar y procesar cantidades ingentes de información no estructurada (imágenes vídeos, pdfs, etc) está impulsando nuevas infraestructuras de almacenamiento hiperescalables (arquitecturas scale-out), que están llamadas a ampliar su protagonismo en el mercado. Cuando se aumenta la capacidad de un sistema de este tipo, se incrementa de forma lineal su rendimiento, previniendo la posible generación de cuellos de botella en este universo de datos masivos. Gartner ha señalado en su último estudio a EMC Isilon como líder indiscutible de la industria en este segmento.   

También relacionado con las nuevas exigencias en niveles de servicio, la Federación de Infraestructuras permite desarrollar modelos de datacenters federados activo/activo, donde las aplicaciones adquieren movilidad geográfica sin interrupción del servicio, y donde la tradicional recuperación ante desastres (Disaster Recovery) evoluciona hacia escenarios de evitación del desastre (Disaster Avoidance). EMC VPLEX se encarga de federar estas infraestructuras de almacenamiento, que pueden ser o no de EMC, y extender la federación hacia otros datacenters.  

Por último, como resultado de los procesos de virtualización y estandarización de infraestructuras que hemos visto desarrollarse en los últimos años, continuará el fenómeno de transferencia de valor desde el hardware hacia el software, sustanciando lo que llamamos Software Defined Datacenter (SDDC). Este concepto de inteligencia dirigida por el software  responde a la búsqueda de entornos más flexibles, ágiles y económicos, donde el software es el encargado de proporcionar nuevos servicios avanzados y orquestar sistemas de almacenamiento heterogéneos. Un concepto en plena efervescencia esta primavera.

 

 

 

 

 

 

 

El Universo Digital (y 6). Crecimiento sin crisis

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Tenemos nuevo reporte de IDC, la sexta edición ya, sobre el Universo Digital. Este informe es siempre una lectura interesante para cualquier audiencia, por cuanto ayuda a entender una experiencia de la vida diaria como es el crecimiento explosivo de los datos. Pero, claro, a los profesionales de TI nos interesa además en su vertiente de previsión y evolución tecnológica.

(more…)

EMC FORUM 2012

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Bajo el lema de la transformación, acabamos de celebrar nuestro evento anual: EMC Forum.  Este año hemos batido un récord de asistencia, con 891 participantes entre clientes y partners de EMC. Esta asistencia muestra que existe un gran interés en la evolución y las novedades  de nuestra industria y que los profesionales de TI aprovechan este foro para acercarse a la innovación, así como para conocer de primera mano cómo otras organizaciones de su entorno afrontan los nuevos retos de TI.

En esta edición, como novedad, EMC ha realizado un estudio previo para conocer mejor las prioridades y preocupaciones de nuestros clientes.

Las organizaciones españolas han respondido que el reto más importante para este año 2012 es el mantenimiento de las infraestructuras software y hardware existentes, es decir, lo que venimos describiendo como “mantener las luces encendidas”. Una comparación rápida sitúa este tema  como la quinta prioridad en el Reino Unido, mientras que en Alemania ni siquiera figura entre los cinco retos más importantes para este año. Parece un reflejo de la crisis económica y su distribución geográfica.

El resto de los temas de interés para nuestros clientes son proyectos en los que la innovación está muy presente, y han girado alrededor de temas como la gestión de la información, cloud computing, virtualización, seguridad, escalabilidad de infraestructuras, etc. En general, temas relacionados con las cuatro grandes tendencias de TI: lo social, movilidad, cloud computing y Big Data. Ya he opinado anteriormente que estos cuatro temas se encuentran interconectados. Las redes sociales son una de las áreas de interés de las analíticas de Big Data, mientras las demandas de movilidad se traducen en la necesidad de nubes aún más accesibles y seguras, cuya flexibilidad de uso supone un catalizador para un uso eficiente de volúmenes de datos cada vez mayores y así sucesivamente.

En cuanto a las sesiones, voy a hacer un repaso de los temas más interesantes, tanto a cargo de EMC como de nuestros partners.  Hemos hablado de la transformación interna de EMC para consumir TI como un servicio, convertidos en usuarios de las mismas soluciones cloud que proponemos al mercado. Hemos  compartido las etapas del proyecto, las arquitecturas resultantes y los beneficios alcanzados.

Sesiones sobre la federación de infraestructuras y datacenters como elemento de base para favorecer la movilidad de las aplicaciones, así como para proporcionar nuevos niveles de disponibilidad a los servicios. RPO* cero, RTO** cero. Ciencia ficción, evitar desastres en lugar de recuperarlos.

Big Data ha ocupado un conjunto de sesiones en sus dos principales vertientes. Algunas dedicadas a las problemáticas que su enorme volumen acarrea, donde se ha tratado la escalabilidad, seguridad y gestión. Otras sesiones se han focalizado en la enorme oportunidad que este concepto significa, y aquí se ha hablado de analíticas avanzadas, velocidad y puesta en marcha de la información.

Hemos echado un vistazo a las tecnologías de disco y de memoria. Por si este tipo de temas a veces parece muy técnico y alejado del negocio, hemos reflexionado sobre cómo los nuevos procesos en tiempo real imponen nuevos niveles de rendimiento y de cuáles son las vías para alcanzar esos niveles respetando los presupuestos existentes. Almacenamientos estratificados, mezclas de volumen a bajo precio y rendimiento extremo, con la automatización de los niveles de servicio como piedra angular.

Infraestructuras convergentes, deduplicación, scale-out, datacenter dirigido por software… palabras clave de un auténtico despliegue de las tecnologías, servicios y soluciones que ofrecemos. Pero lo más destacable encabezaba este post. Año tras año EMC Forum es una oportunidad para los profesionales de TI donde encontrarse unos con otros, con nosotros y con nuestros partners. Para EMC es, además de un gran oportunidad, un motivo de satisfacción reunir a tantos amigos alrededor de nuestra casa. Gracias por vuestra asistencia y os esperamos el año que viene.

*RPO (Recovery Point Objective)
**RTO (Recovery Time Objective)

Videos Recomendados

Expand The Data Lake: New Data Lake, New Breakthroughs

Archivo del Blog

  • 2016 3
  • 2015 20
  • 2014 7
  • 2013 16
  • 2012 21
facebook
twitter
linkedin
youtube
rss