Posts Tagged ‘Virtualización’

A Propósito De La Nube. Operativa (3)

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

La adaptación del departamento de TI durante la transformación a un modelo de autoservicio y pago por uso, requiere una serie de cambios básicos en los roles y procesos que permitan una respuesta más ágil a los requerimientos del negocio.

Nube. Operativa

Algunos de los pasos dados en la evolución de la infraestructura física aceleran esta transformación: por ejemplo, la virtualización masiva simplifica el proceso de despliegue de nueva infraestructura, al eliminar tareas anteriormente problemáticas, como el proceso de compra de infraestructura física asociado con cada nuevo proyecto; también, la estandarización de plataformas simplifica la planificación de capacidad, al eliminar la complejidad asociada con entornos multiplataforma.

Sin embargo, la pieza clave es el Software, responsable de gestionar toda la infraestructura y de proporcionar la seguridad, disponibilidad y agilidad requerida independientemente del hardware subyacente. Alguna de las tareas requeridas en el Datacenter Definido Por Software son:

  • Generación del catálogo de servicios que resume la oferta de TI hacia las unidades de negocio, y que puede ser auto-provisionada por los usuarios mediante un portal a su disposición. Sean administradores de sistemas, desarrolladores o usuarios de negocio, disponen de una oferta orientada específicamente a su rol, que cumple con las políticas definidas por la organización.
  • Plataformas de virtualización del conjunto de la infraestructura física, incluyendo servidores, almacenamiento o redes, lo que permite construir una arquitectura de nube al mínimo coste posible.
  • Elementos de automatización de la nube y de integración con otros elementos y servicios de gestión, tales como la seguridad, que requieren que los administradores y arquitectos puedan generar flujos de trabajo lo más industrializados posible.
  • Herramientas de monitorización para controlar el nivel de servicio, y por tanto la capacidad, rendimiento y funcionamiento general de la infraestructura, así como métricas de eficiencia.
  • Capacidad para relacionar la calidad del nivel de servicio con los costes en un entorno del que se supone que responde a las demandas del negocio.

Todo este ecosistema ha de estar preparado para funcionar correctamente en un entorno abierto, en el que la infraestructura física que compone la nube puede pertenecer a distintos proveedores así como distintos pueden ser los sistemas operativos, hipervisores, etc.

A Propósito De La Nube. Infraestructura Física (2)

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Ya sabemos que las organizaciones se dirigen hacia el consumo de TI como un servicio, basado en un catálogo, transparente desde el punto de vista financiero, orientado a las necesidades del negocio, y cuyos niveles de servicio se encuentran acordados entre las partes. Este catálogo debe incluir todos los componentes necesarios para la implantación de un servicio, incluyendo la infraestructura física.    

Infraestructura física

También sabemos que en este modelo el usuario paga solamente por aquello que consume, cuando lo consume. Esto tiene un impacto sobre la infraestructura física, que ahora tiene que responder a nuevos requerimientos como crecimiento bajo demanda, simplicidad y velocidad de despliegue, escalabilidad ilimitada, y competitividad en costes; algunas estrategias para alcanzar estos objetivos son:

  • Estandarización, que ofrece ventajas tanto desde el punto de vista económico como operativo y de gestión. Esto fomenta la proliferación de plataformas hardware uniformemente basadas en arquitecturas de consumo masivo x86, y consolidadas en sistemas operativos VMware, Microsoft o Linux; también ha favorecido la aparición de las llamadas infraestructuras convergentes, que contienen todos los elementos de proceso, almacenamiento o red necesarios para el despliegue de una nube.  
  • Virtualización masiva de las infraestructuras, que comenzó como una estrategia de reducción de costes asociada a la adquisición de servidores y que se ha extendido a toda la infraestructura, incluyendo el almacenamiento y la red; es la vía para proporcionar una calidad de servicio óptima y máxima flexibilidad ante el cambio.
  • Automatización, necesaria para proporcionar infraestructura bajo demanda; esta tarea se lleva a cabo mediante el software, que es quien aporta realmente valor a una infraestructura hardware escasamente diferenciada, y es el origen del fenómeno que conocemos como ‘Datacenter Definido Por Software’

Uno de los objetivos del Datacenter Definido Por Software es proporcionar la necesaria interoperabilidad entre diferentes nubes, privadas o públicas, permitiendo el movimiento de datos y procesos en ambas direcciones, y creando una auténtica federación de nubes gestionadas desde un único punto.

Esta nube híbrida, proporciona la capacidad para escalar dinámicamente y responder a demandas de negocio impredecibles, lo que es percibido por el negocio como una clara mejora en términos de alineamiento, eficiencia y satisfacción para el usuario final, mientras que la dirección de TI tendrá una clara percepción de ahorro económico.


ViPR, picadura virtual

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Cloud Computing está transformando TI: estandarización de entornos, arquitecturas x86, virtualización, altos grados de automatización…todos ellos hitos en el camino hacia la nube, hacia el consumo de TI como un servicio.  

Cloud Privada, Pública o Híbrida, reflejando que a la hora de buscar eficiencias estamos dispuestos a explorar terrenos más allá de nuestro entorno tradicional, y que percibimos la nube pública como una más de nuestras posibilidades de desarrollar TI.  

En esta línea, durante los últimos años hemos asistido a una virtualización general de los servidores liderada por VMware y otros. Ahora le toca al almacenamiento (Vídeo: http://bcove.me/yn814k8p) adaptarse a una nueva generación de aplicaciones diseñadas para la nube, facilitando su consumo como un servicio que ayude a los desarrolladores y gestores de estas nuevas aplicaciones en sus tareas.

ViPR permite un nuevo enfoque del entorno Cloud acercando el almacenamiento a los modelos de consumo de nube pública, mediante la virtualización y gestión simplificada.  Esta nueva plataforma, que se enmarca en la estrategia ‘Software Defined Datacenter’ de EMC y VMware,  resulta interesante tanto para proveedores de servicios, como para aquellas empresas cuyos departamentos de TI evolucionan hacia modelos ‘as a Service’.

ViPR

‘Hypervisor’ de Almacenamiento

Es un hecho que la gestión de arrays de almacenamiento, especialmente en entornos multiproveedor, ocupa tiempo y recursos que son sustraídos de otras tareas de mayor valor añadido, tales como la gestión del rendimiento de las aplicaciones o del ciclo de vida de la información.

ViPR y su funcionalidad Control Plane (Controlador) permiten simplificar estas tareas, por la vía de convertir distintos arrays físicos en un pool único y virtual de almacenamiento. Este pool puede ser particionado ofreciendo al usuario un catálogo de arrays virtuales que respondan lo más precisamente posible a requerimientos de aplicaciones concretas. Esto es, habrá arrays virtuales que ofrezcan copias locales o remotas, que se encuentran federados o no, y con mejor o peor rendimiento y calidad de servicio, etc.

Como se ve, es un concepto muy similar al de los servidores virtuales, realizado a través de un portal autoservicio que permite seleccionar las funcionalidades de almacenamiento que respondan a sus requerimientos, medir el consumo y realizar chargeback; todo ello integrado con VMware, OpenStack o Microsoft Hyper-V.

ViPR virtualiza pero no trata a todos los almacenamientos por igual, sino que conoce su capacidad, características y funcionalidades y se integra con ellas a través de conectores específicos, tanto si el almacenamiento es de EMC como si es de otro proveedor; esto también distingue a ViPR de otras iniciativas de virtualización que simplemente ignoran la funcionalidad de las infraestructuras que gestionan.  Desde su lanzamiento, soportará almacenamientos de EMC y NetApp, estando previsto añadir otras plataformas en un futuro. Además, EMC pone a disposición de partners, clientes y otros proveedores las APIs de ViPR, lo que permite a estos jugadores añadir nuevos tipos de arrays o nuevos servicios software, lo que la convierte en una iniciativa abierta. 

Servicios de Datos

A la complejidad de gestión de un entorno heterogéneo, se une el que distintas aplicaciones pueden acceder a los datos de diferente manera (NFS, REST, etc). Tradicionalmente hay una fuerte dependencia entre el tipo de acceso al dato, el array que lo soporta y la aplicación que lo accede. Esto provoca que cuando queremos reprocesar la información en una aplicación distinta de aquella que la generó, en ocasiones haya que copiar la información de un array a otro añadiendo tiempo de proceso y duplicando el almacenamiento.   

La filosofía Cloud, en cambio, significa simplicidad, solicitar los servicios de una API para integrar aplicaciones en los almacenamientos, y no tener que cambiar nada en las aplicaciones cuando cambian las infraestructuras que las soportan.

ViPR a través del Data Plane nos ofrece una serie de servicios tales como la capacidad de gestionar objetos utilizando las API de Amazon S3, OpenStack Swift o ATMOS, acceder a esos objetos sobre sistemas de ficheros (Object On File Data Service), procesarlos sobre el sistema de ficheros distribuido de Hadoop  (HDFS Data Service), y otros servicios relacionados con el movimiento de datos y continuidad de negocio (Business Continuity y Mobility Data Services).

Bueno. Y todo esto ¿para qué sirve? Pues por ejemplo para crear un  servicio nuevo, como HDFS, en un almacenamiento que no disponía de ello en origen.  Así, las aplicaciones pueden generar datos en NFS, que pueden ser procesados o reprocesados en HDFS, y puestos a  disposición de los usuarios vía NFS o CIFS. Sin necesidad de mover, copiar o recrear el dato.  ViPR trabaja con la infraestructura global de la compañía, dispersa si es el caso, sin necesidad de mover la información para reusarla.

Otro caso de uso es el de permitir a las aplicaciones utilizar sus interfaces REST pero almacenando el objeto sobre un file system y mejorando con ello el rendimiento de forma dramática. Pensemos, por ejemplo, en procesar vía NFS y a todo rendimiento un vídeo generado como un objeto REST.

También podemos realizar analíticas avanzadas sobre objetos generados por las aplicaciones… o hacer backup de objetos sin necesidad de realizar miles de llamadas a una API. Todo un universo de nuevas posibilidades, que se verán incrementados según aparezcan nuevos requerimientos de las aplicaciones en nube hacia los almacenamientos, siempre con el objetivo de reducir la complejidad y mejorar la calidad de servicio.    

¿Dudas? Puedes unirte a la discusión con nuestros ingenieros en la comunidad ECN https://community.emc.com/thread/174175?tstart=0

EMC va de Sapphire

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

La semana pasada tuvo lugar el evento anual de SAP en Europa: Sapphire, al que tuve la suerte de asistir. Una enorme superficie física con grandes y pequeñas sesiones en prácticamente todas las esquinas.

EMC se encontraba representada en su propio stand y en el de VCE, la iniciativa de infraestructura convergente conjunta de EMC, VMware y Cisco, quienes a su vez contaban con representación propia.

A los que nos han visitado o han asistido a nuestras presentaciones les hemos hablado de lo que hacemos en el entorno SAP, por tanto, las conversaciones han girado alrededor de conceptos como  transformación, virtualización, seguridad, archivado, rendimiento, alta disponibilidad, big data, etc.

A continuación, expongo un breve resumen de los puntos que fui anotando por su interés y que reflejan parte de nuestra actividad y visión en el mundo SAP.

Transformación, optimización, alta disponibilidad

EMC ha compartido en estos foros su voluntad de continuar liderando la transformación de TI hacia cloud computing. Percibimos un interés palpable de nuestros clientes en esta transformación aplicada a los entornos SAP, que actualmente suelen incluir múltiples plataformas de proceso y sistemas operativos. Las mejores prácticas contemplan la estandarización y virtualización de infraestructuras y aplicaciones, lo que impulsa la transformación de las plataformas heredadas hacia plataformas x86 como vía eficiente hacia la nube.

Hemos hablado de optimización de los entornos productivos a través de estrategias como aprovisionamiento virtual y distribución automática de cargas de trabajo, es decir, cómo utilizar de la forma más eficiente posible la inversión en infraestructura (memoria, disco flash, etc.) y evitar al mismo tiempo que un pico de trabajo pueda poner en riesgo a las aplicaciones. Y todo ello con una reducción radical en los costes de gestión.

Uno de los temas más interesantes tratados es el de dotar de alta disponibilidad a los entornos SAP, a través de la federación de infraestructuras y la evolución de la producción hacia entornos multidatacenter activo-activo. Esto permite la transformación del tradicional ‘Disaster Recovery’ hacia el concepto ‘EMC Disaster Avoidance’ para el conjunto de aplicaciones SAP, sean bases de datos, aplicaciones, frontales, etc.

Nuevas plataformas

Y claro, también hemos hablado de HANA, para la que por cierto se ha anunciado soporte para virtualización en entornos no productivos. De las plataformas scale-out, que ya hemos certificado junto con Cisco (Cisco UCS + VNX5300) y en las que el almacenamiento unificado VNX proporciona persistencia a HANA, cumpliendo con los requerimientos de rendimiento, protección y acceso multiprotocolo que esta base de datos en memoria requiere. También, y como novedad, hemos dado a conocer el estado del proceso de certificación de nuestras infraestructuras convergentes (VCE VBLOCK) para el entorno HANA, diseñadas y fabricadas en colaboración con Cisco y VMware.

En alguna charla se ha dejado entrever el futuro de esta colaboración técnica de EMC y SAP. HANA está llamado a ser en el corto plazo un sistema de misión crítica, y esta es una conversación en la que EMC se siente cómoda. Disaster Recovery, alta disponibilidad, backup a distancia son algunos de los conceptos que serán importantes tanto en HANA como en cualquier otro entorno crítico. Y es en estas soluciones donde estamos trabajando y esperamos verlas certificadas en los próximos meses.

Ver vídeos relacionados con Sapphire Now 2012:

http://www.youtube.com/watch?v=eA_sEzrfcvY&feature=youtu.be

http://www.sapvirtualevents.com/sapphirenow/sessiondetails.aspx?sId=3732

http://scn.sap.com/community/hana-in-memory/blog/2012/10/04/sap-hana-real-time-race-las-vegas-challenger-ciscoemc 

EMC FORUM 2012

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Bajo el lema de la transformación, acabamos de celebrar nuestro evento anual: EMC Forum.  Este año hemos batido un récord de asistencia, con 891 participantes entre clientes y partners de EMC. Esta asistencia muestra que existe un gran interés en la evolución y las novedades  de nuestra industria y que los profesionales de TI aprovechan este foro para acercarse a la innovación, así como para conocer de primera mano cómo otras organizaciones de su entorno afrontan los nuevos retos de TI.

En esta edición, como novedad, EMC ha realizado un estudio previo para conocer mejor las prioridades y preocupaciones de nuestros clientes.

Las organizaciones españolas han respondido que el reto más importante para este año 2012 es el mantenimiento de las infraestructuras software y hardware existentes, es decir, lo que venimos describiendo como “mantener las luces encendidas”. Una comparación rápida sitúa este tema  como la quinta prioridad en el Reino Unido, mientras que en Alemania ni siquiera figura entre los cinco retos más importantes para este año. Parece un reflejo de la crisis económica y su distribución geográfica.

El resto de los temas de interés para nuestros clientes son proyectos en los que la innovación está muy presente, y han girado alrededor de temas como la gestión de la información, cloud computing, virtualización, seguridad, escalabilidad de infraestructuras, etc. En general, temas relacionados con las cuatro grandes tendencias de TI: lo social, movilidad, cloud computing y Big Data. Ya he opinado anteriormente que estos cuatro temas se encuentran interconectados. Las redes sociales son una de las áreas de interés de las analíticas de Big Data, mientras las demandas de movilidad se traducen en la necesidad de nubes aún más accesibles y seguras, cuya flexibilidad de uso supone un catalizador para un uso eficiente de volúmenes de datos cada vez mayores y así sucesivamente.

En cuanto a las sesiones, voy a hacer un repaso de los temas más interesantes, tanto a cargo de EMC como de nuestros partners.  Hemos hablado de la transformación interna de EMC para consumir TI como un servicio, convertidos en usuarios de las mismas soluciones cloud que proponemos al mercado. Hemos  compartido las etapas del proyecto, las arquitecturas resultantes y los beneficios alcanzados.

Sesiones sobre la federación de infraestructuras y datacenters como elemento de base para favorecer la movilidad de las aplicaciones, así como para proporcionar nuevos niveles de disponibilidad a los servicios. RPO* cero, RTO** cero. Ciencia ficción, evitar desastres en lugar de recuperarlos.

Big Data ha ocupado un conjunto de sesiones en sus dos principales vertientes. Algunas dedicadas a las problemáticas que su enorme volumen acarrea, donde se ha tratado la escalabilidad, seguridad y gestión. Otras sesiones se han focalizado en la enorme oportunidad que este concepto significa, y aquí se ha hablado de analíticas avanzadas, velocidad y puesta en marcha de la información.

Hemos echado un vistazo a las tecnologías de disco y de memoria. Por si este tipo de temas a veces parece muy técnico y alejado del negocio, hemos reflexionado sobre cómo los nuevos procesos en tiempo real imponen nuevos niveles de rendimiento y de cuáles son las vías para alcanzar esos niveles respetando los presupuestos existentes. Almacenamientos estratificados, mezclas de volumen a bajo precio y rendimiento extremo, con la automatización de los niveles de servicio como piedra angular.

Infraestructuras convergentes, deduplicación, scale-out, datacenter dirigido por software… palabras clave de un auténtico despliegue de las tecnologías, servicios y soluciones que ofrecemos. Pero lo más destacable encabezaba este post. Año tras año EMC Forum es una oportunidad para los profesionales de TI donde encontrarse unos con otros, con nosotros y con nuestros partners. Para EMC es, además de un gran oportunidad, un motivo de satisfacción reunir a tantos amigos alrededor de nuestra casa. Gracias por vuestra asistencia y os esperamos el año que viene.

*RPO (Recovery Point Objective)
**RTO (Recovery Time Objective)

Ventanas virtuales

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Con motivo del VMworld 2012 San Francisco, EMC y VMware han realizado un comunicado conjunto anunciando la disponibilidad de VMware vSphere Data Protection.

Se trata de una nueva solución de Backup basada en la tecnología de EMC Avamar, que permite realizar backup a disco de máquinas virtuales sin necesidad de agentes y con funcionalidad de deduplicación en origen.   Esta solución de respaldo se incorpora embebida en la nueva generación de la plataforma operativa de VMware, vSphere5.1, con la que se encuentra íntimamente integrada. Se gestiona directamente desde el cliente web de vSphere y es un sistema de protección muy sencillo de poner en marcha.

Es un buen momento para recordar en qué consiste la tecnología  Avamar y cuál es su valor en un entorno virtual.

El Backup tradicional y sus ciclos de backup total semanal e incrementales diarios, generan una enorme cantidad de datos duplicados. Esto, que sucede en cualquier entorno, es aún más patente en los entornos virtuales, donde un nuevo sistema puede provisionarse en escasos 10 minutos y donde  la redundancia de los datos alcanza dimensiones muy  importantes. La consecuencia es que el número de sistemas virtuales va creciendo en la misma medida que crecen la complejidad y la ventana de backup.

De hecho, el backup tradicional y sus tareas asociadas han sido uno de los grandes  inhibidores en el desarrollo y adopción de entornos cien por cien virtuales. Los beneficios derivados de la virtualización, en términos de compartición de infraestructura, flexibilidad, etc. se ven negativamente impactados por la competencia entre distintos sistemas para hacer backup durante un período restringido de horario.

La forma en que Avamar funciona consiste en dividir los datos en segmentos de longitud variable, comprimirlos, aplicarles un algoritmo hash de identificación y comprobar si ese segmento ya existe en el servidor de backup, en cuyo caso no se copia. Por el contrario, si los datos son únicos, se envían y con ellos se construye un backup full lógico, directamente preparado para realizar una recuperación sencilla cuando haga falta.

Los beneficios de esta estrategia son claros. Una reducción del tráfico de datos asociado al backup que alcanza el 95%, con los consiguientes ahorros en CPU, almacenamiento, conectividad o red. Menores requerimientos ambientales, tales como electricidad, refrigeración o espacio físico. Un backup mucho más rápido y una recuperación más sencilla, equivalente a recuperar directamente de un full backup. Menor RTO (Recovery Time Objective). Y un disaster recovery más eficaz, replicando solamente los bloques o segmentos necesarios y comprimidos, haciendo con ello un uso muy eficiente de la red WAN.

En definitiva, se trata de evitar que las tareas de respaldo puedan suponer ahora o en el futuro un obstáculo en los proyectos de virtualización, y simplificar así el camino hacia la nube.

Viejos conocidos: SAP y EMC

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Estas últimas semanas, y por múltiples razones que han coincidido en el tiempo, SAP se ha convertido en un tema recurrente de conversación en EMC.

Por un lado, nuestro departamento de TI ha puesto en producción lo que se denomina internamente proyecto ‘Propel’. Este proyecto consiste en la renovación de la plataforma que soporta el núcleo de los procesos de negocio de EMC, mediante un conjunto de soluciones basadas en el software empresarial de SAP.

Por otro lado, EMC y CISCO acaban de cualificar y lanzar al mercado la primera solución conjunta de infraestructura para SAP/HANA (https://community.emc.com/docs/DOC-17076).  HANA es una base de datos en memoria que parece destinada a convertirse en piedra angular de la mayor parte de las aplicaciones de SAP y, por tanto, de su estrategia.

La solución ahora cualificada se compone de software de SAP, servidores UCS de Cisco y almacenamiento VNX de EMC. Se trata de una configuración preparada para responder a las necesidades de crecimiento  de estos entornos en los tiempos del Big Data, sin descuidar las exigencias de rendimiento extremo que se esperan de una plataforma  ‘in memory’. O sea, una solución con capacidad de escalar de forma lineal (scale-out). Esta configuración es la primera de una serie de soluciones alrededor de SAP, que actualmente se están probando en nuestros laboratorios y  esperamos ver cualificadas próximamente.

Algunas de las ventajas que los clientes obtendrán de esta plataforma son un rendimiento predecible y una gestión integrada y simplificada de los distintos componentes, así como unos niveles de disponibilidad acordes con la criticidad de la plataforma a la que proporcionan servicio. En definitiva, reducción de los riesgos derivados de la infraestructura que una renovación de aplicaciones de este calado puede implicar y contención de los costes de explotación.

Otras áreas de colaboración entre ambas compañías, esta vez incluyendo a VMware, tienen que ver con las iniciativas de virtualización y cloud computing (http://www.sap.com/news-reader/index.epx?pressid=17747 ). SAP está transformando su oferta tecnológica con HANA, y lo hace atendiendo a múltiples demandas del mercado, entre las que figuran en lugar destacado los conceptos de desarrollo de la nube. La oportunidad para nuestros clientes es clara: la evolución de cualquier plataforma SAP en general y la introducción de HANA en particular constituye un buen momento para la revisión de la infraestructura que la soporta, adecuándola al nivel de servicio e innovación del nuevo software.

Las tendencias en esta materia apuntan hacia la transformación de las plataformas legacy y a favor de la estandarización sobre plataformas x86, reduciendo los costes asociados al hardware y favoreciendo la virtualización de las aplicaciones, pilares básicos en el desarrollo de una estrategia cloud,  junto con la capacidad de gestionar el crecimiento, la velocidad de despliegue y la automatización. Todas estas son tareas en las que EMC y VMware juegan un papel de primera fila ayudando a sus clientes a articular TI como un servicio.

EMC y SAP mantienen una relación multidimensional desde hace más de quince años. EMC es cliente de SAP, SAP es cliente de EMC y ambas compañías mantienen una relación de colaboración en la optimización y puesta a punto de soluciones. El resultado de esta relación es muy positivo para EMC, quien de acuerdo con los reportes de IDC(1) es líder de almacenamiento en entornos SAP. SAP es líder en el desarrollo de software de gestión empresarial. La colaboración entre ambas empresas proporciona una base sólida de confianza para nuestros mutuos clientes.

Ver el video “Transform SAP With Cloud And Big Data”

(1 IDC Storage User Demand Study, Fall 2011)

Universos abiertos

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Mi primer trabajo serio, tras varias experiencias como free-lance, me llevó a finales de los ’80 a trabajar en el departamento de informática de un gran banco, un entorno mainframe. Un mainframe no era un ordenador cualquiera. Los que trabajábamos en este entorno destilábamos entonces un cierto orgullo profesional, fruto de trabajar con los que se anunciaban como los ordenadores más grandes del mundo. 

En aquel momento y en aquel entorno, el mainframe era el centro de un universo alrededor del cual giraba todo. Y todo significa TODO. Los sistemas de almacenamiento en disco, las cintas y cartuchos, las impresoras, todos ellos tratados como subsistemas o periféricos. Los terminales y las comunicaciones (específicas),  los sistemas de alimentación eléctrica y la refrigeración por agua. Los analistas de sistemas, operadores, planificadores, desarrolladores, responsables de seguridad…e incluso los managers. El Datacenter orbitando alrededor de una única plataforma, un universo autocontenido y de fronteras conocidas.

Hoy el mainframe convive con sistemas abiertos que coexisten  a su vez con sistemas virtuales los cuales  pueden componerse en forma de nube. Los sistemas de almacenamiento proporcionan servicio a múltiples plataformas heterogéneas simultáneamente. Las redes de comunicaciones, los sistemas eléctricos y de climatización tienden a la estandarización, comunes para todas las plataformas. Y estas plataformas son ahora  las que orbitan alrededor de las personas, donde es común que un técnico de sistemas, por ejemplo, tenga a su cargo algunos centenares de sistemas virtuales.

En definitiva, se trata de un universo más abierto, donde las fronteras se expanden, no sólo en término de plataformas o localizaciones, sino incluso empresas distintas. Si utilizo uno o múltiples  proveedores de servicio, conceptualmente mi datacenter llega hasta allí e incluso alcanza a un usuario final cuyo terminal es heterogéneo, inteligente y móvil. Un espacio vasto y en permanente expansión.

En este nuevo entorno, algunas habilidades aparecen o se potencian en nuestras organizaciones.  La primera es, quizá la de pensar en nosotros mismos como parte del negocio y no solamente como un centro de costes, esto es, hacer nuevas propuestas, añadir valor a la cadena productiva. 

Hay que potenciar la visión estratégica, y más en este momento de presupuestos bajo presión, analizar las oportunidades de crecimiento del negocio a medio y largo plazo. Explorar nuevos modelos de arquitecturas y explotación. Conocer la oferta de servicios generada a nuestro alrededor, en infraestructura, plataforma y aplicaciones. Escoger las opciones más adecuadas para cada departamento o servicio, en función del  valor y coste.

Construir arquitecturas globales a través de distintas tecnologías.  Planificar la convivencia o integración entre los sistemas y arquitecturas. Medir la calidad de nuestro servicio y pasar la factura a quien corresponda.

Y hay que lidiar con los nuevos usuarios, nacidos digitales, innovadores, indisciplinados, y más productivos, acostumbrados a navegar por universos abiertos y difíciles de encerrar en el datacenter. Todo ello no sólo manteniendo sino incrementando la seguridad de nuestros datos y procesos.

Seguramente veremos aparecer nuevos perfiles para cubrir algunas de estas necesidades, pero en cualquier caso, algo queda claro: No nos vamos a aburrir.  

 

 

 

 

 

Optimizar lo optimizado

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Esta semana, un par de reuniones en distintos foros me han obligado a reflexionar acerca de las tecnologías de información, y su papel como impulsores de un cambio permanente en nuestra relación con las administraciones y empresas.   

Por empezar con un recuerdo, la digitalización del Boletín Oficial del Estado  supuso facilitar el acceso inmediato de los usuarios desde su domicilio y ahorrar más de 6 millones de euros y 3.500 toneladas de papel anuales. Evitó la tala de miles árboles y el consumo de millones de litros de agua y kilovatios de electricidad. Ahorro económico y responsabilidad ambiental de la mano. ¿Suena antiguo? Bueno, la desaparición definitiva de la edición en papel se produjo en 2009…

Cualquiera de los que estamos sujetos a la declaración de hacienda conocemos la evolución de este proceso. Hace poco más de una década el sistema habitual  pasaba por recolectar múltiples certificados de empresa y bancarios, añadirles fotocopias de documentos y  comprar un sobre donde había al menos dos formularios, el ‘bueno’ para presentar en la delegación de hacienda y el ‘borrador’, que rellenábamos a lápiz. Todo este proceso, de recolectar material, interpretar los formularios, y calcular ingresos y gastos tenía reminiscencias escolares que alcanzaban su clímax en la tarea de ‘pasar a limpio’ la declaración.  La de este año me ha llevado unos cinco minutos, los necesarios para confirmar el borrador. Básicamente, un click.

Click, y hacemos una transferencia bancaria, sin abandonar nuestro puesto de trabajo, sin consumo de combustible, sin rellenar un papel. Click y la radiografía se realiza, se archiva y se transfiere a nuestro médico sin envíos al laboratorio ni revelados que tardan días, sin elementos contaminantes. Click y obtengo mi seguro de viaje cinco minutos antes de embarcar, sin agobios, otro click y me bajo un vídeo para el vuelo…  Las administraciones y las empresas se encuentran en un ciclo de permanente mejora del servicio al ciudadano o cliente, que se entremezcla con la búsqueda también continua de eficiencias y ahorros.

¿Y ahora?

 

El hecho de que las TI se orienten a mejorar los procesos de servicio o negocio no implica que a su vez no puedan ser optimizadas. Actualmente algo más del 70% del gasto en tecnologías de la información se dedica a mantener en funcionamiento aquello que ya hemos implantado, es decir, el software,  los servidores, la infraestructura en general,  la electricidad, etc.  Esto nos deja menos del 30% para invertir en la búsqueda de nuevas eficiencias o mejoras de servicio, en definitiva, menos de un tercio dedicado  a la innovación.  

En este sentido, Cloud Computing aparece como la siguiente vuelta de tuerca para optimizar aquello que ya fue digitalizado e informatizado.  Los proyectos Cloud  promueven:

  • Virtualizar las infraestructuras físicas para reducir tanto sus costes de adquisición como de despliegue, los costes asociados al espacio físico o los energéticos, colaborando a reducir la huella de CO2.
  •  Incrementar la automatización para reducir los costes operacionales y las posibilidades de error. Menos operaciones manuales, servicios más disponibles.
  •  Agilizar la puesta en marcha de nuevas aplicaciones o servicios mediante infraestructuras más flexibles, sin la necesidad de iniciar pesados procesos de compra e instalación de infraestructura con cada proyecto.
  • Proporcionar TI como un servicio, incluso como un autoservicio, donde la provisión se realiza bajo demanda y en el momento en el que se necesita. Absorber los picos de trabajo cuando se producen sin tener  que mantenerlos todo el año. Optimización del gasto.
  • Estandarizar, garantizar la seguridad y el cumplimiento de normativas de forma homogénea, independientemente de dónde se procesa la información.

En definitiva, podemos considerar estos proyectos de transformación como prioritarios, y más aún en tiempos de presupuestos ajustados. Se trata de reducir los costes que ya tenemos para poder incrementar la inversión en innovación.  Cloud continúa en la línea de lo que venimos haciendo en TI; innovar, hacer nuestra vida más fácil, y mejorar la competitividad de nuestras empresas.

Videos Recomendados

Expand The Data Lake: New Data Lake, New Breakthroughs

Archivo del Blog

  • 2016 3
  • 2015 20
  • 2014 7
  • 2013 16
  • 2012 21
facebook
twitter
linkedin
youtube
rss