Author Archive

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

A Propósito De La Nube. IT como Servicio

El Datacenter se encuentra en un proceso de transformación que afecta a la función de TI y a su relación con el negocio, reflejando lo que sucede en la sociedad.

Los usuarios han madurado, ya no son ignorantes de las nuevas tecnologías sino que las incorporan de forma proactiva en su vida cotidiana; estos usuarios están preparados para entender el uso de la tecnología en sus sectores de negocio, y quieren seleccionar el tipo de servicio que necesitan: aquél que les permite ser más productivos, competir en mejores condiciones o rebajar los costes de sus departamentos.  

Los servicios solicitados pueden coincidir o no con los que el departamento de Ti ofrece, y cuando oferta y demanda no se encuentran alineadas aparece el concepto de ‘TI en la sombra’: Las unidades de negocio se dirigen directamente al mercado para adquirir el servicio que necesitan, ignorando al departamento de TI.  

Es por ello necesario que TI desarrolle su propio catálogo de servicios, creado en respuesta a las necesidades expresadas por el negocio y orientado a proporcionar flexibilidad y agilidad en la respuesta a sus requerimientos.

A Propósito de la Nube. IT como Servicio

Este catálogo, cuyo uso se asemeja al menú de un autoservicio, debería de contener tanto los servicios que puedan ser proporcionados internamente por la organización de TI, como aquellos que puedan ser adquiridos a un tercero, con la finalidad de ser más económico o eficiente.  

Es importante, para los departamentos de TI, incorporar en su catálogo aquellos servicios externos que puedan ser necesarios para el negocio. Si se ignoran este tipo de requerimientos, la compra y el consumo de estos recursos podrían crecer sin control dentro de la organización.

Al involucrarse en este proceso, la organización de TI se convierte en un distribuidor de servicios más que en un mero proveedor de infraestructura, lo que conduce a las arquitecturas de nube híbrida.

Para que esta transformación tenga éxito, es necesario monitorizar los niveles de servicio acordados con el negocio, especialmente en las áreas de seguridad, calidad y agilidad en el despliegue de recursos, y por supuesto, en el coste. Es decir, lo habitual entre un cliente (las unidades de negocio) y su proveedor (el departamento de TI).

Cloud es demasiado importante para ser propietario

Con este tweet Paul Maritz, CEO de Pivotal, anunciaba la conversión de Cloud Foundry en una Fundación, así como la puesta en marcha de un modelo de gobierno abierto y formal. CF, la iniciativa software de Platform-as-a-Service (PaaS) de Pivotal, podrá de esta forma evolucionar para convertirse en la base de todo un ecosistema de plataforma abierta.

Cloud Foundry nació como un proyecto de Open Source; pero siempre que se genera un proyecto de código abierto liderado por una empresa, la potencial comunidad de desarrolladores se pregunta acerca del grado de independencia de la plataforma, así como de los compromisos de desarrollo futuro.

La tentación para la empresa generadora es la de comenzar a tratarlo como software comercial, y el riesgo para la comunidad de desarrolladores es el de perder protagonismo, que sus necesidades no sean escuchadas, y con ello perder esfuerzos e inversiones realizadas alrededor de la plataforma.

El año pasado ya se creó un consejo asesor para reducir la preocupación derivada de que Pivotal fuera el único grupo liderando Cloud Foundry.

El siguiente paso, dado la semana pasada, ha sido el de crear una Fundación independiente, que ejerce la custodia de la estructura y gobernanza del proyecto. La Fundación cuenta con un consejo definido y los apropiados mecanismos de decisión, lo que permite a otras compañías y organizaciones con intereses en el proyecto involucrarse, directamente, en la estrategia y dirección de la hoja de ruta; además esto proporciona visibilidad de estos esfuerzos y transparencia al público en general.

Cloud Pública, Privada, Open Source

Cloud foundry

Ser miembro de la Fundación significa contribuir al núcleo de Cloud Foundry, pero eso no impide que cualquier empresa pueda crear alrededor del núcleo sus propios productos o extensiones específicas. En situaciones de competencia entre los miembros de la Fundación, seguramente tendrán que explicar a sus clientes que hay cierta cantidad de código idéntica en todos ellos y ciertos servicios diferenciales.

La nueva Fundación tiene como algunos de sus miembros a EMC, Pivotal, VMware, IBM, HP, SAP o Rackspace, nombres que dan una idea del interés que esta iniciativa ha despertado en el mercado, en la línea de evitar que una sola compañía pueda dictar el futuro de las aplicaciones o servicios Cloud. En definitiva, se trata de que las aplicaciones se puedan codificar de forma independiente y sean portables a (cualquier) nube.

 

Almacenamiento virtual, visibilidad y control

La aparición y desarrollo de la tercera plataforma de computación supone un reto muy serio para las infraestructuras tradicionales de almacenamiento. Este nuevo entorno requiere de la agilidad y flexibilidad de la nube, la escalabilidad sin precedentes que Big Data impone, la velocidad del tiempo real, o la necesidad de gestionar datos ubicuos y en formatos variopintos generados por redes sociales y dispositivos móviles.

Y claro, necesitamos cumplir estos nuevos requerimientos utilizando las infraestructuras que ya tenemos, es decir, potenciando las inversiones ya realizadas y evitando que se conviertan en silos incomunicados donde la información se estanca.

En este contexto, el de responder a las nuevas necesidades web-scale sobre  infraestructuras tradicionales, es en el que se encuadra el anuncio de nuevas versiones de ViPR y SRM suite del pasado 30 de Enero (vea lanzamiento).

Ya hemos hablado en este blog de ViPR (link al post de ViPR), vértice de la estrategia de almacenamiento definido por software de EMC. ViPR es una solución software que permite abstraer el almacenamiento de los distintos sistemas físicos, para componer un único conjunto de capacidad de almacenamiento o array virtual, una plataforma simple y extensible capaz de provisionar servicios de almacenamiento de forma automática y con escalado prácticamente ilimitado.

Virtual Data Center

EMC Storage Resource Management Suite (SRM) es una solución software que proporciona visibilidad y control sobre la capacidad, rendimiento y configuración de recursos de almacenamiento físico y virtual, lo que reduce el esfuerzo para mantener el control y garantizar el nivel de servicio sobre las infraestructuras, potenciando las inversiones ya realizadas.

SRM Suite

Sinergias de la integración
Desde el pasado 30 de enero, ViPR y SRM se integran en un único interface, centralizando la gestión de almacenamiento heterogéneo. En este entorno, ViPR descubre los arrays físicos que se encuentran en la instalación, y permite  realizar las tareas de  reporting y chargeback para los arrays virtuales en él definidos; por su parte SRM permite realizar tareas similares para los arrays físicos que ya se encuentran instalados y hacerlo a través de la misma consola.

La combinación de ambos productos permite:

  • Analizar la capacidad consumida así como las tendencias, facilitando las tareas de capacity planning.
  • Monitorizar el rendimiento end-to-end, desde el servidor hasta el almacenamiento físico o virtual, así como descubrir los posibles incumplimientos de los niveles de servicio acordados, lo que a su vez permite identificar posibles problemas.
  • Analizar cambios en el entorno y validarlos contra las reglas de compliance establecidas por la organización, para garantizar que el entorno se encuentra siempre en cumplimiento, y advirtiendo de cambios que pudieran afectar a la recuperabilidad de los datos.
  • Descubrir la capacidad física de los arrays que podría ser virtualizada y añadirla al pool virtual si así se precisa.
  • Automatizar los reportes sobre recursos alocados y realmente utilizados.
  • Centralizar la funcionalidad anterior en un único cuadro de mandos.

En definitiva en un entorno en el que la combinación de entornos físicos y virtuales, la presencia de distintos proveedores y un crecimiento explosivo favorecen la aparición de silos de información inconexos y difíciles de mantener, la integración de ViPR y SRM proporciona las herramientas orientadas a gestionar el entorno de manera más sencilla y eficiente, mejorando la visibilidad del servicio en su conjunto y favoreciendo la consistencia en temas de seguridad, disponibilidad o cumplimiento normativo.

entorno fisico y virtual

XtremIO. Cuando Flash no es sólo rápido

La semana pasada EMC anunció la disponibilidad general de su plataforma (Ver nota de prensa) XtremIO, un array de almacenamiento basado exclusivamente en tecnología Flash y con funcionalidades de datos avanzadas.

Asociamos Flash con hardware de almacenamiento caro. Yo no lo comparto. Ya he expresado en este mismo Blog que, en mi opinión, la tecnología Flash es fundamentalmente software. Hoy quiero insistir en esta idea, así como en el hecho de que Flash no es caro sino eficiente  ¿Es adecuado un array totalmente Flash en tiempos de contención de costes? Depende del tipo de proyecto y de la inteligencia que se incorpore.

Rendimiento y Coste por Transacción
A la hora de buscar eficiencias hay muchas formas de echar las cuentas, y las más adecuadas son aquellas que responden a necesidades del negocio. Así, un disco Flash es caro en términos de coste/capacidad, o sea, euros/GB. Pero es barato en términos de coste por transacción.

De lo anterior se deduce que es imposible a día de hoy justificar por ejemplo, el archivado masivo de todo tipo de ficheros inactivos sobre disco de tecnología Flash; no tiene sentido pagar más por almacenar una información que básicamente no será accedida o lo hará de forma muy selectiva. Sin embargo, el panorama puede ser muy distinto en otros entornos.

Pensemos en la problemática de algunas bases de datos de misión crítica, que soportan un gran número de transacciones y procesos batch. Para alcanzar requerimientos extremos de rendimiento, tradicionalmente se ha sobredimensionado la infraestructura de almacenamiento añadiendo un gran número de discos físicos, no para incrementar la capacidad sino el número de transacciones por segundo.

Esto convierte el soporte a estas bases de datos en algo muy caro desde el punto de vista de la compra de infraestructura física, del espacio que ocupa, de la energía que consume, del calor que disipa y de la gestión que requiere.

Cuando estamos ante una situación de este tipo, la tecnología XtremIO se convierte en un catalizador de eficiencia económica. De hecho no son infrecuentes casos (pinchar para ver ejemplo) en los que se alcanzan ahorros por encima del 80% en consumo energético y espacio físico en el Datacenter, a la vez que obtienen mejoras radicales en los tiempos de proceso y se favorece, incluso, desarrollar nuevos procesos analíticos que antes no tenían sentido.  Ahorro de costes, mejora en el nivel de servicio, respuestas a nuevos requerimientos del negocio. Un sueño.

xtremIO

Deduplicación y Coste por Puesto de Trabajo (o Coste por Landscape…)
El rendimiento radical de XtremIO, permite habilitar nuevas funcionalidades, siendo una de las más llamativas la deduplicación inline. Esta función no es una opción, sino una característica intrínseca del sistema que siempre se encuentra activa, que detecta cualquier bloque duplicado en vuelo y no llega a almacenarlo nunca; esta característica reduce el coste del almacenamiento, incrementa el rendimiento, la duración y disponibilidad de los discos Flash.

Pensemos en un proyecto de virtualización del puesto de trabajo, un proyecto VDI, digamos que para 1000 usuarios. No hay nada más parecido a un puesto de trabajo que otro puesto de trabajo. Esto significa que en el almacenamiento tradicional vamos a tener una cantidad muy importante de datos redundantes, resultado de clonar centenares de veces el mismo desktop con el mismo sistema operativo y las mismas aplicaciones.

El resultado de aplicar tecnología XtremIO a ese proyecto reducirá sensiblemente las necesidades de capacidad de almacenamiento (deduplicación de bloque), sin necesidad de pesados procesos de limpieza posteriores (inline),  con un rendimiento que permite abordar el acceso simultáneo de miles de usuarios (flash) y fácilmente escalable (scale-out). De nuevo, mejoras en el nivel de servicio, una respuesta más rápida y flexible a futuros crecimientos del negocio, conjugados con ahorro de costes que podemos medir en términos de coste/puesto de trabajo.

Esta misma filosofía puede ser exportada a otros entornos, por ejemplo, aplicaciones de gestión empresarial.  Lo más parecido a mi entorno SAP de producción son mis entornos SAP de preproducción, formación, test, etc. XtremIO permite obtener una copia instantánea del entorno (landscape), copia en la que se reduce la información redundante y se garantiza el elevado  rendimiento que una aplicación de este tipo requiere.

Otras eficiencias
Existen otras eficiencias que pueden ser potenciadas mediante XtremIO,  tales como  una mejor utilización de los procesadores, y por lo tanto en una menor demanda de crecimiento en CPUs con el consiguiente impacto que esto pueda tener sobre los costes de licencias de software.

O la capacidad de XtremIO de proporcionar el máximo rendimiento empleando simultáneamente todas las controladoras y todos los discos flash disponibles para cada operación de entrada/salida, que explica que el sistema se encuentre balanceado de forma inherente, y que no requiera pesadas operaciones de tuning y gestión asociadas.

XtremIO cambia las reglas de ese juego donde Flash es tan rápido como caro. Los costes, todo tipo de costes, han estado muy presentes durante la puesta de largo del producto para ser aplicados al proyecto correcto.

 

Presentando la Nueva Comunidad EMC de Soporte en Español

‘Guest blog’ escrito por Roberto Araujo. Roberto Araujo, publicista especializado en tecnología con 5 años de experiencia, las redes sociales son su especialidad, siendo muy activo en Twitter, LinkedIn y Facebook. Dispone de su propio blog, donde escribe sobre temas relacionados con redes sociales y las relaciones públicas en los EEUU. Hace casi un año se unió a EMC para dirigir el lanzamiento de la comunidad de soporte en español, la cual ha resultado todo un éxito. Roberto vive en San Jose, California hace más de 18 años, nació y creció en Lima, Perú. En su tiempo libre le gusta practicar artes marciales como jiu-jitsu y kickboxing al igual que viajar y probar todo tipo de comidas. Espero que se anime a colaborar con nostros de forma habitual en este blog…    

Presentando la Nueva Comunidad EMC de Soporte en Español
Roberto AraujoDe forma continua en EMC nos esforzamos en servir a nuestros clientes en cualquier parte del mundo y en su idioma de preferencia. Sabemos que tenemos muchos clientes, partners y empleados que hablan inglés como segundo idioma, pero también sabemos que hay veces que se hace difícil encontrar material de soporte en su idioma y disponible en cualquiera de los medios que EMC ofrece.

Nuestros productos son populares y disponibles globalmente, incluyendo aquellos países donde se utiliza el español como idioma único de negocios. Hasta hace poco, muchos clientes y socios en esas regiones que necesitaban soporte lo hacían en inglés por medio del EMC Community Network (ECN), y si esto no resultaba optaban por el servicio al cliente, por teléfono o el chat. ¡Pero esto ya no será necesario!

Hoy, me complace anunciar que la Comunidad EMC de Soporte en Español ya está disponible para todos. 

Hace unas semanas la comunidad de soporte en español fue exitosamente lanzada como un proyecto piloto. Gracias a aquellos que participaron y nos ofrecieron sus críticas pudimos confirmar que lo que estamos ofreciendo es los que nuestros usuarios demandan. Es más, durante este proceso 100% de nuestros encuestados calificaron a la comunidad de soporte en español como excelente, muy buena o buena, lo cual nos confirmó que estábamos listos para lanzarla al público en general.  

La comunidad de soporte en español es una parte importante de la estrategia de agilidad en el servicio de EMC, permite conectarse y compartir contenido técnico con otros clientes, partners y expertos técnicos de EMC en su idioma de preferencia.

Como miembro activo de la comunidad de soporte en español, usted puede:

  • Formular y responder preguntas en foros de soporte orientados a productos
  • Encontrar rápidamente soluciones y consejos detallados para problemas comunes
  • Establecer conexiones a medida para compartir ideas, experiencias y comentarios
  • Lograr reconocimiento y obtener incentivos de acuerdo con su participación y su experiencia
  • Acceso a material de soporte las 24 horas del día, 7 días de la semana
Vídeo sobre la Comunidad de sopoerte en español de EMC

Vídeo sobre la Comunidad de sopoerte en español de EMC

Para visualizar el vídeo pinchar aquí

Un soporte útil
Podemos preguntarnos si por el hecho de ser una comunidad nueva, cuyo contenido de soporte es en su mayoría generado por los usuarios… ¿habrá suficiente material de ayuda? La respuesta es simple, la comunidad está llena de material de soporte útil y lista para proveer soluciones a problemas comunes con productos como VNX, Avamar, Networker, CLARiiON, Symmetrix, Celerra, Centera, Documentum, y otros más.

Si por alguna razón, en nuestro archivo de material de soporte no logra encontrar la respuesta a su pregunta, le pedimos que la publique. Nuestro compromiso es que obtendrá respuesta en menos de 24 horas.

Finalmente le voy a revelar un pequeño aliciente. Durante las últimas semanas, y hasta final de año, tendremos un concurso dentro de nuestra comunidad, para partners y clientes, que no se puede perder. Es muy fácil ganar, en especial ahora que nuestra comunidad se está iniciando. Para más detalles, pinche aquí: https://community.emc.com/thread/182544. Y…¡Suerte!

Para tener acceso directo a la comunidad de soporte en español siga este vínculo: https://community.emc.com/go/spanish (¡Añádalo a sus favoritos!)

Si aun no tiene una cuenta en ECN, inscríbase y elija una de estas dos opciones: Acceder con su cuenta de Powerlink o registrarse manualmente. Es fácil y rápido: https://developer-content.emc.com/login/register.asp 

Por Roberto Araujo
Manager de la comunidad de soporte en español
Twitter: https://twitter.com/rcaroman
LinkedIn: http://linkedin.com/in/araujoroberto/
Personal blog: http://robertoaraujo.net/

 

3 Formas de aplicar un EDMS en Entornos de Ingeniería y Construcción

‘Guest blog’ escrito por José María Sotomayor. Jose María es Senior Systems Engineer para el Information Intelligence Group (IIG) de EMC en España, y en EMEA participa como Stream Leader para la práctica EPC a nivel de preventa, dentro del vertical de Energía e Industria (josemaria.sotomayor@emc.com). Espero que se anime a participar de forma habitual en este blog…    

3 Formas de aplicar un EDMS en Entornos de Ingeniería y ConstrucciónJose Maria Sotomayor EMC

Siempre que me preguntan por cuál es la forma más rápida de mejorar la gestión de la documentación en una compañía de Ingeniería y Construcción, en una EPC como muchas veces se las denomina, siempre pienso en el mismo caso: si la gestión de los documentos está desacoplada de los documentos como tal, porque se use una base de datos, una aplicación propia, listas Excel, etc., ciertamente hay una oportunidad de mejora.

Este factor de separación entre documentos y datos es importante. Una base de datos puede decirnos que existe un documento llamado “0089-PIPING-DIAGRAM-06700001-REV-D” pero ahora nos corresponde a nosotros contestar una serie de preguntas:

  • ¿Dónde está?
  • ¿Quién está trabajando sobre él?
  • ¿Dónde está la copia más reciente? ¿En la unidad de red? ¿En el disco de alguien?

¿Cuánto tiempo hemos invertido (o malgastado) en contestar estás preguntas? Lo peor de todo es que en muchos casos no podemos estar seguros. Los errores y la pérdida de documentos provienen muchas veces de prácticas como esta. Algunas veces me han comentado tiempos increíbles para dar con un documento. No digamos si además estamos hablando de UTEs o proyectos con colaboraciones similares, lo cual es el pan nuestro de cada día. Vamos a echar un vistazo a tres conceptos de gestión documental que aplican muy bien en este tipo de compañías si nos encontramos con este escenario:

  • Repositorio y metadatos.
  • Relaciones
  • Enlaces

 Repositorio y Metadatos

Un repositorio documental se encarga fundamentalmente de mantener los documentos y los datos que los describen (metadatos) juntos, tratándolos como una única unidad. Esto facilita enormemente la clasificación y búsqueda de la documentación. Nosotros definimos los metadatos para clasificar nuestros documentos y poderlos encontrar después, de forma parecida a los campos la base de datos que usábamos antes. Así, cuando buscamos en el repositorio un documento etiquetado como:

PROYECTO: 0089, NOMBRE: PIPING-DIAGRAM-06700001, REVISION: D

Encontraremos entonces el documento que estábamos buscando y toda la información relativa al mismo. Si un delineante está trabajando en él, sabremos quién. Si hacemos clic sobre el documento, podremos ver la última versión disponible. Sin sorpresas, sin lugar a error, e inmediato. En el fondo es la diferencia entre disponer de gestión documental o ser nosotros parte de ese sistema de gestión documental. Los metadatos son la base para disponer de forma unificada de herramientas tan útiles como guardar los comentarios junto con los documentos y poder buscar por ellos, enlazar el avance de los documentos a herramientas como Primavera o registrar información de distribución del documento (transmittals).

Relaciones

La capacidad de crear relaciones en un EDMS (Electronic Document Management System) es crítica en organizaciones de Ingeniería. Este mecanismo asegura que aquellos documentos que deben vivir juntos lo hagan realmente. Una Petición de Cambio es un perfecto ejemplo. Es un documento que modifica o actualiza el contenido de otro, de forma que el original no es modificado. Crear una relación del tipo “El Documento B es una Petición de Cambio del Documento A” nos permite saber en cualquier momento que el Documento A tiene Peticiones de Cambio, así como tener acceso inmediato a las mismas. Las relaciones a veces se usan también para modelar un sistema de “Revisiones”, ya que este concepto del mundo de la ingeniería es bastante distinto del tradicional sistema de “Versiones” que encontramos en un EDMS por defecto. Por ejemplo “Documento A en Revisión C es una revisión del Documento A en Revisión B” es otro de los tipos de relaciones que se pueden modelar.

Enlaces

Los enlaces nos permiten básicamente hacer que los documentos aparezcan en otras carpetas además de donde residen originalmente (son enlazados a otras carpetas).Este procedimiento es muy distinto a crear una copia. A diferencia de un enlace, la copia hace que si se modifica el documento original estos cambios no se vean reflejados en las demás carpetas, mientras que el enlace sí que lo permite (solo tenemos un único documento, en el fondo). Este mecanismo de enlace se utiliza mucho por ejemplo con las Especificaciones y Normativas de Clientes. Se enlazan a las distintas carpetas del proyecto donde es necesario que aparezcan, o entre múltiples proyectos de un mismo cliente. También se usan muy comúnmente con las Requisiciones de Material, ya que estas suelen incorporar documentos ya presenten originalmente dentro de la estructura del proyecto. Y un uso avanzado realmente útil es el de enlazar los documentos a estructuras alternativas de desglose tipo HBS, WBS, etc., para poder así navegar los documentos del proyecto de distintas formas, en función de la disciplina o rol de cada persona del proyecto.

Hemos querido empezar esta serie de entradas sobre Gestión Documental e Ingeniería por conceptos muy sencillos, pero que encierran un gran potencial. Hay muchos más que iremos cubriendo más adelante. Aunque existen soluciones directamente adaptadas al mundo de la Ingeniería como EMC Documentum EPFM (Engineering, Plants and Facilities Management) que utilizan estos conceptos como base para aportar una solución end to end completa para estas organizaciones, conocerlos puede ayudar en gran medida a enfocar nuestro proyecto, metas y medios para conseguirlos.

Por Jose María Sotomayor

 

Renovación generacional y eficiencia de proceso

Ayer asistimos al lanzamiento mundial de una importante serie de novedades en las soluciones de EMC: La nueva generación de almacenamiento unificado VNX, así como su incorporación en las arquitecturas de referencia VSPEX, la disponibilidad general de ViPR, nuestra solución de Almacenamiento Definido por Software y un primer vistazo al proyecto ‘Nile’, cuyo objetivo es trasladar los conceptos de facilidad de uso y consumo elástico de recursos de la nube pública al datacenter. Sobre todos estos temas nos gustará hablar en este foro en fechas próximas, pero hoy quiero repasar esta renovación generacional del almacenamiento de gama media y más concretamente, las mejoras derivadas de un uso más eficiente de la capacidad de proceso.

Es un buen momento para recordar que EMC ha ido evolucionando todas sus plataformas hardware hacia la estandarización mediante la adopción completa de tecnología Intel x86. Sin ASICs, ni otros elementos extraños. Esta estrategia no sólo significa incorporar sus CPUs a toda nuestra gama de soluciones, sino colaborar con su departamento de ingeniería para alinear el desarrollo de nuestros productos con los suyos, lo que finalmente se traduce en una mejora permanente del rendimiento de nuestros sistemas.

Desde este punto de vista, la nueva gama VNX es mucho más que un refresco tecnológico; constituye una evolución de la arquitectura, que rediseña los procesos de entrada salida para garantizar un incremento del rendimiento a gran escala y de forma automatizada, sin optimizaciones manuales.

Estas mejoras están imbricadas en la nueva generación de plataformas VNX, y se apoyan tanto en avances tecnológicos como en cambios de código que han dado lugar al nuevo entorno operativo MCx, enfocado en exprimir todas las ventajas de las CPU multicore. Es importante resaltar que la optimización se realiza vía software y que permite un factor de escalado del backend superior al 97%, prácticamente lineal, lo que constituye toda una medida de eficiencia; o sea, que la adición de un mayor número de cores en el futuro se asumirá de forma eficiente y se traducirá en el correspondiente incremento del rendimiento.

La optimización multicore es clave para el futuro de las plataformas de EMC, tanto para mantener una óptima relación precio/rendimiento como para desarrollar futuros e innovadores productos.

Entorno Operativo MCx

Eficiencia Multicore

Algunas de las mejoras que este software incorpora son:

Multi Core Cache. Las mejoras se han dirigido a optimizar los mecanismos automáticos de ajuste dinámico de cargas, eliminando las limitaciones artificiales e ineficiencias que provoca la división entre cache de lectura y escritura así como las tareas de parametrización manual asociadas. El resultado es una mejora patente del rendimiento y una mayor facilidad de uso.

Multicore RAID. El tamaño cada vez mayor de los sistemas de almacenamiento continuará promoviendo la protección RAID 6; en los nuevos sistemas VNX, la funcionalidad multicore RAID garantiza que si un segundo disco falla se recupera de forma paralela y simultánea con el primero. Además, se elimina la necesidad de definir de forma manual los discos de spare, de forma que cualquier disco no utilizado es candidato a ser utilizado para este fin. En definitiva, recuperaciones más rápidas, disponibilidad mejorada y gestión más sencilla.

Multicore Fast Cache. El uso de esta cache extendida se ha mejorado mediante la optimización de los algoritmos de memoria, promoviendo los datos de forma más temprana, reduciendo las latencias y liberando proactivamente recursos durante los períodos de actividad pico.

Symmetric Active/Active. Esta funcionalidad permite el acceso simultáneo de cualquier controladora a cualquier LUN sin necesidad de configurarlo manualmente, y mejora el rendimiento balanceando las cargas entre los procesadores de servicio en modo activo/activo; el resultado se traduce en un uso más eficiente de los recursos, mejoras de la disponibilidad en caso de incidentes en el canal, failover más limpios y rápidos, y eliminación de las tareas manuales de asignación LUN/Procesador.

Mejoras en el uso de tecnologías Flash, incluyendo la integración entre VNX y las tarjetas de cache de servidores XtremSF, lo que define un nuevo estrato de almacenamiento de rendimiento extremo.

Aunque esta entrada se ha focalizado fundamentalmente en la optimización del uso de las CPUs, éstas no son, por supuesto, las únicas mejoras de la nueva gama VNX. A éstas habría que añadir otras nuevas funcionalidades como deduplicación de bloque (la deduplicación de archivo ya estaba disponible en la generación anterior), mejoras en la integración con Microsoft Hyper-V, en la protección de aplicaciones o incrementos en la capacidad de los sistemas, etc. La información completa está disponible en nuestra página web (http://spain.emc.com/index.htm).

Confianza en nuestras TI

Las Tecnologías de la Información están en permanente evolución para alinearse con el negocio y responder mejor a sus tres grandes requerimientos genéricos: Reducir los costes, incrementar los beneficios y reducir el riesgo.

Como muestra de esta adaptación, últimamente asociamos de forma inmediata contención de costes con el desarrollo de Cloud Computing, así como el requerimiento de Incrementar el beneficio conduce a Big Data y su promesa de transformación del negocio. La reducción de riesgos la asociamos con un concepto que en EMC denominamos Confianza (del inglés Trusted IT).

Confianza significa simplemente que los sistemas funcionen de acuerdo con las expectativas en cuanto a disponibilidad, integridad y seguridad. La importancia de este concepto, aparentemente tan sencillo, se ve potenciada por la adopción de arquitecturas en nube y la generalización de la movilidad.

Hace tan sólo unos años las organizaciones permitían el acceso remoto de un limitado número de usuarios sólo a ciertas aplicaciones corporativas, como el correo. Esto hoy ha evolucionado hacia una plantilla que utiliza sus dispositivos móviles al servicio del negocio, a través de aplicaciones que pueden residir en la nube, con fuentes de datos internas y externas que son accedidas a través de internet y redes wireless desconocidas.

Esto implica que tenemos que construir un entorno de TI en el que podamos confiar, pese a que contenga elementos e infraestructuras que no controlamos ni gestionamos directamente; un entorno de TI fiable y dinámico en un mundo de infraestructuras virtuales y usuarios móviles.

Confianza en nuestra TI

Disponibilidad, Integridad, Seguridad, Gobierno…

La señalada ubiquidad de los usuarios y la variedad de las aplicaciones que utilizan incrementan la presión hacia la disponibilidad continua de los servicios más críticos, sin excepciones. No se trata, pues, de prevenir la caída de un servidor, sino incluso de evitar que el Datacenter sea un punto único de fallo. Esto se traduce en la necesidad de prestar servicio de forma transparente desde múltiples localizaciones activas, así como en la monitorización y total automatización de las respuestas ante fallos, evolucionando el concepto de Disaster Recovery hacia el de Disaster Avoidance.

La alta disponibilidad de sistemas e infraestructuras no elimina la necesidad de disponer de mecanismos que garanticen la integridad lógica de la información. Basta con pensar en el ataque de un virus para entender que la corrupción puede expandirse de uno a otro sistema, de uno a otro datacenter; así, el backup sigue siendo necesario, pero evoluciona desde una copia congelada en un momento fijo en el tiempo hacia el concepto de recuperación continua, que permite restaurar a cualquier punto. O sea poder recuperar al instante anterior, a un parche o al cierre de las oficinas de ayer o al final del batch de facturación.

Según los activos digitales sean más abstractos y se encuentren en fuentes diversas que pueden ser internas o externas e incluso públicas, aparecen en las organizaciones nuevos requerimientos de gobierno, cumplimiento normativo y control de riesgos que permitan identificar cuál es la información crítica, dónde reside y si se utiliza de acuerdo con las normativas o regulaciones que le afectan.

Confianza trata también sobre la prevención, detección e investigación de ataques sofisticados que pudieran producirse sobre nuestra organización, agilizando la respuesta y reduciendo las ventajas de los atacantes.

En definitiva, una infraestructura de TI transmite confianza cuando permite a las organizaciones obtener todas las ventajas de las tecnologías emergentes, mejorando el servicio y reduciendo los riesgos y los costes operacionales. Sabemos que los incidentes van a seguir produciéndose, pero trabajamos para que los usuarios no lo perciban y la organización no sufra sus consecuencias. Una apuesta por la innovación permanente.

El fin de las arquitecturas accidentales

En EMC tenemos identificado lo que llamamos Arquitecturas Accidentales de Backup. Estas arquitecturas se han ido generando con los años, y obedecen a la gran cantidad de actores que están envueltos a la hora de garantizar la seguridad de los datos en una instalación.

Tenemos personas a cargo de los servidores físicos, responsables de máquinas virtuales, gestores de almacenamiento, de aplicaciones, administradores de bases de datos, de laptops, responsables de oficinas remotas…y cada uno tiene su librillo, con el que se siente cómodo y que necesita realizar para garantizar la seguridad y consistencia de su entorno, manteniendo la visibilidad y el control. El resultado es una enorme complejidad y unos altos costes de infraestructura y gestión.

Así los equipos de almacenamiento realizan un snap vía comando, mientras el DBA lanza su propio Backup con las herramientas que la base de datos le proporciona y el administrador de máquinas virtuales guarda una plantilla. No siempre se sabe  lo que está protegido y lo que no, y tampoco si la protección y los costes son consistentes con la criticidad de la información a través de toda la organización.

En estos últimos años, Cloud Computing nos ha enseñado que las organizaciones se dirigen hacia el consumo de TI como un servicio. Pienso que el Backup es precisamente una de las funciones idóneas para convertir en un servicio y donde el retorno de la inversión es más evidente. Un servicio transversal para todos los integrantes del Datacenter, respetando las herramientas que les son conocidas pero integrándolos mediante políticas unificadas y que permita gestionar la infraestructura, la monitorización, las analíticas, etc.

Esa filosofía es la que EMC ha incorporado a sus productos de Backup, patente en el lanzamiento realizado esta semana (https://community.emc.com/docs/DOC-24965). Mejor dicho, a sus  soluciones de protección de la información, Data Protection Suite, puesto que junto con el Backup se integran servicios de Disaster Recovery y Archivado.

Arquitecturas de backup

Arquitecturas de Protección: Integradas, abiertas, modulares.

Así, se da un paso adelante en la integración de bases de datos y backup, permitiendo a los DBas realizar el backup en su propio entorno, en el formato propio de la BBDD y con las herramientas que les son conocidas pero totalmente integradas con las políticas de protección corporativas. De esta forma, por ejemplo, un administrador de SAP HANA hace su Backup a través de SAP HANA Studio, y esta copia es registrada por el software de backup como propia, permitiendo al administrador de backup extender su ciclo de vida. Un administrador de Oracle puede hacer lo mismo a través de RMAN. Por cierto, que como parte del lanzamiento EMC ha certificado la primera plataforma de Backup deduplicado para Oracle Exadata.

También se potencia la integración con VMware, de forma que se permite hacer backup de máquinas virtuales a nivel de imagen desde vSphere, desde donde también se puede llevar a cabo la recuperación de las mismas; con ello se incrementan las capacidades de autoservicio. Es también interesante la asignación de políticas de seguridad mínimas por defecto cada vez que se crea una nueva máquina virtual, lo que permite saber que todos nuestros sistemas virtuales se encuentran protegidos sin excepción.  Además, se permite hacer boot de una máquina virtual directamente desde el backup, sin restauración previa. Menos de dos minutos para arrancar una máquina desde su backup, que puede luego moverse con vMotion a su ubicación definitiva.

Y cómo no, también integración más profunda con el almacenamiento, de forma que la plataforma de protección permite realizar copias de seguridad en los almacenamientos (snaps), incorporándolas también en la política de seguridad general y facilitando una recuperación muy veloz en caso de necesidad.

Para no hacer la entrada muy extensa, sólo señalar que éstas son quizá las aplicaciones más extendidas, pero se ha continuado el esfuerzo de integración de otras muchas aplicaciones de archivado y seguridad de datos, tales como Symantec, Commvault, Atempo, Opentext, etc. lo que permite a nuestros clientes desplegar una infraestructura modular y abierta.

En definitiva, la protección de la información entendida como un catálogo de servicios del datacenter, con visibilidad corporativa, incorporando backup, archivado y disaster recovery; integración entre los sistemas físicos y virtuales, las aplicaciones y el almacenamiento; escalabilidad más sostenible, reduciendo los costes y la complejidad. Una arquitectura de protección completa, frente a las arquitecturas accidentales basadas en silos.

La Fórmula 1 se transforma, los sistemas de Lotus también

Lotus y EMC han anunciado su colaboración para la renovación de la infraestructura de información del equipo de Fórmula 1. Había pensado inicialmente en titular esta entrada algo así como ‘Lotus acelera en su camino hacia la nube’, uniendo los conceptos de velocidad asociados a Lotus con la nube tan ligada a EMC.  

Pero me ha interesado aún más el concepto de transformación, muy representativo de la colaboración entre ambas compañías.

El caso es que la Fórmula 1 va a sufrir un cambio de reglamento en el año 2014, lo que va a suponer modificaciones profundas en el diseño de los monoplazas (Vídeo). Cambiarán los motores V8 de 2.4 litros, que serán sustituidos por motores 1.6 v6 turbo, se introducen cambios aerodinámicos,  nuevos sistemas de recuperación de energía, restricciones adicionales de carburante, y se extiende la durabilidad mínima de los motores.

Dice Eric Boullier, Director del Equipo Lotus (Vídeo), que este cambio radical en el diseño de los coches supone una gran oportunidad para hacer las cosas de forma más inteligente que sus competidores y sacarles ventaja. De hecho, y no puede ser de otro modo, el objetivo de Lotus es convertirse en campeones del mundo del ‘Gran Circo’ en 2015.

Lotus Formula 1 y EMC

Desde el punto de vista de Tecnologías de la Información, esta colaboración se traduce en un importante despliegue que incluye diversas tecnologías de EMC.

Lotus alojará tanto sus sistemas de diseño CAD como sus sistemas ERP en arquitecturas convergentes vBlock, que serán instalados en sus  datacenters y en unidades móviles de soporte. Es curiosa esta idea del vBlock, conteniendo toda la capacidad de proceso, conectividad, o almacenamiento necesario para proporcionar servicios de escritorio virtual y aplicaciones móviles desde un camión; la infraestructura de soporte a la nube escondida en un paddok.  

También se desplegarán infraestructuras de almacenamiento en nube ATMOS, donde llegará la información archivada por Cloud Tiering App buscando optimizar el almacenamiento; Data Domain se implantará para realizar backup deduplicado y Syncplicity será utilizado para la sincronización de información en dispositivos móviles y su compartición entre miembros del equipo, securizada y organizada a través de Documentum.   

Toda una transformación de TI. Aprovechar que las condiciones de nuestro negocio y su entorno cambian como una oportunidad para mejorar lo que venimos haciendo y obtener nuevas ventajas competitivas.  Patrick Louis, CEO de Lotus, se refiere a ello como disponer de la gente y la tecnología correctas. Estoy orgulloso de que incluya a EMC en ambos conceptos.

Videos Recomendados

Expand The Data Lake: New Data Lake, New Breakthroughs

Archivo del Blog

  • 2016 3
  • 2015 20
  • 2014 7
  • 2013 16
  • 2012 21
facebook
twitter
linkedin
youtube
rss