Archive for 2013

El prometedor futuro de ScaleIO

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Escribo esta vez desde Boston, donde lentamente el invierno hace acto de presencia y deja su característico manto nevado en nuestros headquarters en Hopkinton, donde he tenido varias reuniones con nuestros colegas americanos de esas que podrían denominarse “de estrategia”.

Y es que vengo de recoger de mi cliente una incipiente tendencia a la “comoditización” (palabra horrible por cierto, pero que seguro todos sabemos interpretar) de todos aquellos activos que no sean esenciales en el soporte de su entorno crítico de negocio. Hasta aquí nada nuevo, pero lo cierto es que la forma en la que mi cliente, y de alguna manera el propio mercado, pretende abordar esta faceta sí que plantea una serie de importantes beneficios, siempre que se ejecute de forma correcta.

No se nos escapa que cada vez hay más alternativa disponibles en el mercado de “bloques de proceso”, que no son más que elementos hardware que unifican, generalmente en un formato potencialmente barato, capacidad de proceso (CPU y memoria) además de almacenamiento interno (el DAS de toda la vida) en un formato tipo “mini-cuchilla” pensado para altas densidades en muy poco espacio. La clave estriba en que ahora este almacenamiento interno, en lugar de utilizarse para el típico arranque del sistema operativo y poco más, por sus características (discos Flash en muchos casos o incluso tarjetas de memoria) y tamaño, de repente se convierte en un potencial contenedor de información que, bien explotado, puede suponer un inmenso valor añadido en control de costes. 

Ahora bien, este potencial ahorro de costes solo será rentable si no queda convertido en un incremento de costes de gestión de estas nuevas plataformas, y ahí es donde entra en escena ScaleIO, un producto de reciente introducción por parte de EMC, pero que sospecho va a desarrollar un papel importantísimo durante los próximos meses, por su estratégica concepción y tremendo potencial para aumentar sus capacidades, ya de por sí llamativas, y por ende sus ámbitos de posible aplicación.

Permítanme que les cuente brevemente qué es ScaleIO, y seguro que comprenden el porqué de mis anteriores aseveraciones. ScaleIO es un producto 100% software, que tiene como misión principal aglutinar todo el espacio de almacenamiento que encuentre en los servidores (tarjetas Flash o discos de cualquier naturaleza), bajo una capa común de gestión. De esta forma, lo que antes eran discos aislados locales a cada servidor, pasan a convertirse en un pool de almacenamiento puesto a disposición de todo aquel servidor que lo necesite. Dicho de otra manera, puro Software Defined Storage (SDS) alineado con la estrategia de Software Defined Data Center (SDDC), tan de moda hoy en día.

La cosa no queda solo aquí, sino que además, el rendimiento que se le puede sacar al invento es totalmente adaptable a las necesidades que tenga el cliente. Desde el número de servidores que pueden llegar a participar, hasta que toda la comunicación del grid de almacenamiento que se construye es IP, soportando desde Gigabit hasta Infiniband. Esto, añadido a las características propias de gestión del producto (pooling, tiering, protección de la información, thin-provisioning, terceras copias, multi-tenancy, quality of service, cifrado, etc…) hacen que ScaleIO no sea el “juguete” que a muy primera vista puede parecer, sino más bien todo lo contrario, un producto con un enorme potencial de aplicación que aún está por descubrir.

No es mi intención describir en este artículo el detalle de ScaleIO, sino solamente despertar la atención del lector sobre algo que realmente creo va a ser “disruptivo”, como a los anglosajones les gusta decir, en el mundo del almacenamiento en los próximos meses. Les invito a profundizar en este producto que, junto con los demás disponibles, siguen haciendo de EMC la compañía de referencia del sector.

Llega el “Viernes Negro”¿Está lista su web para las compras de Navidad?… Los criminales sí lo están

El próximo Viernes es el Viernes Negro (más conocido como Black Friday). El día siguiente al día de Acción de Gracias, señala el principio de la temporada de compras de las fiestas de fin de año/Navidad en los países donde se celebra Acción de Gracias y cada vez en más países a nivel global; suele asociarse a ofertas especiales y descuentos. Si el Black Friday es una fecha clave para el comercio tradicional, en los últimos años el Cyber Monday (el primer Lunes después de Acción de Gracias – el próximo lunes), es la referencia para el comercio online, ya que se ha convertido en el día de mayor movimiento de comercio electrónico del año. En el año 2012, los compradores norteamericanos gastaron 1.470 millones de dólares en ese día, convirtiéndolo en el día de mayor gasto online de todos los tiempos [1], con un crecimiento del 17% respecto al 2011, a pesar de la difícil situación económica [2]. Según eMarketer, las ventas online previstas en los US para esta campaña de fin de año (definida como Noviembre y Diciembre) se espera que lleguen a 61.800 Millones de Dólares, un 15% más que el año pasado [3].

Desafortunadamente, las mismas cualidades que hacen que el comercio online sea atractivo para los usuarios lo convierte en un blanco apetecible para los cíber-criminales. Un reciente estudio realizado por el Instituto Ponemon para RSA sobre el impacto del Cíber Crimen en eCommerce, confirma el crecimiento previsto del sector del eCommerce, pero también señala una correlación entre los días de tráfico elevado y la probabilidad de sufrir una intrusión – los criminales aprovechan la época más frenética de actividad para “disfrazar” sus actividades maliciosas.

Hasta 500.000 dólares en pérdidas directas por hora

El estudio de Ponemon (resumido en forma de ebook aquí) profundiza en las amenazas a las que se enfrentan los comercios online. Los resultados son un tanto sorprendentes; según el estudio, la mayor amenaza a la que se enfrentan los comercios online son los Ataques de Denegación de Servicio (DDoS), seguido de fraude asociado a la app store, y malware que capture las credenciales de usuario.

A no ser que se use como una táctica de distracción, los ataques de Denegación de Servicio no proporciona beneficios directos a un atacante, al contrario de lo que pasa con el fraude en app stores y la captura de credenciales. Sin embargo, pueden llegar a costarle muy caros al comerciante. El informe de Ponemon destaca que una hora de caída de la web puede costarle a un comercio online hasta 500.000 dólares en tráfico e ingresos perdidos. A estos costes directos hay que añadir el daño a la imagen de la marca, que puede exceder 3,4 millones de dólares.

El informe detalla otros seis tipos de ataque adicionales contra los que los comerciantes deben tomar precauciones incluyendo fraude en los clicks/promociones y abuso de la lógica del negocio (especialmente en el proceso de checkout). Muchos de estos ataques se basan en imitar el comportamiento de los usuarios legítimos y son difíciles de detectar usando soluciones de seguridad tradicionales. RSA Silver Tail es una solución de detección de amenazas en el canal online; gracias a sus analíticas basadas en el comportamiento, las anomalías se hacen evidentes y la mitigación de estas amenazas se simplifica.

Muchos clientes presuponen que van a necesitar múltiples herramientas – una para análisis de las cuentas, otra para examinar los logs así como una gestión de casos, y los equipos respectivos para detectar e investigar estas amenazas. Sin embargo, RSA Silver Tail puede usarse para idenficar y mitigar las amenazas a la vez que reduce la necesidad de revisión manual, ahorrando recursos a la compañía.

Dadas las amenazas web actuales, RSA Silver Tail debería estar en los primeros puestos de la “lista de deseos” estas navidades.

¡Felices fiestas … y compras seguras!

PS:Para aquellos interesados en saber más sobre RSA Silver Tail, tenemos unos vídeos (en inglés) que muestran cómo puede usarse para Prevenir Ataques Distribuídos de Denegación de Servicio, Prevenir Abuso de la Lógica de Negocio y Pervenir el Robo de Cuentas con Silver Tail 4.0, así como un White Paper sobre cómo detectar ataques online sofisticados usando analíticas de sesión, y la diferencia con las aproximaciones tradicionales.

PPS: El estudio completo realizado por Ponemon está disponible de forma gratuita en el siguiente enlace: 2013 eCommerce Cyber Crime Report: Safeguarding Brand and Revenue This Holiday Season

XtremIO. Cuando Flash no es sólo rápido

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

La semana pasada EMC anunció la disponibilidad general de su plataforma (Ver nota de prensa) XtremIO, un array de almacenamiento basado exclusivamente en tecnología Flash y con funcionalidades de datos avanzadas.

Asociamos Flash con hardware de almacenamiento caro. Yo no lo comparto. Ya he expresado en este mismo Blog que, en mi opinión, la tecnología Flash es fundamentalmente software. Hoy quiero insistir en esta idea, así como en el hecho de que Flash no es caro sino eficiente  ¿Es adecuado un array totalmente Flash en tiempos de contención de costes? Depende del tipo de proyecto y de la inteligencia que se incorpore.

Rendimiento y Coste por Transacción
A la hora de buscar eficiencias hay muchas formas de echar las cuentas, y las más adecuadas son aquellas que responden a necesidades del negocio. Así, un disco Flash es caro en términos de coste/capacidad, o sea, euros/GB. Pero es barato en términos de coste por transacción.

De lo anterior se deduce que es imposible a día de hoy justificar por ejemplo, el archivado masivo de todo tipo de ficheros inactivos sobre disco de tecnología Flash; no tiene sentido pagar más por almacenar una información que básicamente no será accedida o lo hará de forma muy selectiva. Sin embargo, el panorama puede ser muy distinto en otros entornos.

Pensemos en la problemática de algunas bases de datos de misión crítica, que soportan un gran número de transacciones y procesos batch. Para alcanzar requerimientos extremos de rendimiento, tradicionalmente se ha sobredimensionado la infraestructura de almacenamiento añadiendo un gran número de discos físicos, no para incrementar la capacidad sino el número de transacciones por segundo.

Esto convierte el soporte a estas bases de datos en algo muy caro desde el punto de vista de la compra de infraestructura física, del espacio que ocupa, de la energía que consume, del calor que disipa y de la gestión que requiere.

Cuando estamos ante una situación de este tipo, la tecnología XtremIO se convierte en un catalizador de eficiencia económica. De hecho no son infrecuentes casos (pinchar para ver ejemplo) en los que se alcanzan ahorros por encima del 80% en consumo energético y espacio físico en el Datacenter, a la vez que obtienen mejoras radicales en los tiempos de proceso y se favorece, incluso, desarrollar nuevos procesos analíticos que antes no tenían sentido.  Ahorro de costes, mejora en el nivel de servicio, respuestas a nuevos requerimientos del negocio. Un sueño.

xtremIO

Deduplicación y Coste por Puesto de Trabajo (o Coste por Landscape…)
El rendimiento radical de XtremIO, permite habilitar nuevas funcionalidades, siendo una de las más llamativas la deduplicación inline. Esta función no es una opción, sino una característica intrínseca del sistema que siempre se encuentra activa, que detecta cualquier bloque duplicado en vuelo y no llega a almacenarlo nunca; esta característica reduce el coste del almacenamiento, incrementa el rendimiento, la duración y disponibilidad de los discos Flash.

Pensemos en un proyecto de virtualización del puesto de trabajo, un proyecto VDI, digamos que para 1000 usuarios. No hay nada más parecido a un puesto de trabajo que otro puesto de trabajo. Esto significa que en el almacenamiento tradicional vamos a tener una cantidad muy importante de datos redundantes, resultado de clonar centenares de veces el mismo desktop con el mismo sistema operativo y las mismas aplicaciones.

El resultado de aplicar tecnología XtremIO a ese proyecto reducirá sensiblemente las necesidades de capacidad de almacenamiento (deduplicación de bloque), sin necesidad de pesados procesos de limpieza posteriores (inline),  con un rendimiento que permite abordar el acceso simultáneo de miles de usuarios (flash) y fácilmente escalable (scale-out). De nuevo, mejoras en el nivel de servicio, una respuesta más rápida y flexible a futuros crecimientos del negocio, conjugados con ahorro de costes que podemos medir en términos de coste/puesto de trabajo.

Esta misma filosofía puede ser exportada a otros entornos, por ejemplo, aplicaciones de gestión empresarial.  Lo más parecido a mi entorno SAP de producción son mis entornos SAP de preproducción, formación, test, etc. XtremIO permite obtener una copia instantánea del entorno (landscape), copia en la que se reduce la información redundante y se garantiza el elevado  rendimiento que una aplicación de este tipo requiere.

Otras eficiencias
Existen otras eficiencias que pueden ser potenciadas mediante XtremIO,  tales como  una mejor utilización de los procesadores, y por lo tanto en una menor demanda de crecimiento en CPUs con el consiguiente impacto que esto pueda tener sobre los costes de licencias de software.

O la capacidad de XtremIO de proporcionar el máximo rendimiento empleando simultáneamente todas las controladoras y todos los discos flash disponibles para cada operación de entrada/salida, que explica que el sistema se encuentre balanceado de forma inherente, y que no requiera pesadas operaciones de tuning y gestión asociadas.

XtremIO cambia las reglas de ese juego donde Flash es tan rápido como caro. Los costes, todo tipo de costes, han estado muy presentes durante la puesta de largo del producto para ser aplicados al proyecto correcto.

 

Presentando la Nueva Comunidad EMC de Soporte en Español

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

‘Guest blog’ escrito por Roberto Araujo. Roberto Araujo, publicista especializado en tecnología con 5 años de experiencia, las redes sociales son su especialidad, siendo muy activo en Twitter, LinkedIn y Facebook. Dispone de su propio blog, donde escribe sobre temas relacionados con redes sociales y las relaciones públicas en los EEUU. Hace casi un año se unió a EMC para dirigir el lanzamiento de la comunidad de soporte en español, la cual ha resultado todo un éxito. Roberto vive en San Jose, California hace más de 18 años, nació y creció en Lima, Perú. En su tiempo libre le gusta practicar artes marciales como jiu-jitsu y kickboxing al igual que viajar y probar todo tipo de comidas. Espero que se anime a colaborar con nostros de forma habitual en este blog…    

Presentando la Nueva Comunidad EMC de Soporte en Español
Roberto AraujoDe forma continua en EMC nos esforzamos en servir a nuestros clientes en cualquier parte del mundo y en su idioma de preferencia. Sabemos que tenemos muchos clientes, partners y empleados que hablan inglés como segundo idioma, pero también sabemos que hay veces que se hace difícil encontrar material de soporte en su idioma y disponible en cualquiera de los medios que EMC ofrece.

Nuestros productos son populares y disponibles globalmente, incluyendo aquellos países donde se utiliza el español como idioma único de negocios. Hasta hace poco, muchos clientes y socios en esas regiones que necesitaban soporte lo hacían en inglés por medio del EMC Community Network (ECN), y si esto no resultaba optaban por el servicio al cliente, por teléfono o el chat. ¡Pero esto ya no será necesario!

Hoy, me complace anunciar que la Comunidad EMC de Soporte en Español ya está disponible para todos. 

Hace unas semanas la comunidad de soporte en español fue exitosamente lanzada como un proyecto piloto. Gracias a aquellos que participaron y nos ofrecieron sus críticas pudimos confirmar que lo que estamos ofreciendo es los que nuestros usuarios demandan. Es más, durante este proceso 100% de nuestros encuestados calificaron a la comunidad de soporte en español como excelente, muy buena o buena, lo cual nos confirmó que estábamos listos para lanzarla al público en general.  

La comunidad de soporte en español es una parte importante de la estrategia de agilidad en el servicio de EMC, permite conectarse y compartir contenido técnico con otros clientes, partners y expertos técnicos de EMC en su idioma de preferencia.

Como miembro activo de la comunidad de soporte en español, usted puede:

  • Formular y responder preguntas en foros de soporte orientados a productos
  • Encontrar rápidamente soluciones y consejos detallados para problemas comunes
  • Establecer conexiones a medida para compartir ideas, experiencias y comentarios
  • Lograr reconocimiento y obtener incentivos de acuerdo con su participación y su experiencia
  • Acceso a material de soporte las 24 horas del día, 7 días de la semana
Vídeo sobre la Comunidad de sopoerte en español de EMC

Vídeo sobre la Comunidad de sopoerte en español de EMC

Para visualizar el vídeo pinchar aquí

Un soporte útil
Podemos preguntarnos si por el hecho de ser una comunidad nueva, cuyo contenido de soporte es en su mayoría generado por los usuarios… ¿habrá suficiente material de ayuda? La respuesta es simple, la comunidad está llena de material de soporte útil y lista para proveer soluciones a problemas comunes con productos como VNX, Avamar, Networker, CLARiiON, Symmetrix, Celerra, Centera, Documentum, y otros más.

Si por alguna razón, en nuestro archivo de material de soporte no logra encontrar la respuesta a su pregunta, le pedimos que la publique. Nuestro compromiso es que obtendrá respuesta en menos de 24 horas.

Finalmente le voy a revelar un pequeño aliciente. Durante las últimas semanas, y hasta final de año, tendremos un concurso dentro de nuestra comunidad, para partners y clientes, que no se puede perder. Es muy fácil ganar, en especial ahora que nuestra comunidad se está iniciando. Para más detalles, pinche aquí: https://community.emc.com/thread/182544. Y…¡Suerte!

Para tener acceso directo a la comunidad de soporte en español siga este vínculo: https://community.emc.com/go/spanish (¡Añádalo a sus favoritos!)

Si aun no tiene una cuenta en ECN, inscríbase y elija una de estas dos opciones: Acceder con su cuenta de Powerlink o registrarse manualmente. Es fácil y rápido: https://developer-content.emc.com/login/register.asp 

Por Roberto Araujo
Manager de la comunidad de soporte en español
Twitter: https://twitter.com/rcaroman
LinkedIn: http://linkedin.com/in/araujoroberto/
Personal blog: http://robertoaraujo.net/

 

3 Formas de aplicar un EDMS en Entornos de Ingeniería y Construcción

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

‘Guest blog’ escrito por José María Sotomayor. Jose María es Senior Systems Engineer para el Information Intelligence Group (IIG) de EMC en España, y en EMEA participa como Stream Leader para la práctica EPC a nivel de preventa, dentro del vertical de Energía e Industria (josemaria.sotomayor@emc.com). Espero que se anime a participar de forma habitual en este blog…    

3 Formas de aplicar un EDMS en Entornos de Ingeniería y ConstrucciónJose Maria Sotomayor EMC

Siempre que me preguntan por cuál es la forma más rápida de mejorar la gestión de la documentación en una compañía de Ingeniería y Construcción, en una EPC como muchas veces se las denomina, siempre pienso en el mismo caso: si la gestión de los documentos está desacoplada de los documentos como tal, porque se use una base de datos, una aplicación propia, listas Excel, etc., ciertamente hay una oportunidad de mejora.

Este factor de separación entre documentos y datos es importante. Una base de datos puede decirnos que existe un documento llamado “0089-PIPING-DIAGRAM-06700001-REV-D” pero ahora nos corresponde a nosotros contestar una serie de preguntas:

  • ¿Dónde está?
  • ¿Quién está trabajando sobre él?
  • ¿Dónde está la copia más reciente? ¿En la unidad de red? ¿En el disco de alguien?

¿Cuánto tiempo hemos invertido (o malgastado) en contestar estás preguntas? Lo peor de todo es que en muchos casos no podemos estar seguros. Los errores y la pérdida de documentos provienen muchas veces de prácticas como esta. Algunas veces me han comentado tiempos increíbles para dar con un documento. No digamos si además estamos hablando de UTEs o proyectos con colaboraciones similares, lo cual es el pan nuestro de cada día. Vamos a echar un vistazo a tres conceptos de gestión documental que aplican muy bien en este tipo de compañías si nos encontramos con este escenario:

  • Repositorio y metadatos.
  • Relaciones
  • Enlaces

 Repositorio y Metadatos

Un repositorio documental se encarga fundamentalmente de mantener los documentos y los datos que los describen (metadatos) juntos, tratándolos como una única unidad. Esto facilita enormemente la clasificación y búsqueda de la documentación. Nosotros definimos los metadatos para clasificar nuestros documentos y poderlos encontrar después, de forma parecida a los campos la base de datos que usábamos antes. Así, cuando buscamos en el repositorio un documento etiquetado como:

PROYECTO: 0089, NOMBRE: PIPING-DIAGRAM-06700001, REVISION: D

Encontraremos entonces el documento que estábamos buscando y toda la información relativa al mismo. Si un delineante está trabajando en él, sabremos quién. Si hacemos clic sobre el documento, podremos ver la última versión disponible. Sin sorpresas, sin lugar a error, e inmediato. En el fondo es la diferencia entre disponer de gestión documental o ser nosotros parte de ese sistema de gestión documental. Los metadatos son la base para disponer de forma unificada de herramientas tan útiles como guardar los comentarios junto con los documentos y poder buscar por ellos, enlazar el avance de los documentos a herramientas como Primavera o registrar información de distribución del documento (transmittals).

Relaciones

La capacidad de crear relaciones en un EDMS (Electronic Document Management System) es crítica en organizaciones de Ingeniería. Este mecanismo asegura que aquellos documentos que deben vivir juntos lo hagan realmente. Una Petición de Cambio es un perfecto ejemplo. Es un documento que modifica o actualiza el contenido de otro, de forma que el original no es modificado. Crear una relación del tipo “El Documento B es una Petición de Cambio del Documento A” nos permite saber en cualquier momento que el Documento A tiene Peticiones de Cambio, así como tener acceso inmediato a las mismas. Las relaciones a veces se usan también para modelar un sistema de “Revisiones”, ya que este concepto del mundo de la ingeniería es bastante distinto del tradicional sistema de “Versiones” que encontramos en un EDMS por defecto. Por ejemplo “Documento A en Revisión C es una revisión del Documento A en Revisión B” es otro de los tipos de relaciones que se pueden modelar.

Enlaces

Los enlaces nos permiten básicamente hacer que los documentos aparezcan en otras carpetas además de donde residen originalmente (son enlazados a otras carpetas).Este procedimiento es muy distinto a crear una copia. A diferencia de un enlace, la copia hace que si se modifica el documento original estos cambios no se vean reflejados en las demás carpetas, mientras que el enlace sí que lo permite (solo tenemos un único documento, en el fondo). Este mecanismo de enlace se utiliza mucho por ejemplo con las Especificaciones y Normativas de Clientes. Se enlazan a las distintas carpetas del proyecto donde es necesario que aparezcan, o entre múltiples proyectos de un mismo cliente. También se usan muy comúnmente con las Requisiciones de Material, ya que estas suelen incorporar documentos ya presenten originalmente dentro de la estructura del proyecto. Y un uso avanzado realmente útil es el de enlazar los documentos a estructuras alternativas de desglose tipo HBS, WBS, etc., para poder así navegar los documentos del proyecto de distintas formas, en función de la disciplina o rol de cada persona del proyecto.

Hemos querido empezar esta serie de entradas sobre Gestión Documental e Ingeniería por conceptos muy sencillos, pero que encierran un gran potencial. Hay muchos más que iremos cubriendo más adelante. Aunque existen soluciones directamente adaptadas al mundo de la Ingeniería como EMC Documentum EPFM (Engineering, Plants and Facilities Management) que utilizan estos conceptos como base para aportar una solución end to end completa para estas organizaciones, conocerlos puede ayudar en gran medida a enfocar nuestro proyecto, metas y medios para conseguirlos.

Por Jose María Sotomayor

 

Una historia sobre Big Data

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

En uno de mis últimos viajes a las Américas, tuve la ocasión de compartir una reunión de trabajo con un grupo de compañeros expertos en esto que últimamente está tanto de moda y que se denomina Big Data, algo sobre lo que todos los fabricantes del sector nos jactamos de tener la solución idónea para las problemáticas de nuestros clientes. 

Confieso que me vi sorprendido por la pasión y poder de comunicación de este equipo, pero sobre todo por su capacidad de generar “demandas terrenales” para la entelequia del Big Data.

Como ejemplo de modelo de proyecto al uso, nos ilustraron con la siguiente historia:

Imaginemos que tenemos una entidad bancaria que un día concreto del año sufre un ataque a su red de cajeros. Nada muy extraño por desgracia hasta aquí. Pero el ataque del que estamos hablando no es un ataque cualquiera, es algo mucho más sofisticado. Imaginemos por un momento que esta entidad sufre, en un intervalo de tiempo de media hora, un ataque coordinado en decenas de cajeros a lo largo de varios estados del país, que consiste en abrir el cajero, y mediante un procedimiento informático local, dar una orden de vaciado completo del dispensador de dinero.

Para perpetrar este hecho, es necesario para la red de delincuentes contar con la connivencia de empleados del propio banco y empleados del fabricante de los cajeros, conocedores ambos tanto de la tecnología a asaltar como de los mecanismos de seguridad puestos en marcha.

El hecho es que, de manera muy discreta, y disfrazado prácticamente como una intervención de servicio, el Banco en cuestión pasa a tener una merma de 50 millones de Reales en apenas unos minutos.

Una vez que el Banco se pone a investigar el hecho y ver cómo se podía haber evitado, descubren que realmente cuentan con una fuente de información excepcional, los logs de los cajeros, emitidos en tiempo real por los mismos y almacenados en la central.

Pero, ¿y ahora qué? De nada sirve poner a varias personas a leerse dichos logs en busca de algo que alerte sobre la posible causa del ataque, porque el ataque ya se ha producido, es demasiado tarde. Por lo tanto, y decididos a invertir para que esta fechoría no vuelva a suceder, el Banco decide contactar con nuestro equipo de expertos en la materia, los cuales, y de forma muy resumida, proporcionan lo siguiente:

1. Una plataforma potente para el procesado en tiempo real de dichos logs, basada en Greenplum y Hadoop.
2. Un algoritmo a medida de detección de intrusión o ataque en los cajeros, que proporciona un 95% de acierto en sus conclusiones.
3. Los servicios de implantación pertinentes para todo el proyecto.

Fíjense en la importancia del segundo punto, es la clave. Es fundamental contar con la presencia de un equipo de data scientists, es decir, personas capaces de desarrollar algoritmos de explotación de los datos adecuados a la necesidad concreta que atañe al proyecto en sí. En este caso, y en un plazo de una semana, el data scientist fue capaz de desarrollar un algoritmo matemático de predicción basado en la información de estado que proporcionan los cajeros automáticos de la entidad asaltada.

De esta manera, el Banco cuenta con una plataforma de análisis en tiempo real capaz de detectar de forma casi infalible un ataque perpetrado en la red de cajeros en el momento en el que se produce.

Y hasta aquí podría parecer otra bonita historia de ciencia ficción sobre Big Data y las posibles aplicaciones de uso que los fabricantes nos empeñamos en desarrollar para nuestros clientes. La diferencia estriba en que, esta vez, la historia es muy real, y sirve además para ilustrar cómo un fabricante como EMC es capaz de proporcionar un proyecto end-to-end de última tecnología que aporta un valor añadido inmenso para un cliente.

Renovación generacional y eficiencia de proceso

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Ayer asistimos al lanzamiento mundial de una importante serie de novedades en las soluciones de EMC: La nueva generación de almacenamiento unificado VNX, así como su incorporación en las arquitecturas de referencia VSPEX, la disponibilidad general de ViPR, nuestra solución de Almacenamiento Definido por Software y un primer vistazo al proyecto ‘Nile’, cuyo objetivo es trasladar los conceptos de facilidad de uso y consumo elástico de recursos de la nube pública al datacenter. Sobre todos estos temas nos gustará hablar en este foro en fechas próximas, pero hoy quiero repasar esta renovación generacional del almacenamiento de gama media y más concretamente, las mejoras derivadas de un uso más eficiente de la capacidad de proceso.

Es un buen momento para recordar que EMC ha ido evolucionando todas sus plataformas hardware hacia la estandarización mediante la adopción completa de tecnología Intel x86. Sin ASICs, ni otros elementos extraños. Esta estrategia no sólo significa incorporar sus CPUs a toda nuestra gama de soluciones, sino colaborar con su departamento de ingeniería para alinear el desarrollo de nuestros productos con los suyos, lo que finalmente se traduce en una mejora permanente del rendimiento de nuestros sistemas.

Desde este punto de vista, la nueva gama VNX es mucho más que un refresco tecnológico; constituye una evolución de la arquitectura, que rediseña los procesos de entrada salida para garantizar un incremento del rendimiento a gran escala y de forma automatizada, sin optimizaciones manuales.

Estas mejoras están imbricadas en la nueva generación de plataformas VNX, y se apoyan tanto en avances tecnológicos como en cambios de código que han dado lugar al nuevo entorno operativo MCx, enfocado en exprimir todas las ventajas de las CPU multicore. Es importante resaltar que la optimización se realiza vía software y que permite un factor de escalado del backend superior al 97%, prácticamente lineal, lo que constituye toda una medida de eficiencia; o sea, que la adición de un mayor número de cores en el futuro se asumirá de forma eficiente y se traducirá en el correspondiente incremento del rendimiento.

La optimización multicore es clave para el futuro de las plataformas de EMC, tanto para mantener una óptima relación precio/rendimiento como para desarrollar futuros e innovadores productos.

Entorno Operativo MCx

Eficiencia Multicore

Algunas de las mejoras que este software incorpora son:

Multi Core Cache. Las mejoras se han dirigido a optimizar los mecanismos automáticos de ajuste dinámico de cargas, eliminando las limitaciones artificiales e ineficiencias que provoca la división entre cache de lectura y escritura así como las tareas de parametrización manual asociadas. El resultado es una mejora patente del rendimiento y una mayor facilidad de uso.

Multicore RAID. El tamaño cada vez mayor de los sistemas de almacenamiento continuará promoviendo la protección RAID 6; en los nuevos sistemas VNX, la funcionalidad multicore RAID garantiza que si un segundo disco falla se recupera de forma paralela y simultánea con el primero. Además, se elimina la necesidad de definir de forma manual los discos de spare, de forma que cualquier disco no utilizado es candidato a ser utilizado para este fin. En definitiva, recuperaciones más rápidas, disponibilidad mejorada y gestión más sencilla.

Multicore Fast Cache. El uso de esta cache extendida se ha mejorado mediante la optimización de los algoritmos de memoria, promoviendo los datos de forma más temprana, reduciendo las latencias y liberando proactivamente recursos durante los períodos de actividad pico.

Symmetric Active/Active. Esta funcionalidad permite el acceso simultáneo de cualquier controladora a cualquier LUN sin necesidad de configurarlo manualmente, y mejora el rendimiento balanceando las cargas entre los procesadores de servicio en modo activo/activo; el resultado se traduce en un uso más eficiente de los recursos, mejoras de la disponibilidad en caso de incidentes en el canal, failover más limpios y rápidos, y eliminación de las tareas manuales de asignación LUN/Procesador.

Mejoras en el uso de tecnologías Flash, incluyendo la integración entre VNX y las tarjetas de cache de servidores XtremSF, lo que define un nuevo estrato de almacenamiento de rendimiento extremo.

Aunque esta entrada se ha focalizado fundamentalmente en la optimización del uso de las CPUs, éstas no son, por supuesto, las únicas mejoras de la nueva gama VNX. A éstas habría que añadir otras nuevas funcionalidades como deduplicación de bloque (la deduplicación de archivo ya estaba disponible en la generación anterior), mejoras en la integración con Microsoft Hyper-V, en la protección de aplicaciones o incrementos en la capacidad de los sistemas, etc. La información completa está disponible en nuestra página web (http://spain.emc.com/index.htm).

Confianza en nuestras TI

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Las Tecnologías de la Información están en permanente evolución para alinearse con el negocio y responder mejor a sus tres grandes requerimientos genéricos: Reducir los costes, incrementar los beneficios y reducir el riesgo.

Como muestra de esta adaptación, últimamente asociamos de forma inmediata contención de costes con el desarrollo de Cloud Computing, así como el requerimiento de Incrementar el beneficio conduce a Big Data y su promesa de transformación del negocio. La reducción de riesgos la asociamos con un concepto que en EMC denominamos Confianza (del inglés Trusted IT).

Confianza significa simplemente que los sistemas funcionen de acuerdo con las expectativas en cuanto a disponibilidad, integridad y seguridad. La importancia de este concepto, aparentemente tan sencillo, se ve potenciada por la adopción de arquitecturas en nube y la generalización de la movilidad.

Hace tan sólo unos años las organizaciones permitían el acceso remoto de un limitado número de usuarios sólo a ciertas aplicaciones corporativas, como el correo. Esto hoy ha evolucionado hacia una plantilla que utiliza sus dispositivos móviles al servicio del negocio, a través de aplicaciones que pueden residir en la nube, con fuentes de datos internas y externas que son accedidas a través de internet y redes wireless desconocidas.

Esto implica que tenemos que construir un entorno de TI en el que podamos confiar, pese a que contenga elementos e infraestructuras que no controlamos ni gestionamos directamente; un entorno de TI fiable y dinámico en un mundo de infraestructuras virtuales y usuarios móviles.

Confianza en nuestra TI

Disponibilidad, Integridad, Seguridad, Gobierno…

La señalada ubiquidad de los usuarios y la variedad de las aplicaciones que utilizan incrementan la presión hacia la disponibilidad continua de los servicios más críticos, sin excepciones. No se trata, pues, de prevenir la caída de un servidor, sino incluso de evitar que el Datacenter sea un punto único de fallo. Esto se traduce en la necesidad de prestar servicio de forma transparente desde múltiples localizaciones activas, así como en la monitorización y total automatización de las respuestas ante fallos, evolucionando el concepto de Disaster Recovery hacia el de Disaster Avoidance.

La alta disponibilidad de sistemas e infraestructuras no elimina la necesidad de disponer de mecanismos que garanticen la integridad lógica de la información. Basta con pensar en el ataque de un virus para entender que la corrupción puede expandirse de uno a otro sistema, de uno a otro datacenter; así, el backup sigue siendo necesario, pero evoluciona desde una copia congelada en un momento fijo en el tiempo hacia el concepto de recuperación continua, que permite restaurar a cualquier punto. O sea poder recuperar al instante anterior, a un parche o al cierre de las oficinas de ayer o al final del batch de facturación.

Según los activos digitales sean más abstractos y se encuentren en fuentes diversas que pueden ser internas o externas e incluso públicas, aparecen en las organizaciones nuevos requerimientos de gobierno, cumplimiento normativo y control de riesgos que permitan identificar cuál es la información crítica, dónde reside y si se utiliza de acuerdo con las normativas o regulaciones que le afectan.

Confianza trata también sobre la prevención, detección e investigación de ataques sofisticados que pudieran producirse sobre nuestra organización, agilizando la respuesta y reduciendo las ventajas de los atacantes.

En definitiva, una infraestructura de TI transmite confianza cuando permite a las organizaciones obtener todas las ventajas de las tecnologías emergentes, mejorando el servicio y reduciendo los riesgos y los costes operacionales. Sabemos que los incidentes van a seguir produciéndose, pero trabajamos para que los usuarios no lo perciban y la organización no sufra sus consecuencias. Una apuesta por la innovación permanente.

Video presentación blogger especializado en sector financiero

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

David Beltrán, con más de 20 años de experiencia en el sector tecnológico, y fundamentalmente en el financiero nos explicará en sus sucesivas colaboraciones cómo la tecnología de EMC puede ayudar especialmente al sector financiero.

Vea el video.

El fin de las arquitecturas accidentales

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

En EMC tenemos identificado lo que llamamos Arquitecturas Accidentales de Backup. Estas arquitecturas se han ido generando con los años, y obedecen a la gran cantidad de actores que están envueltos a la hora de garantizar la seguridad de los datos en una instalación.

Tenemos personas a cargo de los servidores físicos, responsables de máquinas virtuales, gestores de almacenamiento, de aplicaciones, administradores de bases de datos, de laptops, responsables de oficinas remotas…y cada uno tiene su librillo, con el que se siente cómodo y que necesita realizar para garantizar la seguridad y consistencia de su entorno, manteniendo la visibilidad y el control. El resultado es una enorme complejidad y unos altos costes de infraestructura y gestión.

Así los equipos de almacenamiento realizan un snap vía comando, mientras el DBA lanza su propio Backup con las herramientas que la base de datos le proporciona y el administrador de máquinas virtuales guarda una plantilla. No siempre se sabe  lo que está protegido y lo que no, y tampoco si la protección y los costes son consistentes con la criticidad de la información a través de toda la organización.

En estos últimos años, Cloud Computing nos ha enseñado que las organizaciones se dirigen hacia el consumo de TI como un servicio. Pienso que el Backup es precisamente una de las funciones idóneas para convertir en un servicio y donde el retorno de la inversión es más evidente. Un servicio transversal para todos los integrantes del Datacenter, respetando las herramientas que les son conocidas pero integrándolos mediante políticas unificadas y que permita gestionar la infraestructura, la monitorización, las analíticas, etc.

Esa filosofía es la que EMC ha incorporado a sus productos de Backup, patente en el lanzamiento realizado esta semana (https://community.emc.com/docs/DOC-24965). Mejor dicho, a sus  soluciones de protección de la información, Data Protection Suite, puesto que junto con el Backup se integran servicios de Disaster Recovery y Archivado.

Arquitecturas de backup

Arquitecturas de Protección: Integradas, abiertas, modulares.

Así, se da un paso adelante en la integración de bases de datos y backup, permitiendo a los DBas realizar el backup en su propio entorno, en el formato propio de la BBDD y con las herramientas que les son conocidas pero totalmente integradas con las políticas de protección corporativas. De esta forma, por ejemplo, un administrador de SAP HANA hace su Backup a través de SAP HANA Studio, y esta copia es registrada por el software de backup como propia, permitiendo al administrador de backup extender su ciclo de vida. Un administrador de Oracle puede hacer lo mismo a través de RMAN. Por cierto, que como parte del lanzamiento EMC ha certificado la primera plataforma de Backup deduplicado para Oracle Exadata.

También se potencia la integración con VMware, de forma que se permite hacer backup de máquinas virtuales a nivel de imagen desde vSphere, desde donde también se puede llevar a cabo la recuperación de las mismas; con ello se incrementan las capacidades de autoservicio. Es también interesante la asignación de políticas de seguridad mínimas por defecto cada vez que se crea una nueva máquina virtual, lo que permite saber que todos nuestros sistemas virtuales se encuentran protegidos sin excepción.  Además, se permite hacer boot de una máquina virtual directamente desde el backup, sin restauración previa. Menos de dos minutos para arrancar una máquina desde su backup, que puede luego moverse con vMotion a su ubicación definitiva.

Y cómo no, también integración más profunda con el almacenamiento, de forma que la plataforma de protección permite realizar copias de seguridad en los almacenamientos (snaps), incorporándolas también en la política de seguridad general y facilitando una recuperación muy veloz en caso de necesidad.

Para no hacer la entrada muy extensa, sólo señalar que éstas son quizá las aplicaciones más extendidas, pero se ha continuado el esfuerzo de integración de otras muchas aplicaciones de archivado y seguridad de datos, tales como Symantec, Commvault, Atempo, Opentext, etc. lo que permite a nuestros clientes desplegar una infraestructura modular y abierta.

En definitiva, la protección de la información entendida como un catálogo de servicios del datacenter, con visibilidad corporativa, incorporando backup, archivado y disaster recovery; integración entre los sistemas físicos y virtuales, las aplicaciones y el almacenamiento; escalabilidad más sostenible, reduciendo los costes y la complejidad. Una arquitectura de protección completa, frente a las arquitecturas accidentales basadas en silos.

Videos Recomendados

Expand The Data Lake: New Data Lake, New Breakthroughs

Archivo del Blog

  • 2016 3
  • 2015 20
  • 2014 7
  • 2013 16
  • 2012 21
facebook
twitter
linkedin
youtube
rss