Archive for the ‘Uncategorized’ Category

All-Flash por fin es una realidad

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Ya metidos de lleno en el caluroso verano, me dispongo a escribir sobre parte de lo anunciado en el pasado EMC World, relativo a la estrategia All-Flash de EMC.

Lo primero y probablemente más importante, no es hablar de productos concretos, sino de arquitectura. Por mucho que algunos fabricantes se empeñen en sostener lo contrario, la realidad es que, a día de hoy, nadie tiene una solución All-Flash de aplicación universal que proporcione el mejor rendimiento posible a todas las cargas de trabajo, con los mejores ahorros en almacenamiento utilizado, con todas las funcionalidades requeridas y a la vez con el mejor coste de propiedad. Este es el motivo por el cual desde EMC seguimos pensando que la arquitectura importa, y proponemos diferentes opciones de All-Flash Array (AFA), para cubrir los diferentes escenarios de la forma más adecuada.

AFA Strategy

Como pueden apreciar, hay tres grandes bloques, diferenciados por su arquitectura:

1.- Rack Scale Flash: DSSD

2.- Scale-Out Multi Controller High-End AFA: XtremIO y VMAX-F

3.- Active-Active Dual Controller Mid-Range AFA: Unity

A DSSD ya le dediqué un par de artículos anteriormente, y me gustaría remitirles a ellos en caso de que todavía no conozcan sus bondades:

http://esblog.emc.com/2015/06/22/dssd-ya-esta-aqui/

http://esblog.emc.com/2014/06/23/aplicaciones-de-nueva-generacion-estais-de-enhorabuena/

Sobre XtremIO hay multitud de literatura disponible, aunque al menos me gustaría señalar que este producto es el que le ha permitido a EMC erigirse como el líder absoluto en el segmento All-Flash, muy por delante de todos sus competidores, habiendo obtenido 2.000 millones de dólares de ingresos desde su introducción en el mercado hace solo dos años, cantidad muy superior a la suma total de ingresos de todos sus competidores en este segmento de mercado. Está muy claro que la combinación de tecnología junto al rendimiento, ahorros en espacio de almacenamiento utilizado, eficiencias en el CPD y un atractivo TCO hacen que este producto sea un éxito sin precedentes en la industria.

Pero donde realmente quiero hacer especial mención hoy es en las nuevas propuestas VMAX-F y Unity. ¿Se imaginan por fin poder afrontar la aplicación de tecnologías All-Flash en todo el CDP, y no solo en aquellas contadas aplicaciones que lo justificaban? Ahora es posible afrontar este avance por los siguientes motivos:

-El coste de adopción de los discos Flash ha bajado hasta un nivel muy inferior al que estábamos acostumbrados.

-La densidad conseguida es ya mayor que con los discos tradicionales mecánicos.

-El rendimiento, medido tanto en IOPS como tiempo de respuesta que presentan los sistemas AFA hace que la consolidación puede llevarse mucho más allá de hasta donde era posible anteriormente. Esto posibilita ganancias claras en espacio, consumo energético y refrigeración en el CPD que hacen que, de nuevo, el TCO de adopción sea extremadamente atractivo.

-La simplicidad del sistema AFA. Adiós a las tecnologías de Tiering y a varios sistemas separados para disponer, por ejemplo, de activo-activo.

Imaginen por lo tanto un sistema que en medio rack pueda contener más de 1 PB de almacenamiento neto, con funcionalidad activo-activo entre CPDs, en el que el tiempo de respuesta del 95% de la carga del mismo sea inferior a 1 ms, y que pueda procesar 550.000 IOPS de bloque pequeño, a un precio que no se creerían. ¿Atractivo? Bien, pues todo esto es posible ya con EMC VMAX-F. Y si no necesitan activo-activo, o que esté integrado en el sistema, o bien el volumen a consolidar no es tan grande, los sistemas Unity están diseñados para cubrir con la máxima eficiencia estas otras necesidades.

No se pierdan de lo que son capaces estos nuevos sistemas AFA de EMC, se sorprenderán gratamente, y podrán seguro abordar con ellos proyectos de Modernización del CPD que antes no eran posibles por los elevados costes que suponían.

Neutrino y la tercera plataforma

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Ahora que el invierno toca a su fin y estamos por lo tanto a punto de entrar en primavera, me gustaría aprovechar para hablarles sobre una de las últimas novedades recientemente presentadas por EMC. En esta ocasión se trata de Neutrino.

Si recuerdan mi artículo anterior acerca de la apuesta de EMC por el Open Source, Neutrino viene si cabe a confirmar más esta apuesta, con una solución completa para despliegue de aplicaciones de tercera plataforma, estando a la vez preparado para aplicaciones de segunda, siendo totalmente compatible con OpenStack, de forma que puede integrarse de forma sencilla en todos aquellos entornos donde el cliente haya ya apostado por tecnología Open Source.

Y es que lo más importante en un entorno de este tipo es evitar los dolores de cabeza provenientes de la integración, puesta en marcha y afinado del rendimiento de estas soluciones. La complejidad del stack de software involucrado hace que contar con un partner de confianza que proporcione y soporte la solución de extremo a extremo sea algo prácticamente obligatorio para lograr un éxito de implantación, cumpliendo con los objetivos de tiempo de despliegue.

Neutrino es, por lo tanto, una solución completa llave en mano de IaaS y PaaS que permite abordar proyectos novedosos de forma segura. Veamos a continuación los elementos clave de Neutrino:

Separation between infrastructure and services

Como se puede observar, aparte del HW necesario para soportar la solución (compuesto por nodos de sistemas hiperconvergentes, con la potencia y escalabilidad necesarias), hay todo un trabajo interno de ingeniería de EMC para hacer que toda la complejidad inherente a un entorno de este tipo (soporte del HW, provisión, monitorización y salud del entorno, crecimiento de la plataforma, etc…) quede oculta al cliente, de forma que poner en marcha, hacer crecer o aprovisionar cargas de trabajo en este entorno sea muy sencillo, y cuestión siempre de minutos, y no días o semanas.

De forma añadida, el sistema está preparado para aumentar sus funcionalidades en próximas versiones, añadiendo capacidades de DBaaS (bases de datos NoSQL, como Cassandra y MongoDB) y Analytics, a las ya existentes de IaaS y PaaS (Pivotal Cloud Foundry).

En definitiva, Neutrino se posiciona como plataforma ideal para nuevos desarrollos Agile de aplicaciones nativas Cloud (Web & Mobile Apps), plataformas de desarrollo DevOps y aplicaciones desplegadas en contenedores (Docker).

De nuevo, me permito invitarles a profundizar en Neutrino y su aplicación clave en el desarrollo del Modern Datacenter.

Demos la bienvenida a Virtustream

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Ya entrado el otoño, me dispongo a escribir sobre la última compañía que se ha incorporado a la Federación de EMC. Me refiero por supuesto a Virtustream. Con esta última adquisición, realizada a finales del pasado mes de mayo, ya son seis las empresas que forman parte de la Federación (EMC, VMware, RSA, VCE, Pivotal y Virtustream).

virtustreamY es que Virtustream viene a completar, con su experiencia como Cloud Service Provider en entornos aplicativos empresariales, la propuesta de EMC relativa a la nube.

Virtustream es una compañía que ofrece claros valores añadidos. El primero, el de ser un Cloud Service Provider con contrastada experiencia, infraestructuras propias y acuerdos con terceros. El segundo, que aporta experiencia y saber hacer al proporcionar servicios gestionados de aplicaciones empresariales (con más de 100 clientes ejecutando SAP en su nube, es uno de los pocos partners de SAP que proporciona el servicio SAP HANA Enterprise Cloud) y el tercero, que cuenta con una plataforma de gestión de Hybrid Cloud propia, que aporta una eficiencia extrema en el uso de los recursos disponibles, tanto on-premise como off-premise, mediante la gestión de μVM (micro virtual machines) y aportando la seguridad necesaria para gestionar aplicaciones en la nube con confianza.

Si usted está pensando en desplegar sus aplicaciones tradicionales de negocio (SAP, Navision, SAS, Exchange, SharePoint, Dynamics, HANA, Oracle, Hadoop, SQL, MySQL, DB2) en un modelo As-a-Service y en un proveedor de confianza y con experiencia contrastada, EMC, a través de Virtustream, se convierte en un referente en este proceso.

Si está evaluando la forma de optimizar al máximo sus recursos de nube on-premise y gestionar de forma eficiente y conjunta recursos off-premise, Virtustream ofrece su suite de software para desplegar en infraestructuras existentes. Simplemente desplegando la suite xStream (SW de Hybrid Cloud y Risk Management) usted será capaz de ahorrar en costes de infraestructura, al poder aprovechar los recursos existentes de una forma mucho más óptima, evitando inversiones adicionales, o bien pudiendo desplegar más carga de trabajo sobre recursos existentes. Se estiman ahorros en el TCO de entre un 20% y un 65%, dependiendo del caso en concreto.

Como de costumbre, no me gustaría terminar el presente artículo sin invitarles a profundizar sobre Virtustream, la nueva propuesta tecnológica de EMC, que aporta un inmenso valor añadido en el despliegue y adopción de arquitecturas de nube.

Primer Paso: Business Data Lake

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Las empresas han tomado conciencia de que la aparición y crecimiento de nuevas fuentes de datos, junto con las tecnologías Big Data y los nuevos enfoques analíticos, ofrecen una oportunidad sin precedentes para impulsar nuevos modelos de negocio e incrementar sus ventajas competitivas.

En este entorno, Hadoop ha pasado a formar parte de la visión estratégica de los negocios, dando lugar a un ecosistema complejo, cada vez más preparado para dar respuesta a distintos retos: análisis masivo de información, respuestas a eventos en tiempo real (Fast Data), distintos lenguajes de programación, interfaces SQL, procesado de datos en memoria

Una de las mayores preocupaciones consiste en saber por dónde empezar a construir toda esta arquitectura de negocio, cuál es la primera piedra; la respuesta está en el Data Lake, al que ya hemos dedicado un par de entradas en este blog; una de ellas es El sueño del Data Lake.

A principios de esta semana, EMC ha anunciado su solución Business Data Lake (BDL), que proporciona la capacidad de generar un Lago de Datos de nivel empresarial, alineado con las prioridades del negocio, y que permite agilizar la extracción de valor de los datos.

El Business Data Lake de EMC es una plataforma convergente que incorpora el almacenamiento, computación y los motores analíticos necesarios para ofrecer una plataforma de explotación de datos eficaz, proporcionando además capacidades de autoservicio, gestión extremo a extremo, integración y aprovisionamiento de todo el entorno de Big Data a través de bloques preconfigurados.

Aunque la solución permite combinar el valor de la Federación EMC al completo, con la virtualización de VMware y las capacidades analíticas de Pivotal, también es posible sustituir las plataformas analíticas por otras tales como Cloudera o Hortonworks, o incorporar distintas aplicaciones y bases de datos tales como Tableau, SAS o MongoDB en tiempo de lanzamiento, a los que se irán incorporando otros actores.

Business Data LakeInteroperabilidad clave

Quizá sea la interoperabilidad uno de los aspectos más interesantes de la solución. Esto se ha conseguido gracias a un significativo esfuerzo de ingeniería, orientado no sólo a garantizar que todas estas tecnologías funcionan en conjunto, sino a orquestar las funciones claves del Data Lake, tales como la ingesta de datos, el aprovisionamiento de aplicaciones, la seguridad o la gobernanza del entorno.

De esta forma, la integración con las soluciones de EMC permite ejecutar cualquiera de los componentes de las plataformas PivotalHD, Cloudera Enterprise o Hortonworks Data Platform, sobre las infraestructuras scale-out Isilon propuestas en el BDL; SAS integra y optimiza para el BDL su plataforma analítica, lo que permite crear y administrar sus modelos sobre una arquitectura de última generación.

Los ejemplos anteriores refuerzan el compromiso de todas estas compañías, y de EMC, con la interoperabilidad que estos entornos abiertos y críticos requieren, fortaleciendo la capacidad de elección del cliente.

El Business Data Lake refleja, en definitiva, un esfuerzo conjunto entre EMC y sus partners, que incluye el hardware, software y la integración e ingeniería necesaria para definir un primer paso sencillo y veloz que permita a las organizaciones innovar y comenzar a obtener valor de este fenómeno imparable del Big Data.

La nube híbrida y el Hotel California

¿Y qué pueden tener en común el concepto de nube híbrida y la canción del Hotel California de los Eagles? Pues así a priori, parece que nada, que son dos conceptos completamente alejados, pero vamos a ir un paso más allá.

En la canción de los Eagles, se habla de un hotel en el que una vez que entras, no puedes salir, quedas atrapado en su interior por “fuerzas mágicas”. Pues algo similar nos podemos encontrar en algunos modelos de nube híbrida o simplemente nube pública, en los que una vez que has llevado una carga a una nube pública, o la has movido a una nube híbrida, no tienes posibilidades de volver a tener el control y llevar la carga al lugar que consideres oportuno, incluyendo por tanto, el lugar desde donde la moviste.

Como escuché el otro día a un compañero de VMware, “tan importante es poder entrar como lo es poder salir”.

Recientemente Pivotal, compañía dentro de la federación EMC ha hecho un anuncio con un gran calado en el uso práctico de nubes híbridas. A su solución estrella, Pivotal Cloud Foundry (PCF) le ha añadido la funcionalidad de disponer de soporte nativo de Amazon Web Services (AWS).

Pivotal CF Ops Manager

Así, a las opciones que ya tenía el producto para desplegar PCF en vCloud Air, vSphere y OpenStack, ejemplos de instancias de nube pública y nube privada, le ha añadido el soporte de AWS. A este reciente anuncio, se ha sumado el compromiso de ir incorporando otras opciones a lo largo de este año para así permitir más libertad en el despliegue de PCF a los clientes.

Gracias a este movimiento, contando con una plataforma homogénea entre diferentes modelos de nube privada y pública, Pivotal reduce de manera significativa los esfuerzos necesarios para disponer tanto de una plataforma multi-nube como híbrida. Por ejemplo, sería posible para una start-up o para una incubadora de ideas comenzar el desarrollo de una nueva app en una nube pública. Si posteriormente a su lanzamiento, por el motivo que sea, quisiera llevarse la carga a su CPD para tener un mayor control o por temas regulatorios, etc, gracias al soporte de las diferentes nubes que tiene PCF, permitiría realizar esa paso sin disrupción alguna y sin tener que transformar su aplicación para empezar desde cero, convirtiendo este anuncio en un gran dinamizador para el desarrollo de apps.

 

Diferencias y definición de infraestructura convergente y HCIA

En los últimos tiempos, nos hemos encontrado con dos nuevos términos acuñados dentro del ecosistema virtualizado, infraestructura convergente e infraestructura hiper-convergente (HCIA). ¿Pero qué son y cuáles son las diferencias entre ambos conceptos?

Para empezar, ambas variantes aportan una nueva manera de consumir los recursos en las organizaciones de IT. Hasta ahora lo más habitual era disponer de infraestructura asociada a un proyecto determinado (la infraestructura para el CRM, la infraestructura para el ERP, etc) y además contábamos con diferentes grupos organizativos dentro de IT, encargados de gestionar por separado cada uno, las capas que componían la solución, es decir, típicamente las capas de computación, comunicación y almacenamiento.
capas computación

Con la llegada de la virtualización, se ha ido progresivamente imponiendo un modelo en el que se crean pooles compartidos de computación, comunicaciones y almacenamiento, y dentro de esos pooles se asigna la ejecución de las aplicaciones, mientras que disponemos de un administrador de toda la infraestructura virtualizada, huyendo por tanto de los silos.

Así, entendemos por infraestructura convergente aquella que nos permite agrupar múltiples componentes (típicamente los mencionados cómputo, comunicaciones y almacenamiento) en una única infraestructura empaquetada con una capa de gestión común.

En cuanto a las diferencias, aunque no hay un consenso universal, la diferencia más extendida es que mientras en la infraestructura convergente aun sigue siendo posible administrar y asignar por separado los recursos de las 3 capas; en la infraestructura hiper-convergente, no es posible.

De hecho, en una infraestructura convergente teóricamente es posible aumentar los recursos de una sola de las capas manteniendo las otras constantes, mientras que en los modelos HCIA, cada incremento en una de las capas, lleva aparejado el crecimiento de las otras, pues el consumo mínimo es un bloque funcional que incluye los 3 elementos simultáneamente, consiguiendo un incremento lineal de los recursos disponibles y haciendo realidad un scale-out verdadero.

En los tres casos nos encontramos ante una nueva forma de crear y administrar los recursos para la nueva generación de entornos virtuales, en la que el administrador del mismo tiene un mayor control extremo a extremo del consumo de lo que antes, eran recursos independientes.

En la actualidad, la oferta de EMC es una de las más completas en este terreno, ofreciendo la solución más adecuada a las necesidades de cada cliente y su punto de madurez con respecto a la virtualización. Esta oferta está compuesta por:

  • Sistemas Vblock comercializados a través de VCE, miembro de la federación de EMC, solución prepaquetizada desde fábrica en la que prima por encima de cualquier otro factor, el mínimo tiempo de despliegue de VMs.
  • VSPEX, solución basada en arquitectura de referencia, la #1 según Gartner y con una presencia muy importante de nuestro ecosistema de partners.
  • VSPEX Blue, ejemplo de HCIA conforme a las especificaciones de VMware con EVO: RAIL, al que EMC ha añadido unas extensiones que dotan a la solución de una mejor protección y seguridad.

Porfolio EMC

¿Cuál es la solución más adecuada a mis necesidades? La verdad es que no hay una respuesta única y como viene siendo habitual en EMC, lo que prima es la capacidad de elección del usuario, para que así pueda seleccionar libremente aquella solución que más se adapta a sus necesidades específicas.

Si es cierto, que uno de los factores que podrán inclinar la balanza hacia un lado u otro es si la situación en la que se encuentre el cliente encaje más en lo que se conoce en términos anglosajones como “greenfield” o “brownfield”. Es decir, si tenemos que mantener compatibilidad con los sistemas anteriormente desplegados en nuestro CPD o disponemos de un grado de libertad total en la puesta en marcha de esta nueva infraestructura.

Redefinición de requerimientos: Del NAS al Data Lake

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

gooHace un par de semanas dedicábamos una entrada al Data Lake, ese repositorio hiperescalable, capaz de contener toda la información que una organización necesita, en el formato en que se haya generado y accesible por múltiples aplicaciones; el concepto contrario a silos de información incomunicada.
Como otros grandes conceptos emergentes (Big Data, Cloud, Internet of Things), la expresión ‘Data Lake’ es atractiva en sí misma y algo abstracta, define un concepto lógico de alto nivel. Por ello hoy toca bajar a suelo y reflexionar sobre la importancia de la infraestructura en la generación de un auténtico Lago de los Datos.
Lo primero es analizar el tipo de información que necesitamos almacenar; la información desestructurada representa cerca del 80% de los datos generados en el mundo actualmente. Por tanto este es el tipo de información prioritaria en el Data Lake: Más que Bases de Datos tradicionales son Ficheros y Objetos, documentos office, vídeos, grabaciones de voz, registros de máquinas…casi cualquier cosa.
EMC dispone de una herramienta especializada en este tipo de información, la gama Isilon, un sistema que en origen nació como un almacenamiento orientado a ficheros (NAS) y con una gran capacidad de crecimiento horizontal (arquitectura scale-out). Hoy Isilon ha evolucionado y constituye la mejor plataforma sobre la que desarrollar un Data Lake.

Escalabilidad y Gestión
La información se duplica cada dos años. Eso significa que en los dos próximos años nuestro Datacenter contendrá el doble de la información que contiene hoy, y dos años después el cuádruple. Por tanto, un requerimiento básico del Data Lake es la escalabilidad, la capacidad de adaptarse al crecimiento frenético del volumen de información sin generar cuellos de botella.
Un sistema Isilon crece a base de nodos independientes, que contienen tanto almacenamiento como CPUs, un tipo de arquitectura que favorece lo que llamamos escalabilidad horizontal o scale-out: cada vez que añadimos una pieza al sistema, éste crece tanto en capacidad como en potencia de proceso.
En su configuración máxima actual, Isilon alcanza 50PB (50.000TB!), lo que permite mantener el ritmo de crecimiento que el Big Data impone. Además, presenta todo ese volumen de datos como un único sistema de ficheros y un único disco lógico, compartido y accesible desde cualquier nodo. O sea, un repositorio único, de gestión sencilla, donde el mismo fichero está disponible para su acceso universal sin controladoras dedicadas.

EMC SCALE OUTInteroperatividad y Acceso Inmediato
El Data Lake se alimenta de múltiples aplicaciones a través de variados métodos de acceso; Isilon soporta los habituales protocolos asociados con el acceso a ficheros (NFS, CIFS, FTP), a los que se añaden los métodos de acceso típicos de los objetos (REST, SWIFT, S3, HTTP), los específicos de Backup (NDMP) o los asociados con analíticas de datos desestructurados (HDFS) de distintas distribuciones Open Source, entre las que se encuentran Apache, Pivotal, Hortonworks y Cloudera.
Además, habilita el acceso al mismo contenido a través de distintos protocolos de forma simultánea; por ejemplo, se pueden ejecutar analíticas de Hadoop sobre los objetos o ficheros generados por otras aplicaciones de forma inmediata, respetando sus formatos originales y sin necesidad de moverlos o copiarlos, lo que favorece el uso inmediato y sin esperas de la información, acabando con la tradicional incomunicación de los silos de información.

Interoperatividad en el data lake
Data Lake empresarial
Hay otras muchas razones por las que Isilon aporta un valor diferencial al Data Lake. Pensemos, por ejemplo, en el proceso periódico de refresco tecnológico. Esta tarea tradicionalmente ha sido una pesadilla en cualquier entorno, puesto que consiste en mover la información desde la tecnología antigua hacia la nueva, intentando que este proceso se realice límpiamente, con un consumo de recursos limitado y sin afectar a la producción. ¿Cómo puedo cumplir esos objetivos cuando el entorno a refrescar sea un repositorio con un volumen de datos sin precedentes (PB) y desestructurados?
La respuesta es, una vez más, apoyarse en la tecnología para hacer el proceso más sencillo. La arquitectura scale-out Isilon permite expandirse sin interrupción, con nodos de generaciones diferentes, balanceando datos y cargas de forma automática entre todos ellos. También permite retirar sin interrupción cualquier tipo de nodos, balanceando las cargas y los datos entre los nodos supervivientes. Este proceso elimina la necesidad de migración de los datos, y lo sustituye por una expansión y reducción del sistema, al final de lo cual habrá sido refrescado.

Refresco tecnológico data lakeY en fin, otras buenas razones tienen que ver con las funcionalidades que cabe esperar de cualquier infraestructura de EMC tales como disponibilidad, réplicas locales y remotas, o calidad del soporte técnico, elementos más conocidos en cualquier entorno.
Isilon está redefiniendo este mercado; lo que fue una herramienta de almacenamiento NAS se ha convertido en el auténtico cimiento del Data Lake, acelerando la adopción de este concepto mediante un despliegue rápido, sencillo, y sobre todo, seguro.

Un paso más de Big Data hacia Open Source.

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Hace un año escribí una entrada en este mismo blog cuyo título era ‘Cloud es demasiado importante para ser propietario’, donde reflexionaba sobre la conversión de Cloud Foundry en una fundación abierta. Hoy el título podría haber sido ‘Big Data es demasiado importante para ser propietario’.

Esta semana se ha anunciado un acuerdo estratégico de colaboración entre Pivotal y Hortonworks; son dos de los grandes distribuidores de Hadoop, esa plataforma software que permite almacenar, gestionar y procesar grandes cantidades de información y que es una de las piezas clave del fenómeno Big Data.

A través de una iniciativa denominada ODP (Open Data Platform), ambas compañías establecen su voluntad de colaborar en el desarrollo de un núcleo común de Hadoop, para facilitar la compatibilidad básica entre distintas distribuciones.

De esta manera Hortonworks pasa a proporcionar soporte de ingeniería para el núcleo de ambas distribuciones de Hadoop, la de Pivotal y la suya propia, y Pivotal libera el software incluido en su Big Data suite, que incluye bases de datos SQL como Greenplum y HAWQ así como bases de datos no-SQL como Gemfire, permitiendo a cualquiera la descarga, el uso o modificación del código e incluso promoviendo su colaboración para futuras versiones.

Pivotal y Hortonworks ya venían colaborando desde el pasado mes de julio en el proyecto Apache Ambari, cuya finalidad es la de facilitar la gestión de clusters de Hadoop a través del desarrollo de software de administración y aprovisionamiento.

Pivotal tras los pasos de Cloud FoundryPivotal HD, tras los pasos de Cloud Foundry

‘Coopetidores’

Además de Hortonworks y Pivotal otras grandes compañías se han sumado a la Open Data Platforma, con el objetivo de promover la adopción de Hadoop; entre ellas encontramos gigantes como VMware, Cap Gemini, IBM, o GE, quien construye sobre esta plataforma gran cantidad de software industrial orientado a la analítica de datos.

Una plataforma tan grande y tan compleja como Hadoop requiere la mayor colaboración posible entre distintos proveedores, si queremos favorecer la adopción por parte de los clientes; se trata de evitar que puedan sentirse prisioneros de una distribución determinada.

En definitiva, estamos ante un ejemplo de ‘Coopetencia’ esa mezcla de cooperación y competencia entre empresas para empujar una iniciativa común en beneficio del conjunto del mercado.

 

TIC, Formación y Empleo

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

En las dos últimas semanas he representado a EMC en un par de eventos, orientados a promover la colaboración entre las empresas tecnológicas y las administraciones, con el objetivo de reducir el desempleo a través de la formación.

La idea de partida es sencilla. España es un país con un alto índice de formación universitaria, pero existe una brecha importante entre lo que la Universidad ofrece y lo que las empresas demandan; así, mientras la universidad certifica un ingeniero informático, por ejemplo, las empresas demandan un gestor de almacenamiento certificado por EMC, un programador Java certificado por Oracle o un administrador de Windows.

El resultado de esta brecha, es que existe una demanda de profesionales de tecnologías de la información que las empresas no son capaces de cubrir, en un país donde el desempleo es el más serio de los problemas.

Con esto en mente, la administración aragonesa fue pionera, hace dos años, en la puesta en marcha de un programa de Formación Certificada en Tecnologías de la Información y Comunicaciones, que se desarrolla en el Centro de Tecnologías Avanzadas (CTA) de Zaragoza.

Como parte del programa, al que se acaba de incorporar EMC, se imparten diversos cursos oficiales de los principales fabricantes, lo que proporciona acceso a sus certificaciones. Se trata de cursos diseñados y actualizados permanentemente por las empresas de tecnología, para dar respuesta a las demandas del mercado.

Director del CTA presenta a las autoridades la Tercera PlataformaEl Director del CTA presenta a las autoridades la Tercera Plataforma

Inserción laboral

El éxito del programa se mide en cifras: La inserción laboral del programa TIC es del 74%, lo que significa que tres cuartas partes de los asistentes han encontrado un puesto de trabajo, directamente relacionado con el contenido de los cursos, en menos de 6 meses. De acuerdo con los estudios de la administración, ninguna otra política activa de empleo mejora estos resultados.

Por ello, el CTA aragonés ha sido declarado por el Consejo de Ministros: Centro Nacional de Referencia, en un acto al que se quiso dotar de solemnidad mediante la presencia de la Ministra de Empleo y la Presidenta del Gobierno de Aragón. Fátima Báñez señaló que la formación impartida por el CTA es, por su calidad, un ejemplo para todo el país; Luisa Fernanda Rudi, por su parte, destacó la colaboración entre administración pública y empresa privada en la búsqueda de un objetivo común.

En cuanto a las empresas de tecnología, es un placer comprobar el ambiente de colaboración existente entre habituales competidores, así como el reconocimiento hacia las TIC como factor de empleo y bienestar social; para nosotros, este tipo de iniciativas son muy positivas, tanto por el objetivo final de la inserción laboral como desde el punto de vista de la propagación y actualización del conocimiento, en beneficio de la comunidad TIC. Es por ello motivo de satisfacción saber que este modelo de referencia aragonés va a ser replicado en otras comunidades. Allí estaremos.

 

 

Tecnología: La Banca gana.

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Una de las tareas habituales en mi día a día, es la de tratar de concienciar a mis interlocutores acerca de la importancia de la tecnología para la eficiencia y la competitividad del negocio. A veces no es tan sencillo: Parece que los mensajes están más cercanos a nuestros deseos como proveedores de tecnología que a la realidad del negocio.

Es un auténtico placer ver que esta semana han sido los presidentes de los dos mayores bancos españoles, Ana Botín y Francisco González, quienes han reflexionado en público sobre la transformación digital de la banca y su importancia estratégica.

La presidenta del Santander definió a los cuatro grandes de internet como una amenaza competitiva, a la que se mostró dispuesta a hacer frente, hizo referencia a la seguridad de los datos en internet (Cloud), y explicó como los modernos dispositivos inteligentes (Movilidad, Internet de la Cosas) van a impactar sensiblemente ciertas áreas del negocio tradicional, como los medios de pago.

El presidente del BBVA, cuya apuesta por la tecnología es bien conocida, también mencionó a los grandes de internet como competidores, habló entre otras cosas de la necesidad de capturar la información en tiempo real (Fast Data), de la guerra para captar al cliente digital (Social Business) y explicó que el marketing tradicional está evolucionando hacia la analítica precisa y basadada en datos de comportamientos de clientes (Big Data).

Tendencias 2015

Un fenómeno generalizado

Esta transformación no es exclusiva de la banca, la podemos observar por ejemplo en el sector asegurador, en el que la predicción de contingencias forma parte del análisis de riesgos; o en la industria de la automoción, que ha convertido un automóvil en un conjunto de sensores para recoger posibles contingencias y software para responder a ellas; en la medicina, en la investigación, en las ciudades inteligentes, en el deporte, en las comunicaciones…

Es motivador observar como el negocio reconoce un nuevo valor en las tecnologías de la información, no sólo en la permanente búsqueda de eficiencia y reducción de costes, sino como base para el desarrollo de nuevos productos y servicios, como herramienta de marketing capaz de alcanzar al cliente allí donde se encuentre o como arma competitiva de primer orden. TI es parte nuclear del negocio.

Francisco González vaticinó esta semana que los bancos estarán presididos en el futuro por ejecutivos que sepan de Algorítmica, Big Data y Tecnología. Ya no podemos decir que el negocio minusvalora las TI.

Videos Recomendados

Expand The Data Lake: New Data Lake, New Breakthroughs

Archivo del Blog

  • 2016 3
  • 2015 20
  • 2014 7
  • 2013 16
  • 2012 21
facebook
twitter
linkedin
youtube
rss