Archive for March, 2015

Mundo hiperconectado

Iñigo Olcoz

Iñigo Olcoz

Iñigo Olcoz, EMC Cloud Expert. Experto en soluciones de virtualización y cloud, con 5 años de experiencia en pre-venta y consultoría en EMC y casi 20 en el mercado de las TI. Forma parte del equipo de marketing técnico que define las soluciones de nube híbrida a nivel corporativo. @virtualOlcoz
Iñigo Olcoz

Latest posts by Iñigo Olcoz (see all)

Vivimos en un mundo hiperconectado. Aunque el diccionario de la Real Academia de la Lengua aun no reconoce la palabra la realidad es más que evidente. Algunos datos como botón de muestra:

  • Hoy en día el 40% de la población mundial está conectada a Internet. En 1995, hace sólo 20 años, esta cifra era del 1%.

En el discurso de la mayoría de proveedores tecnológicos encontramos con recurrencia los términos Mobile, Internet, Social Media como instrumentos clave de innovación tecnológica y competitividad. Hace 25 años estas realidades no existían si quiera.

Este mundo hiperconectado en el que vivimos produce realidades empresariales que responden a estos nuevos paradigmas. El mundo de los servicios públicos de transporte se rebela contra la competencia que empresas como Uber les plantean. Pero en EEUU ya son muchas las personas (en su mayoría jóvenes), que expresan su preferencia a viajar con ese usuario de Uber que conocen frente a cualquier otra alternativa.

O el ejemplo de una compañía de seguros basada en Hawai que instala sensores de velocidad y aceleración en los vehículos y tarifica el coste del seguro por hora o minuto ¡según el comportamiento del conductor!.

Dual Lingo que ofrece una herramienta para aprender idiomas ¡gratuita! su modelo de negocio se basa en los encargos de traducciones que se generan en su relación con sus usuarios.

 ¿Cómo competir con estas nuevas compañías?

No es fácil. De hecho la vida media de las compañías hoy en día, según los estudios del Dr Foster de la Universidad de Yale, ha pasado de 67 años para las compañías del S&P 500 en 1927 a 15 años hoy.

Compañías con buenos productos y servicios, una buena cartera de clientes, un modelo de negocio contrastado y buena salud financiera se verán en serios apuros si son incapaces de adaptarse a los cambios que el mercado experimenta, si no son capaces de instalarse en un proceso de innovación continuo, disruptivo con sus operativas y modelos de negocio históricos.

business model

La realidad es que deberán manifestar una excelencia operativa, algo que requiere de planificaciones a corto plazo, énfasis en los procesos, estabilidad, foco en la ejecución y resultados, decisiones de bajo riesgo y a la vez deberán apostar por la innovación, que implica decisiones de riesgo, procesos de cambio contínuo, foco en la creatividad, adaptabilidad y experimentación, y planificación a largo plazo.

 ¿Cómo conseguir ambos objetivos, excelencia operativa e innovación continua?

La clave es la adopción de la tecnología como clave del desarrollo empresarial. El departamento de TI pasa de ser un centro de costes que reporta directamente al Director Financiero a ser el habilitador, motor de la innovación y garante del acceso a nuevas tecnologías para el negocio.

Según el estudio anual de PwC entre más de 1300 CEOs, un factor fundamental en el éxito de sus compañías es que sea cual sea el ámbito de la misma, se convierta en una compañía de tecnología. Y como tal, el CEO cuenta en su agenda con una nueva asignatura, convertirse en un experto tecnólogo.

technology company

 

 

 

La consolidación de ScaleIO

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Hace 15 meses, allá por diciembre del 2013, escribí un artículo titulado “El prometedor futuro de ScaleIO”, en el cual traté de mostrar las capacidades y el potencial de un producto, ScaleIO, que EMC había comprado recientemente por aquel entonces, y que reconozco me gustó muchísimo desde el primer momento.

Para aquellos que no conozcan ScaleIO, aparte de recomendar la lectura del anterior artículo, me permitiré mencionar muy brevemente que es un producto enfocado a construir un sistema de almacenamiento basado en discos y/o memoria que estén directamente conectados a un servidor, sirviendo la capacidad gestionada por red IP (Fibre Channel aquí brilla por su ausencia) y encargándose de toda la gestión y funcionalidad del sistema de almacenamiento generado. Todo esto, además, de forma transparente a las aplicaciones de negocio, que siguen accediendo en modo bloque a la capacidad. Estamos por lo tanto saliendo del paradigma habitual del sistema de almacenamiento y red SAN al que estamos acostumbrado desde hace ya muchos años.

En todo este tiempo, he tenido la oportunidad de trabajar de cerca con el producto y ver por lo tanto como ScaleIO ha desarrollado funcionalidades adicionales. Estas vienen a complementar la extraordinaria base sobre la que está desarrollado el producto, y que permiten que estemos en el momento de alumbrar una nueva gama de soluciones basados en esta tecnología, que van a permitir afrontar proyectos de una manera novedosa y disruptiva (como dicen los anglosajones). Por lo tanto, la actual oferta de producto basada en ScaleIO se va a ampliar de forma significativa, con nuevos lanzamientos que sucederán a lo largo del presente año. EMC cuenta con un significativo número de clientes que ya han adoptado ScaleIO como base tecnológica para proyectos clave dentro de sus respectivas organizaciones, y está muy claro que con la oferta que viene, el despliegue de esta tecnología se va a incrementar de forma significativa.

ScaleIO

Y es que ScaleIO nació como un producto a comercializar solamente como SW, siendo el cliente el que decide sobre qué infraestructura desea construir sus sistemas de almacenamiento. Pero ¿qué ocurre entonces con todos aquellos clientes (que son la mayoría) que desean adquirir una solución completa a un proveedor de confianza? Aquí es donde EMC, experta en adquisiciones de funcionalidades estratégicas que luego construye y comercializa como soluciones completas, es clave, y va a poner en el mercado una nueva gama de soluciones estratégicas para aquellos clientes que confían en la experiencia, la solidez del líder y el excelente soporte del que EMC viene históricamente haciendo gala.

Estén por lo tanto preparados para lo que está por venir durante el año. Veremos soluciones hiperconvergentes basadas en ScaleIO, con la potencia y escalabilidad necesarias para afrontar proyectos de cualquier demanda de prestaciones de una forma innovadora, y por supuesto, con el soporte completo de EMC a toda la solución.

Les invito a estar atentos, o incluso a registrarse y participar si no lo han hecho ya, a nuestro EMC World 2015, en el cual se anunciarán las soluciones sobre las que he tratado de focalizarme en este artículo. Estoy seguro que el conocimiento de estas soluciones hará que los responsables de diseño y arquitectura de las infraestructuras de TI puedan abordar sus necesidades de nuevas maneras, para poder así tener éxito en el difícil entorno actual, en el cual proporcionar la infraestructura necesaria con la capacidad de inversión disponible es todo un reto.

Diferencias y definición de infraestructura convergente y HCIA

En los últimos tiempos, nos hemos encontrado con dos nuevos términos acuñados dentro del ecosistema virtualizado, infraestructura convergente e infraestructura hiper-convergente (HCIA). ¿Pero qué son y cuáles son las diferencias entre ambos conceptos?

Para empezar, ambas variantes aportan una nueva manera de consumir los recursos en las organizaciones de IT. Hasta ahora lo más habitual era disponer de infraestructura asociada a un proyecto determinado (la infraestructura para el CRM, la infraestructura para el ERP, etc) y además contábamos con diferentes grupos organizativos dentro de IT, encargados de gestionar por separado cada uno, las capas que componían la solución, es decir, típicamente las capas de computación, comunicación y almacenamiento.
capas computación

Con la llegada de la virtualización, se ha ido progresivamente imponiendo un modelo en el que se crean pooles compartidos de computación, comunicaciones y almacenamiento, y dentro de esos pooles se asigna la ejecución de las aplicaciones, mientras que disponemos de un administrador de toda la infraestructura virtualizada, huyendo por tanto de los silos.

Así, entendemos por infraestructura convergente aquella que nos permite agrupar múltiples componentes (típicamente los mencionados cómputo, comunicaciones y almacenamiento) en una única infraestructura empaquetada con una capa de gestión común.

En cuanto a las diferencias, aunque no hay un consenso universal, la diferencia más extendida es que mientras en la infraestructura convergente aun sigue siendo posible administrar y asignar por separado los recursos de las 3 capas; en la infraestructura hiper-convergente, no es posible.

De hecho, en una infraestructura convergente teóricamente es posible aumentar los recursos de una sola de las capas manteniendo las otras constantes, mientras que en los modelos HCIA, cada incremento en una de las capas, lleva aparejado el crecimiento de las otras, pues el consumo mínimo es un bloque funcional que incluye los 3 elementos simultáneamente, consiguiendo un incremento lineal de los recursos disponibles y haciendo realidad un scale-out verdadero.

En los tres casos nos encontramos ante una nueva forma de crear y administrar los recursos para la nueva generación de entornos virtuales, en la que el administrador del mismo tiene un mayor control extremo a extremo del consumo de lo que antes, eran recursos independientes.

En la actualidad, la oferta de EMC es una de las más completas en este terreno, ofreciendo la solución más adecuada a las necesidades de cada cliente y su punto de madurez con respecto a la virtualización. Esta oferta está compuesta por:

  • Sistemas Vblock comercializados a través de VCE, miembro de la federación de EMC, solución prepaquetizada desde fábrica en la que prima por encima de cualquier otro factor, el mínimo tiempo de despliegue de VMs.
  • VSPEX, solución basada en arquitectura de referencia, la #1 según Gartner y con una presencia muy importante de nuestro ecosistema de partners.
  • VSPEX Blue, ejemplo de HCIA conforme a las especificaciones de VMware con EVO: RAIL, al que EMC ha añadido unas extensiones que dotan a la solución de una mejor protección y seguridad.

Porfolio EMC

¿Cuál es la solución más adecuada a mis necesidades? La verdad es que no hay una respuesta única y como viene siendo habitual en EMC, lo que prima es la capacidad de elección del usuario, para que así pueda seleccionar libremente aquella solución que más se adapta a sus necesidades específicas.

Si es cierto, que uno de los factores que podrán inclinar la balanza hacia un lado u otro es si la situación en la que se encuentre el cliente encaje más en lo que se conoce en términos anglosajones como “greenfield” o “brownfield”. Es decir, si tenemos que mantener compatibilidad con los sistemas anteriormente desplegados en nuestro CPD o disponemos de un grado de libertad total en la puesta en marcha de esta nueva infraestructura.

Redefinición de requerimientos: Del NAS al Data Lake

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

gooHace un par de semanas dedicábamos una entrada al Data Lake, ese repositorio hiperescalable, capaz de contener toda la información que una organización necesita, en el formato en que se haya generado y accesible por múltiples aplicaciones; el concepto contrario a silos de información incomunicada.
Como otros grandes conceptos emergentes (Big Data, Cloud, Internet of Things), la expresión ‘Data Lake’ es atractiva en sí misma y algo abstracta, define un concepto lógico de alto nivel. Por ello hoy toca bajar a suelo y reflexionar sobre la importancia de la infraestructura en la generación de un auténtico Lago de los Datos.
Lo primero es analizar el tipo de información que necesitamos almacenar; la información desestructurada representa cerca del 80% de los datos generados en el mundo actualmente. Por tanto este es el tipo de información prioritaria en el Data Lake: Más que Bases de Datos tradicionales son Ficheros y Objetos, documentos office, vídeos, grabaciones de voz, registros de máquinas…casi cualquier cosa.
EMC dispone de una herramienta especializada en este tipo de información, la gama Isilon, un sistema que en origen nació como un almacenamiento orientado a ficheros (NAS) y con una gran capacidad de crecimiento horizontal (arquitectura scale-out). Hoy Isilon ha evolucionado y constituye la mejor plataforma sobre la que desarrollar un Data Lake.

Escalabilidad y Gestión
La información se duplica cada dos años. Eso significa que en los dos próximos años nuestro Datacenter contendrá el doble de la información que contiene hoy, y dos años después el cuádruple. Por tanto, un requerimiento básico del Data Lake es la escalabilidad, la capacidad de adaptarse al crecimiento frenético del volumen de información sin generar cuellos de botella.
Un sistema Isilon crece a base de nodos independientes, que contienen tanto almacenamiento como CPUs, un tipo de arquitectura que favorece lo que llamamos escalabilidad horizontal o scale-out: cada vez que añadimos una pieza al sistema, éste crece tanto en capacidad como en potencia de proceso.
En su configuración máxima actual, Isilon alcanza 50PB (50.000TB!), lo que permite mantener el ritmo de crecimiento que el Big Data impone. Además, presenta todo ese volumen de datos como un único sistema de ficheros y un único disco lógico, compartido y accesible desde cualquier nodo. O sea, un repositorio único, de gestión sencilla, donde el mismo fichero está disponible para su acceso universal sin controladoras dedicadas.

EMC SCALE OUTInteroperatividad y Acceso Inmediato
El Data Lake se alimenta de múltiples aplicaciones a través de variados métodos de acceso; Isilon soporta los habituales protocolos asociados con el acceso a ficheros (NFS, CIFS, FTP), a los que se añaden los métodos de acceso típicos de los objetos (REST, SWIFT, S3, HTTP), los específicos de Backup (NDMP) o los asociados con analíticas de datos desestructurados (HDFS) de distintas distribuciones Open Source, entre las que se encuentran Apache, Pivotal, Hortonworks y Cloudera.
Además, habilita el acceso al mismo contenido a través de distintos protocolos de forma simultánea; por ejemplo, se pueden ejecutar analíticas de Hadoop sobre los objetos o ficheros generados por otras aplicaciones de forma inmediata, respetando sus formatos originales y sin necesidad de moverlos o copiarlos, lo que favorece el uso inmediato y sin esperas de la información, acabando con la tradicional incomunicación de los silos de información.

Interoperatividad en el data lake
Data Lake empresarial
Hay otras muchas razones por las que Isilon aporta un valor diferencial al Data Lake. Pensemos, por ejemplo, en el proceso periódico de refresco tecnológico. Esta tarea tradicionalmente ha sido una pesadilla en cualquier entorno, puesto que consiste en mover la información desde la tecnología antigua hacia la nueva, intentando que este proceso se realice límpiamente, con un consumo de recursos limitado y sin afectar a la producción. ¿Cómo puedo cumplir esos objetivos cuando el entorno a refrescar sea un repositorio con un volumen de datos sin precedentes (PB) y desestructurados?
La respuesta es, una vez más, apoyarse en la tecnología para hacer el proceso más sencillo. La arquitectura scale-out Isilon permite expandirse sin interrupción, con nodos de generaciones diferentes, balanceando datos y cargas de forma automática entre todos ellos. También permite retirar sin interrupción cualquier tipo de nodos, balanceando las cargas y los datos entre los nodos supervivientes. Este proceso elimina la necesidad de migración de los datos, y lo sustituye por una expansión y reducción del sistema, al final de lo cual habrá sido refrescado.

Refresco tecnológico data lakeY en fin, otras buenas razones tienen que ver con las funcionalidades que cabe esperar de cualquier infraestructura de EMC tales como disponibilidad, réplicas locales y remotas, o calidad del soporte técnico, elementos más conocidos en cualquier entorno.
Isilon está redefiniendo este mercado; lo que fue una herramienta de almacenamiento NAS se ha convertido en el auténtico cimiento del Data Lake, acelerando la adopción de este concepto mediante un despliegue rápido, sencillo, y sobre todo, seguro.

Videos Recomendados

Expand The Data Lake: New Data Lake, New Breakthroughs

Archivo del Blog

  • 2016 3
  • 2015 20
  • 2014 7
  • 2013 16
  • 2012 21
facebook
twitter
linkedin
youtube
rss