Author Archive

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Primer Paso: Business Data Lake

Las empresas han tomado conciencia de que la aparición y crecimiento de nuevas fuentes de datos, junto con las tecnologías Big Data y los nuevos enfoques analíticos, ofrecen una oportunidad sin precedentes para impulsar nuevos modelos de negocio e incrementar sus ventajas competitivas.

En este entorno, Hadoop ha pasado a formar parte de la visión estratégica de los negocios, dando lugar a un ecosistema complejo, cada vez más preparado para dar respuesta a distintos retos: análisis masivo de información, respuestas a eventos en tiempo real (Fast Data), distintos lenguajes de programación, interfaces SQL, procesado de datos en memoria

Una de las mayores preocupaciones consiste en saber por dónde empezar a construir toda esta arquitectura de negocio, cuál es la primera piedra; la respuesta está en el Data Lake, al que ya hemos dedicado un par de entradas en este blog; una de ellas es El sueño del Data Lake.

A principios de esta semana, EMC ha anunciado su solución Business Data Lake (BDL), que proporciona la capacidad de generar un Lago de Datos de nivel empresarial, alineado con las prioridades del negocio, y que permite agilizar la extracción de valor de los datos.

El Business Data Lake de EMC es una plataforma convergente que incorpora el almacenamiento, computación y los motores analíticos necesarios para ofrecer una plataforma de explotación de datos eficaz, proporcionando además capacidades de autoservicio, gestión extremo a extremo, integración y aprovisionamiento de todo el entorno de Big Data a través de bloques preconfigurados.

Aunque la solución permite combinar el valor de la Federación EMC al completo, con la virtualización de VMware y las capacidades analíticas de Pivotal, también es posible sustituir las plataformas analíticas por otras tales como Cloudera o Hortonworks, o incorporar distintas aplicaciones y bases de datos tales como Tableau, SAS o MongoDB en tiempo de lanzamiento, a los que se irán incorporando otros actores.

Business Data LakeInteroperabilidad clave

Quizá sea la interoperabilidad uno de los aspectos más interesantes de la solución. Esto se ha conseguido gracias a un significativo esfuerzo de ingeniería, orientado no sólo a garantizar que todas estas tecnologías funcionan en conjunto, sino a orquestar las funciones claves del Data Lake, tales como la ingesta de datos, el aprovisionamiento de aplicaciones, la seguridad o la gobernanza del entorno.

De esta forma, la integración con las soluciones de EMC permite ejecutar cualquiera de los componentes de las plataformas PivotalHD, Cloudera Enterprise o Hortonworks Data Platform, sobre las infraestructuras scale-out Isilon propuestas en el BDL; SAS integra y optimiza para el BDL su plataforma analítica, lo que permite crear y administrar sus modelos sobre una arquitectura de última generación.

Los ejemplos anteriores refuerzan el compromiso de todas estas compañías, y de EMC, con la interoperabilidad que estos entornos abiertos y críticos requieren, fortaleciendo la capacidad de elección del cliente.

El Business Data Lake refleja, en definitiva, un esfuerzo conjunto entre EMC y sus partners, que incluye el hardware, software y la integración e ingeniería necesaria para definir un primer paso sencillo y veloz que permita a las organizaciones innovar y comenzar a obtener valor de este fenómeno imparable del Big Data.

Redefinición de requerimientos: Del NAS al Data Lake

gooHace un par de semanas dedicábamos una entrada al Data Lake, ese repositorio hiperescalable, capaz de contener toda la información que una organización necesita, en el formato en que se haya generado y accesible por múltiples aplicaciones; el concepto contrario a silos de información incomunicada.
Como otros grandes conceptos emergentes (Big Data, Cloud, Internet of Things), la expresión ‘Data Lake’ es atractiva en sí misma y algo abstracta, define un concepto lógico de alto nivel. Por ello hoy toca bajar a suelo y reflexionar sobre la importancia de la infraestructura en la generación de un auténtico Lago de los Datos.
Lo primero es analizar el tipo de información que necesitamos almacenar; la información desestructurada representa cerca del 80% de los datos generados en el mundo actualmente. Por tanto este es el tipo de información prioritaria en el Data Lake: Más que Bases de Datos tradicionales son Ficheros y Objetos, documentos office, vídeos, grabaciones de voz, registros de máquinas…casi cualquier cosa.
EMC dispone de una herramienta especializada en este tipo de información, la gama Isilon, un sistema que en origen nació como un almacenamiento orientado a ficheros (NAS) y con una gran capacidad de crecimiento horizontal (arquitectura scale-out). Hoy Isilon ha evolucionado y constituye la mejor plataforma sobre la que desarrollar un Data Lake.

Escalabilidad y Gestión
La información se duplica cada dos años. Eso significa que en los dos próximos años nuestro Datacenter contendrá el doble de la información que contiene hoy, y dos años después el cuádruple. Por tanto, un requerimiento básico del Data Lake es la escalabilidad, la capacidad de adaptarse al crecimiento frenético del volumen de información sin generar cuellos de botella.
Un sistema Isilon crece a base de nodos independientes, que contienen tanto almacenamiento como CPUs, un tipo de arquitectura que favorece lo que llamamos escalabilidad horizontal o scale-out: cada vez que añadimos una pieza al sistema, éste crece tanto en capacidad como en potencia de proceso.
En su configuración máxima actual, Isilon alcanza 50PB (50.000TB!), lo que permite mantener el ritmo de crecimiento que el Big Data impone. Además, presenta todo ese volumen de datos como un único sistema de ficheros y un único disco lógico, compartido y accesible desde cualquier nodo. O sea, un repositorio único, de gestión sencilla, donde el mismo fichero está disponible para su acceso universal sin controladoras dedicadas.

EMC SCALE OUTInteroperatividad y Acceso Inmediato
El Data Lake se alimenta de múltiples aplicaciones a través de variados métodos de acceso; Isilon soporta los habituales protocolos asociados con el acceso a ficheros (NFS, CIFS, FTP), a los que se añaden los métodos de acceso típicos de los objetos (REST, SWIFT, S3, HTTP), los específicos de Backup (NDMP) o los asociados con analíticas de datos desestructurados (HDFS) de distintas distribuciones Open Source, entre las que se encuentran Apache, Pivotal, Hortonworks y Cloudera.
Además, habilita el acceso al mismo contenido a través de distintos protocolos de forma simultánea; por ejemplo, se pueden ejecutar analíticas de Hadoop sobre los objetos o ficheros generados por otras aplicaciones de forma inmediata, respetando sus formatos originales y sin necesidad de moverlos o copiarlos, lo que favorece el uso inmediato y sin esperas de la información, acabando con la tradicional incomunicación de los silos de información.

Interoperatividad en el data lake
Data Lake empresarial
Hay otras muchas razones por las que Isilon aporta un valor diferencial al Data Lake. Pensemos, por ejemplo, en el proceso periódico de refresco tecnológico. Esta tarea tradicionalmente ha sido una pesadilla en cualquier entorno, puesto que consiste en mover la información desde la tecnología antigua hacia la nueva, intentando que este proceso se realice límpiamente, con un consumo de recursos limitado y sin afectar a la producción. ¿Cómo puedo cumplir esos objetivos cuando el entorno a refrescar sea un repositorio con un volumen de datos sin precedentes (PB) y desestructurados?
La respuesta es, una vez más, apoyarse en la tecnología para hacer el proceso más sencillo. La arquitectura scale-out Isilon permite expandirse sin interrupción, con nodos de generaciones diferentes, balanceando datos y cargas de forma automática entre todos ellos. También permite retirar sin interrupción cualquier tipo de nodos, balanceando las cargas y los datos entre los nodos supervivientes. Este proceso elimina la necesidad de migración de los datos, y lo sustituye por una expansión y reducción del sistema, al final de lo cual habrá sido refrescado.

Refresco tecnológico data lakeY en fin, otras buenas razones tienen que ver con las funcionalidades que cabe esperar de cualquier infraestructura de EMC tales como disponibilidad, réplicas locales y remotas, o calidad del soporte técnico, elementos más conocidos en cualquier entorno.
Isilon está redefiniendo este mercado; lo que fue una herramienta de almacenamiento NAS se ha convertido en el auténtico cimiento del Data Lake, acelerando la adopción de este concepto mediante un despliegue rápido, sencillo, y sobre todo, seguro.

Un paso más de Big Data hacia Open Source.

Hace un año escribí una entrada en este mismo blog cuyo título era ‘Cloud es demasiado importante para ser propietario’, donde reflexionaba sobre la conversión de Cloud Foundry en una fundación abierta. Hoy el título podría haber sido ‘Big Data es demasiado importante para ser propietario’.

Esta semana se ha anunciado un acuerdo estratégico de colaboración entre Pivotal y Hortonworks; son dos de los grandes distribuidores de Hadoop, esa plataforma software que permite almacenar, gestionar y procesar grandes cantidades de información y que es una de las piezas clave del fenómeno Big Data.

A través de una iniciativa denominada ODP (Open Data Platform), ambas compañías establecen su voluntad de colaborar en el desarrollo de un núcleo común de Hadoop, para facilitar la compatibilidad básica entre distintas distribuciones.

De esta manera Hortonworks pasa a proporcionar soporte de ingeniería para el núcleo de ambas distribuciones de Hadoop, la de Pivotal y la suya propia, y Pivotal libera el software incluido en su Big Data suite, que incluye bases de datos SQL como Greenplum y HAWQ así como bases de datos no-SQL como Gemfire, permitiendo a cualquiera la descarga, el uso o modificación del código e incluso promoviendo su colaboración para futuras versiones.

Pivotal y Hortonworks ya venían colaborando desde el pasado mes de julio en el proyecto Apache Ambari, cuya finalidad es la de facilitar la gestión de clusters de Hadoop a través del desarrollo de software de administración y aprovisionamiento.

Pivotal tras los pasos de Cloud FoundryPivotal HD, tras los pasos de Cloud Foundry

‘Coopetidores’

Además de Hortonworks y Pivotal otras grandes compañías se han sumado a la Open Data Platforma, con el objetivo de promover la adopción de Hadoop; entre ellas encontramos gigantes como VMware, Cap Gemini, IBM, o GE, quien construye sobre esta plataforma gran cantidad de software industrial orientado a la analítica de datos.

Una plataforma tan grande y tan compleja como Hadoop requiere la mayor colaboración posible entre distintos proveedores, si queremos favorecer la adopción por parte de los clientes; se trata de evitar que puedan sentirse prisioneros de una distribución determinada.

En definitiva, estamos ante un ejemplo de ‘Coopetencia’ esa mezcla de cooperación y competencia entre empresas para empujar una iniciativa común en beneficio del conjunto del mercado.

 

TIC, Formación y Empleo

En las dos últimas semanas he representado a EMC en un par de eventos, orientados a promover la colaboración entre las empresas tecnológicas y las administraciones, con el objetivo de reducir el desempleo a través de la formación.

La idea de partida es sencilla. España es un país con un alto índice de formación universitaria, pero existe una brecha importante entre lo que la Universidad ofrece y lo que las empresas demandan; así, mientras la universidad certifica un ingeniero informático, por ejemplo, las empresas demandan un gestor de almacenamiento certificado por EMC, un programador Java certificado por Oracle o un administrador de Windows.

El resultado de esta brecha, es que existe una demanda de profesionales de tecnologías de la información que las empresas no son capaces de cubrir, en un país donde el desempleo es el más serio de los problemas.

Con esto en mente, la administración aragonesa fue pionera, hace dos años, en la puesta en marcha de un programa de Formación Certificada en Tecnologías de la Información y Comunicaciones, que se desarrolla en el Centro de Tecnologías Avanzadas (CTA) de Zaragoza.

Como parte del programa, al que se acaba de incorporar EMC, se imparten diversos cursos oficiales de los principales fabricantes, lo que proporciona acceso a sus certificaciones. Se trata de cursos diseñados y actualizados permanentemente por las empresas de tecnología, para dar respuesta a las demandas del mercado.

Director del CTA presenta a las autoridades la Tercera PlataformaEl Director del CTA presenta a las autoridades la Tercera Plataforma

Inserción laboral

El éxito del programa se mide en cifras: La inserción laboral del programa TIC es del 74%, lo que significa que tres cuartas partes de los asistentes han encontrado un puesto de trabajo, directamente relacionado con el contenido de los cursos, en menos de 6 meses. De acuerdo con los estudios de la administración, ninguna otra política activa de empleo mejora estos resultados.

Por ello, el CTA aragonés ha sido declarado por el Consejo de Ministros: Centro Nacional de Referencia, en un acto al que se quiso dotar de solemnidad mediante la presencia de la Ministra de Empleo y la Presidenta del Gobierno de Aragón. Fátima Báñez señaló que la formación impartida por el CTA es, por su calidad, un ejemplo para todo el país; Luisa Fernanda Rudi, por su parte, destacó la colaboración entre administración pública y empresa privada en la búsqueda de un objetivo común.

En cuanto a las empresas de tecnología, es un placer comprobar el ambiente de colaboración existente entre habituales competidores, así como el reconocimiento hacia las TIC como factor de empleo y bienestar social; para nosotros, este tipo de iniciativas son muy positivas, tanto por el objetivo final de la inserción laboral como desde el punto de vista de la propagación y actualización del conocimiento, en beneficio de la comunidad TIC. Es por ello motivo de satisfacción saber que este modelo de referencia aragonés va a ser replicado en otras comunidades. Allí estaremos.

 

 

Tecnología: La Banca gana.

Una de las tareas habituales en mi día a día, es la de tratar de concienciar a mis interlocutores acerca de la importancia de la tecnología para la eficiencia y la competitividad del negocio. A veces no es tan sencillo: Parece que los mensajes están más cercanos a nuestros deseos como proveedores de tecnología que a la realidad del negocio.

Es un auténtico placer ver que esta semana han sido los presidentes de los dos mayores bancos españoles, Ana Botín y Francisco González, quienes han reflexionado en público sobre la transformación digital de la banca y su importancia estratégica.

La presidenta del Santander definió a los cuatro grandes de internet como una amenaza competitiva, a la que se mostró dispuesta a hacer frente, hizo referencia a la seguridad de los datos en internet (Cloud), y explicó como los modernos dispositivos inteligentes (Movilidad, Internet de la Cosas) van a impactar sensiblemente ciertas áreas del negocio tradicional, como los medios de pago.

El presidente del BBVA, cuya apuesta por la tecnología es bien conocida, también mencionó a los grandes de internet como competidores, habló entre otras cosas de la necesidad de capturar la información en tiempo real (Fast Data), de la guerra para captar al cliente digital (Social Business) y explicó que el marketing tradicional está evolucionando hacia la analítica precisa y basadada en datos de comportamientos de clientes (Big Data).

Tendencias 2015

Un fenómeno generalizado

Esta transformación no es exclusiva de la banca, la podemos observar por ejemplo en el sector asegurador, en el que la predicción de contingencias forma parte del análisis de riesgos; o en la industria de la automoción, que ha convertido un automóvil en un conjunto de sensores para recoger posibles contingencias y software para responder a ellas; en la medicina, en la investigación, en las ciudades inteligentes, en el deporte, en las comunicaciones…

Es motivador observar como el negocio reconoce un nuevo valor en las tecnologías de la información, no sólo en la permanente búsqueda de eficiencia y reducción de costes, sino como base para el desarrollo de nuevos productos y servicios, como herramienta de marketing capaz de alcanzar al cliente allí donde se encuentre o como arma competitiva de primer orden. TI es parte nuclear del negocio.

Francisco González vaticinó esta semana que los bancos estarán presididos en el futuro por ejecutivos que sepan de Algorítmica, Big Data y Tecnología. Ya no podemos decir que el negocio minusvalora las TI.

El sueño del Data Lake

Si hoy nadie duda del valor de la información para las empresas, el fenómeno de Big Data ha acelerado el interés de las organizaciones alrededor de la explotación masiva del valor que para el negocio se oculta en los datos.

Sin embargo, lo normal es que esta información siga estando prisionera de los sistemas que la generaron así tenemos los registros financieros, los de ventas, los que vienen de sensores de la línea de fabricación, los contratos, los vídeos de seguridad…aunque transformamos y enviamos algunos de estos datos a un Data Warehouse, esto no significa una completa reutilización de la información por distintas aplicaciones, o lo que es lo mismo, no significa una explotación integral de los datos por distintas unidades de negocio.

EMC DATA LAKES

El concepto de Data Lake, un repositorio lógico e hiperescalable de información, viene motivado por la necesidad de movilizar la información, haciéndola accesible bien para su uso estadístico y analítico, bien para ser embebida en otro tipo de aplicaciones y procesos. Esto es, tiene que ver con liberar y explotar la información de los silos en los que se encuentra estancada.

Toda la Información

Pero ¿de qué tipo de información estamos hablando? De toda. Estructurada o desestructurada, interna o externa, de seguridad o financiera, tiempo real o batch. El Data Lake ideal contiene toda la información que el negocio necesita para su actividad, crecimiento y desarrollo competitivo.

Por ejemplo, la información de las redes sociales recolectada por el área de Marketing es relevante para conocer mejor a tu cliente, verificar el grado de aceptación de un competidor en el mercado o para entender el ruido generado por un determinado incidente con uno de nuestros productos; o sea, todo eso que llamamos análisis de sentimientos, tan importante en la estrategia de ventas e imagen de marca. Pero esa misma información también puede ser de utilidad para perfeccionar nuestros mecanismos de atención al cliente, de fabricación o de logística, incluso adelantando necesidades antes de que éstas realmente se manifiesten.

De la misma forma, los registros de actividad (logs) y secuencias de clics generados por los distintos dispositivos de nuestra plataforma de comercio electrónico, contienen información valiosa que nos permite entender el comportamiento de los usuarios, lo que es tan relevante para las áreas de seguridad como para las áreas de marketing. La misma información puede ser utilizada para proporcionar distintos ángulos a distintas unidades de negocio.

El Data Lake no sólo se nutre de datos internos de la organización. Cierta información externa, como la que tiene su origen en los mercados de futuros, los datos meteorológicos o calendarios de eventos, puede servirnos para planificar nuestras finanzas o definir nuestras políticas de precios, incluso de forma automática: si conozco el impacto del encarecimiento del petróleo en mis costes, puedo adaptar de forma automática mis tarifas, lo que reduce la posibilidad de errores e incrementa mi agilidad frente a la competencia.

Data Lake no es igual que Data Base.

A diferencia de las bases de datos, en el Data Lake se almacenan los datos tal cual se generaron, en su formato original y antes de someterlos a ninguna transformación o modelización, lo que permite garantizar que no han perdido ningún aspecto de la información original. Esta ingesta masiva es posible porque su escalabilidad es muy grande y sus costes muy bajos, tanto en términos de software como de hardware o gestión; no son comparables a los costes de una base de datos tradicional.

Otro aspecto diferencial es la riqueza de metadatos, datos que hablan de los datos, necesarios para mantener la seguridad y trazabilidad del dato, y que constituyen una fuente de valor añadido al aportar información sobre el contexto.

El concepto del Data Lake no es el de un archivo estático donde la información envejece y cumple su ciclo de vida; se trata de un repositorio activo y estratégico, capaz de crecer al ritmo que lo hagan la organización y las nuevas ideas, facilitando la ingesta, el cruce y la reutilización de información en cualquier formato. También permite la construcción de aplicaciones que puedan utilizar sus datos directamente, incluso en tiempo real, incrementando la inteligencia del negocio y posibilitando la respuesta inmediata ante ciertos eventos.

El Data Lake conjuga el valor de la información del negocio con las posibilidades que la ciencia de los datos proporciona, y es el sustrato en el que se apoya el desarrollo de un nuevo tipo de aplicaciones predictivas, de alto valor añadido, embebidas en los procesos de la organización y que favorecen el desarrollo de innovadores modelos de negocio.

 

Especial Tecnología y Deporte en Para Todos La2

Para Todos La2 contó de nuevo con EMC para uno de sus debates. En esta ocasión se trató de “Tecnología y Deporte”. Con este marco de fondo, el programa elaboró un reportaje sobre la Barcelona World Race, de la que EMC es patrocinador tecnológico, y organizó una mesa debate en la que participamos Josep Escada del Centro de Alto Rendimiento Deportivo, Juanjo Pardo y yo.

Aquí os dejo el debate completo sobre “La Tecnología en el deporte” espero os resulte interesante.

A Propósito De La Nube. Aplicaciones (4)

Una vez acometida la transformación de la infraestructura, y habiendo experimentado los beneficios de la virtualización de aplicaciones de misión crítica, la siguiente necesidad será la de mover aplicaciones de unas infraestructuras a otras, para alcanzar nuevos niveles de agilidad y eficiencia.

Este es el momento oportuno para modernizar nuestro portfolio de aplicaciones, hacerlas más flexibles y prepararnos para responder más rápidamente a las necesidades de negocio.

Aplicaciones

Estas necesidades son nuevas y más exigentes que nunca. Pensemos en algunas de las nuevas compañías que operan en internet, donde con sólo unas docenas de empleados se proporciona servicio a millones de clientes. Esto requiere nuevas formas de gestar aplicaciones.

  • Las nuevas aplicaciones se escriben utilizando entornos de programación modernos que permitan abordar las necesidades de crecimiento y movilidad dentro de la nube o entre nubes.
  • En estos entornos los programadores no necesitan pensar en la infraestructura, la provisión de recursos físicos o la operativa. Simplemente necesitan focalizar en la lógica de negocio y programación, haciendo un uso eficiente de las inversiones realizadas para transformar la infraestructura en un servicio, sean de nube privada o pública.  
  • Las nuevas aplicaciones no se construyen con middleware heredado. Aquellos componentes caros, propietarios o que encadenen a un proveedor determinado serán descartados. El nuevo conjunto de aplicaciones utilizan middleware más ligero y arquitecturas portables, preparadas para funcionar en entornos virtuales y de nube, caracterizados por un bajo consumo de recursos y una escalabilidad ilimitada.  
  • El centro de gravedad de las nuevas aplicaciones son los datos. La aparición del concepto de ‘Lago de los Datos’ describe la convergencia entre las bases de datos tradicionales y aproximaciones más modernas a la infraestructura de los datos. Las más importantes características del ‘Lago de los Datos’ son la capacidad de almacenar y escalar sin límites así como de procesar cualquier cantidad de datos, en cualquier formato en un tiempo predecible; por tanto tiene que ser elástico, escalable, disponible, rápido y … barato

Adicionalmente, este repositorio tiene que disponer de otros servicios que pueden ser requeridos para hacer frente a determinadas necesidades del negocio, como tiempo real para reaccionar ante eventos de forma inmediata o interfaces amigables para los usuarios actuales de Inteligencia de Negocio.    

A Propósito De La Nube. Operativa (3)

La adaptación del departamento de TI durante la transformación a un modelo de autoservicio y pago por uso, requiere una serie de cambios básicos en los roles y procesos que permitan una respuesta más ágil a los requerimientos del negocio.

Nube. Operativa

Algunos de los pasos dados en la evolución de la infraestructura física aceleran esta transformación: por ejemplo, la virtualización masiva simplifica el proceso de despliegue de nueva infraestructura, al eliminar tareas anteriormente problemáticas, como el proceso de compra de infraestructura física asociado con cada nuevo proyecto; también, la estandarización de plataformas simplifica la planificación de capacidad, al eliminar la complejidad asociada con entornos multiplataforma.

Sin embargo, la pieza clave es el Software, responsable de gestionar toda la infraestructura y de proporcionar la seguridad, disponibilidad y agilidad requerida independientemente del hardware subyacente. Alguna de las tareas requeridas en el Datacenter Definido Por Software son:

  • Generación del catálogo de servicios que resume la oferta de TI hacia las unidades de negocio, y que puede ser auto-provisionada por los usuarios mediante un portal a su disposición. Sean administradores de sistemas, desarrolladores o usuarios de negocio, disponen de una oferta orientada específicamente a su rol, que cumple con las políticas definidas por la organización.
  • Plataformas de virtualización del conjunto de la infraestructura física, incluyendo servidores, almacenamiento o redes, lo que permite construir una arquitectura de nube al mínimo coste posible.
  • Elementos de automatización de la nube y de integración con otros elementos y servicios de gestión, tales como la seguridad, que requieren que los administradores y arquitectos puedan generar flujos de trabajo lo más industrializados posible.
  • Herramientas de monitorización para controlar el nivel de servicio, y por tanto la capacidad, rendimiento y funcionamiento general de la infraestructura, así como métricas de eficiencia.
  • Capacidad para relacionar la calidad del nivel de servicio con los costes en un entorno del que se supone que responde a las demandas del negocio.

Todo este ecosistema ha de estar preparado para funcionar correctamente en un entorno abierto, en el que la infraestructura física que compone la nube puede pertenecer a distintos proveedores así como distintos pueden ser los sistemas operativos, hipervisores, etc.

A Propósito De La Nube. Infraestructura Física (2)

Ya sabemos que las organizaciones se dirigen hacia el consumo de TI como un servicio, basado en un catálogo, transparente desde el punto de vista financiero, orientado a las necesidades del negocio, y cuyos niveles de servicio se encuentran acordados entre las partes. Este catálogo debe incluir todos los componentes necesarios para la implantación de un servicio, incluyendo la infraestructura física.    

Infraestructura física

También sabemos que en este modelo el usuario paga solamente por aquello que consume, cuando lo consume. Esto tiene un impacto sobre la infraestructura física, que ahora tiene que responder a nuevos requerimientos como crecimiento bajo demanda, simplicidad y velocidad de despliegue, escalabilidad ilimitada, y competitividad en costes; algunas estrategias para alcanzar estos objetivos son:

  • Estandarización, que ofrece ventajas tanto desde el punto de vista económico como operativo y de gestión. Esto fomenta la proliferación de plataformas hardware uniformemente basadas en arquitecturas de consumo masivo x86, y consolidadas en sistemas operativos VMware, Microsoft o Linux; también ha favorecido la aparición de las llamadas infraestructuras convergentes, que contienen todos los elementos de proceso, almacenamiento o red necesarios para el despliegue de una nube.  
  • Virtualización masiva de las infraestructuras, que comenzó como una estrategia de reducción de costes asociada a la adquisición de servidores y que se ha extendido a toda la infraestructura, incluyendo el almacenamiento y la red; es la vía para proporcionar una calidad de servicio óptima y máxima flexibilidad ante el cambio.
  • Automatización, necesaria para proporcionar infraestructura bajo demanda; esta tarea se lleva a cabo mediante el software, que es quien aporta realmente valor a una infraestructura hardware escasamente diferenciada, y es el origen del fenómeno que conocemos como ‘Datacenter Definido Por Software’

Uno de los objetivos del Datacenter Definido Por Software es proporcionar la necesaria interoperabilidad entre diferentes nubes, privadas o públicas, permitiendo el movimiento de datos y procesos en ambas direcciones, y creando una auténtica federación de nubes gestionadas desde un único punto.

Esta nube híbrida, proporciona la capacidad para escalar dinámicamente y responder a demandas de negocio impredecibles, lo que es percibido por el negocio como una clara mejora en términos de alineamiento, eficiencia y satisfacción para el usuario final, mientras que la dirección de TI tendrá una clara percepción de ahorro económico.


Videos Recomendados

Expand The Data Lake: New Data Lake, New Breakthroughs

Archivo del Blog

  • 2016 3
  • 2015 20
  • 2014 7
  • 2013 16
  • 2012 21
facebook
twitter
linkedin
youtube
rss