Posts Tagged ‘Big Data’

La apuesta por el Open Source

Son ya unos cuantos años trabajando para EMC como para haber vivido en primera persona las transformaciones en las que la compañía se ha embarcado durante este tiempo. Algunas de esas transformaciones han sido por motivos internos y otras por motivos externos, pero siempre ha existido un agente de cambio, algo muy importante para que una organización continúe en la brecha.

Pero sin duda, la transformación en la que estamos ahora mismo embarcados es la mayor de todas las que he vivido. ¡No resiste comparación! Y uno de los anuncios fundamentales dentro de esta transformación, es la apuesta decidida de EMC por el “open source”.

Este camino comenzó primero en Pivotal, miembro de la Federación EMC, con la creación de la plataforma ODP (Open Data Platform) anunciada a comienzos de este año 2015. Esta iniciativa es un esfuerzo de las principales compañías alrededor del mercado de Big Data para promocionar y facilitar el uso de Apache Hadoop y las tecnologías de Big Data orientadas a las empresas. En el caso de Pivotal, este movimiento se vio plasmado con el anuncio de la última versión de Pivotal Big Data Suite, compatible con el mencionado estándar.

Posteriormente, fue también el anuncio por parte de Pivotal que iba a llevar al mundo Open Source componentes fundamentales de su solución como son Pivotal HAWQ, Pivotal GreenPlum Database y Pivotal GemFire.

Y recientemente ha recibido un espaldarazo muy importante cuando en el marco del evento anual de usuarios EMC World en Las Vegas, fue anunciado el proyecto CoprHD.

VIPR CONTROLLER

Bajo el paraguas de este proyecto, EMC ha liberado a la comunidad, el código fuente de ViPR Controller (Ver infografía), pieza clave en nuestra estrategia de Software Defined Storage. Con este movimiento, que no será el último en este año, se reafirma el compromiso con la estrategia Open Source y permitir enriquecer con desarrollos de terceros, productos claves en el portfolio EMC.

Sigo pensando que la mayoría de los clientes optarán por comprar una solución completa (compuesta por hardware, software y servicios) que les alivie de las tareas de integración y que por tanto, solo quieran concentrarse en obtener los beneficios que esta solución pueda aportar tanto desde un punto de vista tecnológico como de negocio.

Pero llevando el código al mundo Open Source, creará a la vez un ecosistema mucho más rico donde se puedan evaluar los productos de una manera más libre y al alcance de un mayor número de usuarios, lo que redundará en un beneficio de todos. En definitiva, y como suelo decir últimamente; dar a los clientes “libertad de elección”.

Primer Paso: Business Data Lake

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Las empresas han tomado conciencia de que la aparición y crecimiento de nuevas fuentes de datos, junto con las tecnologías Big Data y los nuevos enfoques analíticos, ofrecen una oportunidad sin precedentes para impulsar nuevos modelos de negocio e incrementar sus ventajas competitivas.

En este entorno, Hadoop ha pasado a formar parte de la visión estratégica de los negocios, dando lugar a un ecosistema complejo, cada vez más preparado para dar respuesta a distintos retos: análisis masivo de información, respuestas a eventos en tiempo real (Fast Data), distintos lenguajes de programación, interfaces SQL, procesado de datos en memoria

Una de las mayores preocupaciones consiste en saber por dónde empezar a construir toda esta arquitectura de negocio, cuál es la primera piedra; la respuesta está en el Data Lake, al que ya hemos dedicado un par de entradas en este blog; una de ellas es El sueño del Data Lake.

A principios de esta semana, EMC ha anunciado su solución Business Data Lake (BDL), que proporciona la capacidad de generar un Lago de Datos de nivel empresarial, alineado con las prioridades del negocio, y que permite agilizar la extracción de valor de los datos.

El Business Data Lake de EMC es una plataforma convergente que incorpora el almacenamiento, computación y los motores analíticos necesarios para ofrecer una plataforma de explotación de datos eficaz, proporcionando además capacidades de autoservicio, gestión extremo a extremo, integración y aprovisionamiento de todo el entorno de Big Data a través de bloques preconfigurados.

Aunque la solución permite combinar el valor de la Federación EMC al completo, con la virtualización de VMware y las capacidades analíticas de Pivotal, también es posible sustituir las plataformas analíticas por otras tales como Cloudera o Hortonworks, o incorporar distintas aplicaciones y bases de datos tales como Tableau, SAS o MongoDB en tiempo de lanzamiento, a los que se irán incorporando otros actores.

Business Data LakeInteroperabilidad clave

Quizá sea la interoperabilidad uno de los aspectos más interesantes de la solución. Esto se ha conseguido gracias a un significativo esfuerzo de ingeniería, orientado no sólo a garantizar que todas estas tecnologías funcionan en conjunto, sino a orquestar las funciones claves del Data Lake, tales como la ingesta de datos, el aprovisionamiento de aplicaciones, la seguridad o la gobernanza del entorno.

De esta forma, la integración con las soluciones de EMC permite ejecutar cualquiera de los componentes de las plataformas PivotalHD, Cloudera Enterprise o Hortonworks Data Platform, sobre las infraestructuras scale-out Isilon propuestas en el BDL; SAS integra y optimiza para el BDL su plataforma analítica, lo que permite crear y administrar sus modelos sobre una arquitectura de última generación.

Los ejemplos anteriores refuerzan el compromiso de todas estas compañías, y de EMC, con la interoperabilidad que estos entornos abiertos y críticos requieren, fortaleciendo la capacidad de elección del cliente.

El Business Data Lake refleja, en definitiva, un esfuerzo conjunto entre EMC y sus partners, que incluye el hardware, software y la integración e ingeniería necesaria para definir un primer paso sencillo y veloz que permita a las organizaciones innovar y comenzar a obtener valor de este fenómeno imparable del Big Data.

Un paso más de Big Data hacia Open Source.

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Hace un año escribí una entrada en este mismo blog cuyo título era ‘Cloud es demasiado importante para ser propietario’, donde reflexionaba sobre la conversión de Cloud Foundry en una fundación abierta. Hoy el título podría haber sido ‘Big Data es demasiado importante para ser propietario’.

Esta semana se ha anunciado un acuerdo estratégico de colaboración entre Pivotal y Hortonworks; son dos de los grandes distribuidores de Hadoop, esa plataforma software que permite almacenar, gestionar y procesar grandes cantidades de información y que es una de las piezas clave del fenómeno Big Data.

A través de una iniciativa denominada ODP (Open Data Platform), ambas compañías establecen su voluntad de colaborar en el desarrollo de un núcleo común de Hadoop, para facilitar la compatibilidad básica entre distintas distribuciones.

De esta manera Hortonworks pasa a proporcionar soporte de ingeniería para el núcleo de ambas distribuciones de Hadoop, la de Pivotal y la suya propia, y Pivotal libera el software incluido en su Big Data suite, que incluye bases de datos SQL como Greenplum y HAWQ así como bases de datos no-SQL como Gemfire, permitiendo a cualquiera la descarga, el uso o modificación del código e incluso promoviendo su colaboración para futuras versiones.

Pivotal y Hortonworks ya venían colaborando desde el pasado mes de julio en el proyecto Apache Ambari, cuya finalidad es la de facilitar la gestión de clusters de Hadoop a través del desarrollo de software de administración y aprovisionamiento.

Pivotal tras los pasos de Cloud FoundryPivotal HD, tras los pasos de Cloud Foundry

‘Coopetidores’

Además de Hortonworks y Pivotal otras grandes compañías se han sumado a la Open Data Platforma, con el objetivo de promover la adopción de Hadoop; entre ellas encontramos gigantes como VMware, Cap Gemini, IBM, o GE, quien construye sobre esta plataforma gran cantidad de software industrial orientado a la analítica de datos.

Una plataforma tan grande y tan compleja como Hadoop requiere la mayor colaboración posible entre distintos proveedores, si queremos favorecer la adopción por parte de los clientes; se trata de evitar que puedan sentirse prisioneros de una distribución determinada.

En definitiva, estamos ante un ejemplo de ‘Coopetencia’ esa mezcla de cooperación y competencia entre empresas para empujar una iniciativa común en beneficio del conjunto del mercado.

 

El sueño del Data Lake

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Si hoy nadie duda del valor de la información para las empresas, el fenómeno de Big Data ha acelerado el interés de las organizaciones alrededor de la explotación masiva del valor que para el negocio se oculta en los datos.

Sin embargo, lo normal es que esta información siga estando prisionera de los sistemas que la generaron así tenemos los registros financieros, los de ventas, los que vienen de sensores de la línea de fabricación, los contratos, los vídeos de seguridad…aunque transformamos y enviamos algunos de estos datos a un Data Warehouse, esto no significa una completa reutilización de la información por distintas aplicaciones, o lo que es lo mismo, no significa una explotación integral de los datos por distintas unidades de negocio.

EMC DATA LAKES

El concepto de Data Lake, un repositorio lógico e hiperescalable de información, viene motivado por la necesidad de movilizar la información, haciéndola accesible bien para su uso estadístico y analítico, bien para ser embebida en otro tipo de aplicaciones y procesos. Esto es, tiene que ver con liberar y explotar la información de los silos en los que se encuentra estancada.

Toda la Información

Pero ¿de qué tipo de información estamos hablando? De toda. Estructurada o desestructurada, interna o externa, de seguridad o financiera, tiempo real o batch. El Data Lake ideal contiene toda la información que el negocio necesita para su actividad, crecimiento y desarrollo competitivo.

Por ejemplo, la información de las redes sociales recolectada por el área de Marketing es relevante para conocer mejor a tu cliente, verificar el grado de aceptación de un competidor en el mercado o para entender el ruido generado por un determinado incidente con uno de nuestros productos; o sea, todo eso que llamamos análisis de sentimientos, tan importante en la estrategia de ventas e imagen de marca. Pero esa misma información también puede ser de utilidad para perfeccionar nuestros mecanismos de atención al cliente, de fabricación o de logística, incluso adelantando necesidades antes de que éstas realmente se manifiesten.

De la misma forma, los registros de actividad (logs) y secuencias de clics generados por los distintos dispositivos de nuestra plataforma de comercio electrónico, contienen información valiosa que nos permite entender el comportamiento de los usuarios, lo que es tan relevante para las áreas de seguridad como para las áreas de marketing. La misma información puede ser utilizada para proporcionar distintos ángulos a distintas unidades de negocio.

El Data Lake no sólo se nutre de datos internos de la organización. Cierta información externa, como la que tiene su origen en los mercados de futuros, los datos meteorológicos o calendarios de eventos, puede servirnos para planificar nuestras finanzas o definir nuestras políticas de precios, incluso de forma automática: si conozco el impacto del encarecimiento del petróleo en mis costes, puedo adaptar de forma automática mis tarifas, lo que reduce la posibilidad de errores e incrementa mi agilidad frente a la competencia.

Data Lake no es igual que Data Base.

A diferencia de las bases de datos, en el Data Lake se almacenan los datos tal cual se generaron, en su formato original y antes de someterlos a ninguna transformación o modelización, lo que permite garantizar que no han perdido ningún aspecto de la información original. Esta ingesta masiva es posible porque su escalabilidad es muy grande y sus costes muy bajos, tanto en términos de software como de hardware o gestión; no son comparables a los costes de una base de datos tradicional.

Otro aspecto diferencial es la riqueza de metadatos, datos que hablan de los datos, necesarios para mantener la seguridad y trazabilidad del dato, y que constituyen una fuente de valor añadido al aportar información sobre el contexto.

El concepto del Data Lake no es el de un archivo estático donde la información envejece y cumple su ciclo de vida; se trata de un repositorio activo y estratégico, capaz de crecer al ritmo que lo hagan la organización y las nuevas ideas, facilitando la ingesta, el cruce y la reutilización de información en cualquier formato. También permite la construcción de aplicaciones que puedan utilizar sus datos directamente, incluso en tiempo real, incrementando la inteligencia del negocio y posibilitando la respuesta inmediata ante ciertos eventos.

El Data Lake conjuga el valor de la información del negocio con las posibilidades que la ciencia de los datos proporciona, y es el sustrato en el que se apoya el desarrollo de un nuevo tipo de aplicaciones predictivas, de alto valor añadido, embebidas en los procesos de la organización y que favorecen el desarrollo de innovadores modelos de negocio.

 

Cloud es demasiado importante para ser propietario

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Con este tweet Paul Maritz, CEO de Pivotal, anunciaba la conversión de Cloud Foundry en una Fundación, así como la puesta en marcha de un modelo de gobierno abierto y formal. CF, la iniciativa software de Platform-as-a-Service (PaaS) de Pivotal, podrá de esta forma evolucionar para convertirse en la base de todo un ecosistema de plataforma abierta.

Cloud Foundry nació como un proyecto de Open Source; pero siempre que se genera un proyecto de código abierto liderado por una empresa, la potencial comunidad de desarrolladores se pregunta acerca del grado de independencia de la plataforma, así como de los compromisos de desarrollo futuro.

La tentación para la empresa generadora es la de comenzar a tratarlo como software comercial, y el riesgo para la comunidad de desarrolladores es el de perder protagonismo, que sus necesidades no sean escuchadas, y con ello perder esfuerzos e inversiones realizadas alrededor de la plataforma.

El año pasado ya se creó un consejo asesor para reducir la preocupación derivada de que Pivotal fuera el único grupo liderando Cloud Foundry.

El siguiente paso, dado la semana pasada, ha sido el de crear una Fundación independiente, que ejerce la custodia de la estructura y gobernanza del proyecto. La Fundación cuenta con un consejo definido y los apropiados mecanismos de decisión, lo que permite a otras compañías y organizaciones con intereses en el proyecto involucrarse, directamente, en la estrategia y dirección de la hoja de ruta; además esto proporciona visibilidad de estos esfuerzos y transparencia al público en general.

Cloud Pública, Privada, Open Source

Cloud foundry

Ser miembro de la Fundación significa contribuir al núcleo de Cloud Foundry, pero eso no impide que cualquier empresa pueda crear alrededor del núcleo sus propios productos o extensiones específicas. En situaciones de competencia entre los miembros de la Fundación, seguramente tendrán que explicar a sus clientes que hay cierta cantidad de código idéntica en todos ellos y ciertos servicios diferenciales.

La nueva Fundación tiene como algunos de sus miembros a EMC, Pivotal, VMware, IBM, HP, SAP o Rackspace, nombres que dan una idea del interés que esta iniciativa ha despertado en el mercado, en la línea de evitar que una sola compañía pueda dictar el futuro de las aplicaciones o servicios Cloud. En definitiva, se trata de que las aplicaciones se puedan codificar de forma independiente y sean portables a (cualquier) nube.

 

Una historia sobre Big Data

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

En uno de mis últimos viajes a las Américas, tuve la ocasión de compartir una reunión de trabajo con un grupo de compañeros expertos en esto que últimamente está tanto de moda y que se denomina Big Data, algo sobre lo que todos los fabricantes del sector nos jactamos de tener la solución idónea para las problemáticas de nuestros clientes. 

Confieso que me vi sorprendido por la pasión y poder de comunicación de este equipo, pero sobre todo por su capacidad de generar “demandas terrenales” para la entelequia del Big Data.

Como ejemplo de modelo de proyecto al uso, nos ilustraron con la siguiente historia:

Imaginemos que tenemos una entidad bancaria que un día concreto del año sufre un ataque a su red de cajeros. Nada muy extraño por desgracia hasta aquí. Pero el ataque del que estamos hablando no es un ataque cualquiera, es algo mucho más sofisticado. Imaginemos por un momento que esta entidad sufre, en un intervalo de tiempo de media hora, un ataque coordinado en decenas de cajeros a lo largo de varios estados del país, que consiste en abrir el cajero, y mediante un procedimiento informático local, dar una orden de vaciado completo del dispensador de dinero.

Para perpetrar este hecho, es necesario para la red de delincuentes contar con la connivencia de empleados del propio banco y empleados del fabricante de los cajeros, conocedores ambos tanto de la tecnología a asaltar como de los mecanismos de seguridad puestos en marcha.

El hecho es que, de manera muy discreta, y disfrazado prácticamente como una intervención de servicio, el Banco en cuestión pasa a tener una merma de 50 millones de Reales en apenas unos minutos.

Una vez que el Banco se pone a investigar el hecho y ver cómo se podía haber evitado, descubren que realmente cuentan con una fuente de información excepcional, los logs de los cajeros, emitidos en tiempo real por los mismos y almacenados en la central.

Pero, ¿y ahora qué? De nada sirve poner a varias personas a leerse dichos logs en busca de algo que alerte sobre la posible causa del ataque, porque el ataque ya se ha producido, es demasiado tarde. Por lo tanto, y decididos a invertir para que esta fechoría no vuelva a suceder, el Banco decide contactar con nuestro equipo de expertos en la materia, los cuales, y de forma muy resumida, proporcionan lo siguiente:

1. Una plataforma potente para el procesado en tiempo real de dichos logs, basada en Greenplum y Hadoop.
2. Un algoritmo a medida de detección de intrusión o ataque en los cajeros, que proporciona un 95% de acierto en sus conclusiones.
3. Los servicios de implantación pertinentes para todo el proyecto.

Fíjense en la importancia del segundo punto, es la clave. Es fundamental contar con la presencia de un equipo de data scientists, es decir, personas capaces de desarrollar algoritmos de explotación de los datos adecuados a la necesidad concreta que atañe al proyecto en sí. En este caso, y en un plazo de una semana, el data scientist fue capaz de desarrollar un algoritmo matemático de predicción basado en la información de estado que proporcionan los cajeros automáticos de la entidad asaltada.

De esta manera, el Banco cuenta con una plataforma de análisis en tiempo real capaz de detectar de forma casi infalible un ataque perpetrado en la red de cajeros en el momento en el que se produce.

Y hasta aquí podría parecer otra bonita historia de ciencia ficción sobre Big Data y las posibles aplicaciones de uso que los fabricantes nos empeñamos en desarrollar para nuestros clientes. La diferencia estriba en que, esta vez, la historia es muy real, y sirve además para ilustrar cómo un fabricante como EMC es capaz de proporcionar un proyecto end-to-end de última tecnología que aporta un valor añadido inmenso para un cliente.

Primavera 2013 ¿Qué se lleva en Almacenamiento?

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Esta pregunta tan simple me provoca unos instantes de reflexión. Las tendencias alrededor del mundo de TI nos hablan de Cloud Computing, Big Data, Movilidad, Redes sociales…pero ¿cómo se ve 2013 con las gafas del almacenamiento en sentido estricto? He intentado responder a esta pregunta sobre la marcha, sin pretender resultar exhaustivo.    

Empezando por lo más básico, continúan las tendencias ya en marcha respecto a las tecnologías de almacenamiento, siempre con los objetivos de mejorar la eficiencia y el rendimiento. La sustitución de las cintas y cartuchos por almacenamiento en disco, el alza de la deduplicación y la compresión así como las técnicas de provisión ‘thin’ y la automatización de la estratificación son reflejo de estas tendencias. 

Mención aparte merece  el desarrollo de tecnologías flash, que viene a complementar las tecnologías de discos mecánicos tradicionales y de las que estamos viendo un auténtico auge, bien en forma de arrays híbridos o en dispositivos totalmente electrónicos. Un ejemplo, EMC XtremSW, una tarjeta PCI de almacenamiento capaz de proporcionar más de un millón de operaciones por segundo y cuya segunda generación se encuentra en la calle desde hace unas semanas. Otro ejemplo, EMC XtremIO, un array 100% Flash, con arquitectura scale-out y deduplicación incorporada. Lo veremos en disponibilidad general en el verano.      

Los cada vez más exigentes niveles de servicio establecidos en el datacenter impulsan la adopción de infraestructuras convergentes, esto es, infraestructuras que contienen Almacenamiento, Capacidad de Proceso y Red en un sistema integrado. Los objetivos principales son el despliegue más rápido y consistente de la infraestructura, la mejora de los niveles de servicio y disponibilidad así como la reducción de los costes de gestión y mantenimiento. En el caso de EMC estas infraestructuras convergentes, nuestros VBlock, son desarrolladas y fabricadas junto con otras dos compañías líderes, Cisco y VMware. 

 Software Defined DataCenter

Cloud, BigData, Software Defined DataCenter

El fenómeno de la movilidad plantea nuevos retos relacionados con la colaboración y el intercambio de información, así como con la sincronización de dispositivos. Se requieren infraestructuras de almacenamiento que proporcionen servicio a grupos de usuarios ubicuos desde cualquier lugar y a través de dispositivos heterogéneos. También se requiere sincronizar los distintos dispositivos de un mismo usuario, todo ello, manteniendo las políticas de seguridad corporativa.  Syncplicity es nuestra solución integral de espacio en nube para dar respuesta a estos requerimientos, que puede implantarse en nube pública o privada, sobre infraestructuras de almacenamiento de EMC.     

El fenómeno de Big Data, la necesidad de almacenar y procesar cantidades ingentes de información no estructurada (imágenes vídeos, pdfs, etc) está impulsando nuevas infraestructuras de almacenamiento hiperescalables (arquitecturas scale-out), que están llamadas a ampliar su protagonismo en el mercado. Cuando se aumenta la capacidad de un sistema de este tipo, se incrementa de forma lineal su rendimiento, previniendo la posible generación de cuellos de botella en este universo de datos masivos. Gartner ha señalado en su último estudio a EMC Isilon como líder indiscutible de la industria en este segmento.   

También relacionado con las nuevas exigencias en niveles de servicio, la Federación de Infraestructuras permite desarrollar modelos de datacenters federados activo/activo, donde las aplicaciones adquieren movilidad geográfica sin interrupción del servicio, y donde la tradicional recuperación ante desastres (Disaster Recovery) evoluciona hacia escenarios de evitación del desastre (Disaster Avoidance). EMC VPLEX se encarga de federar estas infraestructuras de almacenamiento, que pueden ser o no de EMC, y extender la federación hacia otros datacenters.  

Por último, como resultado de los procesos de virtualización y estandarización de infraestructuras que hemos visto desarrollarse en los últimos años, continuará el fenómeno de transferencia de valor desde el hardware hacia el software, sustanciando lo que llamamos Software Defined Datacenter (SDDC). Este concepto de inteligencia dirigida por el software  responde a la búsqueda de entornos más flexibles, ágiles y económicos, donde el software es el encargado de proporcionar nuevos servicios avanzados y orquestar sistemas de almacenamiento heterogéneos. Un concepto en plena efervescencia esta primavera.

 

 

 

 

 

 

 

La seguridad basada en la inteligencia

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Este miércoles he asistido al RSA Security Summit celebrado en Madrid, bajo el lema genérico de ‘La seguridad basada en la inteligencia’. Las sesiones fueron muy interesantes tanto por el nivel de los ponentes como por lo candente de la temática a tratar.

Nuestro concepto de seguridad de la información necesita cambiar, fundamentalmente como resultado de la evolución tecnológica y social del entorno que nos rodea. El  Datacenter de antaño securizado mediante perímetros de seguridad y accedido por usuarios muy controlados se ha convertido en una nube accedida por miles de usuarios (empleados, clientes, proveedores y curiosos) desde aplicaciones móviles y dispositivos heterogéneos, a través de redes que no conocemos. La búsqueda de eficiencias de negocio y satisfacción del usuario han dirigido esta evolución.   

Tom Corn, SVP,Chief Strategist Officer, RSA, nos recordó que la seguridad de las fronteras de un país ya no depende de murallas, sino de servicios de inteligencia, metáfora que describe bastante bien la problemática actual de la seguridad de la información. El foco ha de dirigirse hacia las personas, las transacciones que realizan y el contexto en el que lo hacen, analizando información proveniente de múltiples fuentes internas o externas, desde el CRM hasta las redes sociales.

Se trató sobre la importancia del autoaprendizaje de los sistemas, de utilizar nuestras experiencias anteriores e incorporar las experiencias ajenas como si fueran propias, para predecir y mitigar futuros riesgos.   

Fidel Perez, Director Comercial RSA España y Portugal, nos habló de la importancia de incorporar análisis de comportamiento, distinguir entre el proceder habitual de un cliente y comportamientos sospechosos que pueden proporcionar pistas sobre una amenaza.  

También hablamos de la necesidad de responder a los ataques en tiempo real, lo que requiere entender sobre la marcha los riesgos a los que nos enfrentamos, estableciendo mecanismos de control que no son muy intrusivos sobre los usuarios o clientes pero son muy eficaces en la predicción de ataques o fraudes.

En definitiva, la seguridad inteligente incorpora mucha analítica caracterizada por volúmenes de información altos, variedad de fuentes de datos y velocidad de análisis y respuesta. La seguridad se encuentra con Big Data.

Intelligence-Driven Security

 

Invitación al RSA Security Summit – Seguridad basada en la Inteligencia – 20 de Marzo 2013

Mañana, miércoles 20 de Marzo, en la Torre de Cristal de Madrid, celebramos el RSA Security Summit en el que repasaremos las amenazas de seguridad más significativas a las que se enfrenta los responsables de Seguridad hoy en día, así como las nuevas aproximaciones a la gestión de la seguridad que desde RSA estamos proponiendo como respuesta a estos desafíos. Este nuevo enfoque de la seguridad es el que estamos plasmando en las nuevas soluciones que estamos lanzando, tanto de productos nuevos (RSA Security Analytics, presentado el pasado 30 de Enero; disponibles los contenidos del evento online aquí), como de actualizaciones de productos existentes (RSA Authentication Manager 8, galardonado con el premio de SC Magazine 2013 en la categoría “Best Multifactor Product“)

Para el evento de mañana  contaremos con ponentes de excepción como Tom Corn, Senior VP y Chief Strategist Officer de RSA, Richard Nichols, Sales Operations Director para Security Analytics, David Walter, General Manager EMEA para las soluciones de GRC de RSA y Roberto Llop, Director Regional para EMEA Sur de RSA.

Dado que el aforo del evento es limitado, si estáis interesados en asistir deberéis rellenar el formulario desde este link, y en breve confirmaremos la disponibilidad de plaza. (URL Corta alternativa: http://tinyurl.com/rsaday-20mar2013)

A continuación reproduzco el texto completo de la invitación que hemos estado enviando en los últimos días, que proporciona más detalles del evento.

Nos vemos mañana día 20.

Texto del email de invitación: seguridad basada en la inteligencia
Los retos de los responsables de Seguridad evolucionan de manera continua. Amenazas avanzadas, fraude, aportación de valor para el negocio, adecuación a la transformación de las TI en la que estamos inmersos (cloud, movilidad, consumerización…)

Para ayudarles a enfrentarse a estos retos, en RSA estamos transformando la manera de gestionar la seguridad, basándola en el riesgo, enriqueciéndola con el contexto del negocio y dotándola de la agilidad necesaria para adaptarse a las nuevas amenazas.

Conceptos como Gobernanza, Big Data, analíticas avanzadas, controles adaptativos nos permiten alcanzar nuestro objetivo de GARANTIZAR LA CONFIANZA EN EL MUNDO DIGITAL, lo que nos mueve a un nuevo modelo de Seguridad basado en la Inteligencia.

En el RSA Security Summit, analizaremos esta transformación, con la participación de nuestros clientes, partners y los responsables de la estrategia de nuestra compañía.

Agenda:
09:00 – 09:30 Recepción y bienvenida
09:30 – 09:40 Apertura de la jornada Fernando de la Prida, Director General EMC España
09:40 – 10:30 RSA: visión del mercado de la seguridad Tom Corn,SVP,Chief Strategist Officer.RSA(*)
10:30 – 11:00 Security Analytics: Big Data al servicio de la seguridad Richard Nichols, Sales Operations Director, Security Analytics. RSA (*)
11:30 – 12:00 Café
12:00 – 12:30 Gobierno, Riesgo y Cumplimiento David Walter, General Manager, GRC EMEA. RSA (*)
12:30 – 13:30 Mesa redonda Modera: Luis Fernández Delgado, Editor de la revista SIC
13:30 – 13:40 Cierre de la Jornada Roberto Llop, Director Regional EMEA Sur. RSA
13:40 Cóctel 
(*) Ponencias en inglés. Habrá traducción simultánea

Dónde: Torre de Cristal, planta 50
              Paseo de la Castellana, 259, Madrid

El Universo Digital (y 6). Crecimiento sin crisis

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Tenemos nuevo reporte de IDC, la sexta edición ya, sobre el Universo Digital. Este informe es siempre una lectura interesante para cualquier audiencia, por cuanto ayuda a entender una experiencia de la vida diaria como es el crecimiento explosivo de los datos. Pero, claro, a los profesionales de TI nos interesa además en su vertiente de previsión y evolución tecnológica.

(more…)

Videos Recomendados

Expand The Data Lake: New Data Lake, New Breakthroughs

Archivo del Blog

  • 2016 3
  • 2015 20
  • 2014 7
  • 2013 16
  • 2012 21
facebook
twitter
linkedin
youtube
rss