Posts Tagged ‘seguridad’

Algo va a cambiar en la protección de la información

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

Hace muy poco, a principios de septiembre, he tenido el placer de compartir una sesión con un cliente en nuestro EBC (Executive Briefing Center) en Hopkinton, en el cual se han cubierto todas las últimas tendencias tecnológicas alrededor del DataCenter. En dos días, se ha dado un repaso bastante completo a la propuesta de valor de EMC, así como a la visión de EMC alrededor de todo el ecosistema de TI. 

Como resultado de esta experiencia, esta vez no voy a hablar de ningún nuevo concepto revolucionario, sino de algo instalado desde siempre en la cotidianidad de la gestión de nuestros CPDs. Algo que nadie quiere hacer, porque no aporta un valor directo al negocio, pero que todo el mundo ha de afrontar de alguna manera. Estamos hablando, como no, del backup. 

Y es que, como es sabido por todos, el proceso de backup es algo que básicamente conserva la misma arquitectura desde hace décadas. Es decir, un SW de backup centralizado se encarga de efectuar las copias de los distintos entornos y de manejar el catálogo para la recuperación de las mismas. 

Es cierto que ha habido grandes cambios en cuanto a las características del SW de backup, protocolos específicos para esta tarea, el volumen de tráfico gestionado, las redes de comunicaciones, sistemas de cinta sustituidos por discos, tecnologías de deduplicación que han permitido grandes ahorros y aumentar las retenciones, etc… pero la esencia en la arquitectura sigue siendo la misma. 

Pues bien, todo esto va a cambiar de forma radical desde ya mismo. La clave está en que, a partir de ahora, el SW de backup no es el centro sobre el que gira todo el proceso, sino que en este caso, la aplicación es el centro y alrededor de ella se construye la política de protección. 

Este cambio es muy importante, ya que significa que las propias aplicaciones van a disponer (de hecho, muchas de ellas ya cuentan con esta funcionalidad) de mecanismos para garantizar la protección de la información, en lugar de delegar esta tarea al SW de backup tradicional. 

Pero no queda ahí únicamente la cosa. Si a esto le añadimos la estrategia de EMC en torno a la protección de la información, combinando lo mejor de nuestro portfolio para proporcionar soluciones que incrementen las disponibilidad, simplifiquen la gestión, aumenten la frecuencia de las copias y ahorren de forma significativa en almacenamiento, estamos ante un verdadero cambio de paradigma en lo que a la forma de hacer backup se refiere. 

Estoy hablando del reciente anuncio que ha hecho EMC, denominado ProtectPoint, y que viene a unir de forma magistral la plataforma de almacenamiento High-End líder mundial (en su última versión recientemente presentada, VMAX3) con la plataforma líder mundial en almacenamiento dedicado para protección de la información (Data Domain), mediante el uso de tecnología avanzada de terceras copias. 

Quiere esto decir que, de forma efectiva, estamos eliminado el backup tradicional completamente, y sustituyéndolo por un procedimiento de recuperación completamente basado en la aplicación, gestionado como una tercera copia, y almacenado directamente (sin tráfico adicional ni carga en la aplicación) en un sistema inteligente de deduplicación de la información, que nos va a permitir, entre otras cosas, aumentar nuestra frecuencia de copias a un coste controlado. 

Les invito, como siempre suelo hacer, a profundizar en esta nueva propuesta de valor de EMC, ProtectPoint, y a descubrir las enormes ventajas que aporta este cambio de paradigma en la protección de la información.

Ataques a Target, Neiman Marcus: Cuando la cruda realidad supera las predicciones

Hace unos días, en este mismo blog reflexionaba sobre la oportunidad que tienen los atacantes durante la época de compras de la campaña de Navidad, con lo que supone de mayor carga de trabajo y presión para que nada se pare. En el post me centraba en el riesgo para las tiendas online, comentando las principales amenazas a las que se enfrentaban, y el coste económico asociado a una parada de las mismas.

Como suele pasar a menudo, la realidad muchas veces supera las predicciones. El 18 de Diciembre Brian Krebs, un investigador independiente especializado en seguridad informática, publicaba la noticia de que Target, una gigantesca cadena de grandes almacenes norteamericana, estaba investigando una intrusión en sus sistemas, sucedida entre el 27 de Noviembre (Black Friday) y el 15 de Diciembre. Al poco Target confirmaba la intrusión, confirmando que 40 millones de tarjetas de débito o crédito podrían haberse visto afectadas.

En este caso, en contra de lo que “normalmente” solemos esperar, los usuarios de la tienda online de Target no se habrían visto afectados. Sólo por esto hubiera sido una noticia interesante de comentar; a medida que pasan los días y no se hace pública la información de cómo se efectuó el ataque, la especulación crece. Todo apunta a un troyano específico para los terminales puntos de venta que hubiera robado las tarjetas y el contenido de las bandas magnéticas de las mismas, pero las teorías de todo tipo abundan.

En otro caso hubiera esperado a tener información más detallada de lo sucedido para escribir este post, pero el día 10 de Enero, Target anunció que, aparte de las tarjetas de crédito, los intrusos habían robado datos personales (nombres, direcciones postales, números de teléfono y correos electrónicos) de hasta 70 millones de usuarios. Es muy interesante el análisis de KrebsOnSecurity.com, así como el resto de los artículos que ha publicado con información acerca de la brecha[1]. Ese mismo día, Krebs también reveló que Neiman Marcus, otra gran cadena de tiendas, está investigando una intrusión en sus sistemas que fue descubierta “a mediados de diciembre”, y habría tenido lugar en las mismas fechas que la de Target. Al igual que en el caso de Target, parece que los clientes de la tienda online no se han visto afectados.

Dadas las similitudes entre los ataques, si se confirmara que hay alguna relación más allá de la coincidencia en fechas, sería una señal que de un grupo de atacantes ha conseguido “industrializar” el procedimiento usado, y la experiencia nos dice que lo más normal es que hayan usado el mismo proceso en más merchants. Estoy seguro de que el futuro aún nos traerá más información interesante.

Como punto final, comentar que aunque la percepción en el gran público suele ser que comprar por Internet es “menos seguro” que la compra directa en tienda, incidentes como estos nos demuestran que la prevención en la mejor defensa, y que no está de más aplicar al mundo real las precauciones que tenemos en el mundo virtual[2].


  1. Krebs ha publicado interesantes artículos sobre sus investigaciones sobre cómo, por cuánto, e incluso quién (con nombre y foto), se venden las tarjetas robadas en Target en el mercado underground.  ↩
  2. Resumen de recomendaciones para pagos online: usar tarjetas de crédito para comprar; al contrario de las tarjetas de débito en las que el dinero sale de la cuenta del comprador en cuanto se usan, las tarjetas de crédito nos permiten rechazar cargos “sospechosos”. Vigilar los extractos de las tarjetas para detectar movimientos anómalos, y opcionalmente, usar una tarjeta dedicada para compras online.  ↩

Llega el “Viernes Negro”¿Está lista su web para las compras de Navidad?… Los criminales sí lo están

El próximo Viernes es el Viernes Negro (más conocido como Black Friday). El día siguiente al día de Acción de Gracias, señala el principio de la temporada de compras de las fiestas de fin de año/Navidad en los países donde se celebra Acción de Gracias y cada vez en más países a nivel global; suele asociarse a ofertas especiales y descuentos. Si el Black Friday es una fecha clave para el comercio tradicional, en los últimos años el Cyber Monday (el primer Lunes después de Acción de Gracias – el próximo lunes), es la referencia para el comercio online, ya que se ha convertido en el día de mayor movimiento de comercio electrónico del año. En el año 2012, los compradores norteamericanos gastaron 1.470 millones de dólares en ese día, convirtiéndolo en el día de mayor gasto online de todos los tiempos [1], con un crecimiento del 17% respecto al 2011, a pesar de la difícil situación económica [2]. Según eMarketer, las ventas online previstas en los US para esta campaña de fin de año (definida como Noviembre y Diciembre) se espera que lleguen a 61.800 Millones de Dólares, un 15% más que el año pasado [3].

Desafortunadamente, las mismas cualidades que hacen que el comercio online sea atractivo para los usuarios lo convierte en un blanco apetecible para los cíber-criminales. Un reciente estudio realizado por el Instituto Ponemon para RSA sobre el impacto del Cíber Crimen en eCommerce, confirma el crecimiento previsto del sector del eCommerce, pero también señala una correlación entre los días de tráfico elevado y la probabilidad de sufrir una intrusión – los criminales aprovechan la época más frenética de actividad para “disfrazar” sus actividades maliciosas.

Hasta 500.000 dólares en pérdidas directas por hora

El estudio de Ponemon (resumido en forma de ebook aquí) profundiza en las amenazas a las que se enfrentan los comercios online. Los resultados son un tanto sorprendentes; según el estudio, la mayor amenaza a la que se enfrentan los comercios online son los Ataques de Denegación de Servicio (DDoS), seguido de fraude asociado a la app store, y malware que capture las credenciales de usuario.

A no ser que se use como una táctica de distracción, los ataques de Denegación de Servicio no proporciona beneficios directos a un atacante, al contrario de lo que pasa con el fraude en app stores y la captura de credenciales. Sin embargo, pueden llegar a costarle muy caros al comerciante. El informe de Ponemon destaca que una hora de caída de la web puede costarle a un comercio online hasta 500.000 dólares en tráfico e ingresos perdidos. A estos costes directos hay que añadir el daño a la imagen de la marca, que puede exceder 3,4 millones de dólares.

El informe detalla otros seis tipos de ataque adicionales contra los que los comerciantes deben tomar precauciones incluyendo fraude en los clicks/promociones y abuso de la lógica del negocio (especialmente en el proceso de checkout). Muchos de estos ataques se basan en imitar el comportamiento de los usuarios legítimos y son difíciles de detectar usando soluciones de seguridad tradicionales. RSA Silver Tail es una solución de detección de amenazas en el canal online; gracias a sus analíticas basadas en el comportamiento, las anomalías se hacen evidentes y la mitigación de estas amenazas se simplifica.

Muchos clientes presuponen que van a necesitar múltiples herramientas – una para análisis de las cuentas, otra para examinar los logs así como una gestión de casos, y los equipos respectivos para detectar e investigar estas amenazas. Sin embargo, RSA Silver Tail puede usarse para idenficar y mitigar las amenazas a la vez que reduce la necesidad de revisión manual, ahorrando recursos a la compañía.

Dadas las amenazas web actuales, RSA Silver Tail debería estar en los primeros puestos de la “lista de deseos” estas navidades.

¡Felices fiestas … y compras seguras!

PS:Para aquellos interesados en saber más sobre RSA Silver Tail, tenemos unos vídeos (en inglés) que muestran cómo puede usarse para Prevenir Ataques Distribuídos de Denegación de Servicio, Prevenir Abuso de la Lógica de Negocio y Pervenir el Robo de Cuentas con Silver Tail 4.0, así como un White Paper sobre cómo detectar ataques online sofisticados usando analíticas de sesión, y la diferencia con las aproximaciones tradicionales.

PPS: El estudio completo realizado por Ponemon está disponible de forma gratuita en el siguiente enlace: 2013 eCommerce Cyber Crime Report: Safeguarding Brand and Revenue This Holiday Season

Confianza en nuestras TI

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Las Tecnologías de la Información están en permanente evolución para alinearse con el negocio y responder mejor a sus tres grandes requerimientos genéricos: Reducir los costes, incrementar los beneficios y reducir el riesgo.

Como muestra de esta adaptación, últimamente asociamos de forma inmediata contención de costes con el desarrollo de Cloud Computing, así como el requerimiento de Incrementar el beneficio conduce a Big Data y su promesa de transformación del negocio. La reducción de riesgos la asociamos con un concepto que en EMC denominamos Confianza (del inglés Trusted IT).

Confianza significa simplemente que los sistemas funcionen de acuerdo con las expectativas en cuanto a disponibilidad, integridad y seguridad. La importancia de este concepto, aparentemente tan sencillo, se ve potenciada por la adopción de arquitecturas en nube y la generalización de la movilidad.

Hace tan sólo unos años las organizaciones permitían el acceso remoto de un limitado número de usuarios sólo a ciertas aplicaciones corporativas, como el correo. Esto hoy ha evolucionado hacia una plantilla que utiliza sus dispositivos móviles al servicio del negocio, a través de aplicaciones que pueden residir en la nube, con fuentes de datos internas y externas que son accedidas a través de internet y redes wireless desconocidas.

Esto implica que tenemos que construir un entorno de TI en el que podamos confiar, pese a que contenga elementos e infraestructuras que no controlamos ni gestionamos directamente; un entorno de TI fiable y dinámico en un mundo de infraestructuras virtuales y usuarios móviles.

Confianza en nuestra TI

Disponibilidad, Integridad, Seguridad, Gobierno…

La señalada ubiquidad de los usuarios y la variedad de las aplicaciones que utilizan incrementan la presión hacia la disponibilidad continua de los servicios más críticos, sin excepciones. No se trata, pues, de prevenir la caída de un servidor, sino incluso de evitar que el Datacenter sea un punto único de fallo. Esto se traduce en la necesidad de prestar servicio de forma transparente desde múltiples localizaciones activas, así como en la monitorización y total automatización de las respuestas ante fallos, evolucionando el concepto de Disaster Recovery hacia el de Disaster Avoidance.

La alta disponibilidad de sistemas e infraestructuras no elimina la necesidad de disponer de mecanismos que garanticen la integridad lógica de la información. Basta con pensar en el ataque de un virus para entender que la corrupción puede expandirse de uno a otro sistema, de uno a otro datacenter; así, el backup sigue siendo necesario, pero evoluciona desde una copia congelada en un momento fijo en el tiempo hacia el concepto de recuperación continua, que permite restaurar a cualquier punto. O sea poder recuperar al instante anterior, a un parche o al cierre de las oficinas de ayer o al final del batch de facturación.

Según los activos digitales sean más abstractos y se encuentren en fuentes diversas que pueden ser internas o externas e incluso públicas, aparecen en las organizaciones nuevos requerimientos de gobierno, cumplimiento normativo y control de riesgos que permitan identificar cuál es la información crítica, dónde reside y si se utiliza de acuerdo con las normativas o regulaciones que le afectan.

Confianza trata también sobre la prevención, detección e investigación de ataques sofisticados que pudieran producirse sobre nuestra organización, agilizando la respuesta y reduciendo las ventajas de los atacantes.

En definitiva, una infraestructura de TI transmite confianza cuando permite a las organizaciones obtener todas las ventajas de las tecnologías emergentes, mejorando el servicio y reduciendo los riesgos y los costes operacionales. Sabemos que los incidentes van a seguir produciéndose, pero trabajamos para que los usuarios no lo perciban y la organización no sufra sus consecuencias. Una apuesta por la innovación permanente.

La seguridad basada en la inteligencia

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Este miércoles he asistido al RSA Security Summit celebrado en Madrid, bajo el lema genérico de ‘La seguridad basada en la inteligencia’. Las sesiones fueron muy interesantes tanto por el nivel de los ponentes como por lo candente de la temática a tratar.

Nuestro concepto de seguridad de la información necesita cambiar, fundamentalmente como resultado de la evolución tecnológica y social del entorno que nos rodea. El  Datacenter de antaño securizado mediante perímetros de seguridad y accedido por usuarios muy controlados se ha convertido en una nube accedida por miles de usuarios (empleados, clientes, proveedores y curiosos) desde aplicaciones móviles y dispositivos heterogéneos, a través de redes que no conocemos. La búsqueda de eficiencias de negocio y satisfacción del usuario han dirigido esta evolución.   

Tom Corn, SVP,Chief Strategist Officer, RSA, nos recordó que la seguridad de las fronteras de un país ya no depende de murallas, sino de servicios de inteligencia, metáfora que describe bastante bien la problemática actual de la seguridad de la información. El foco ha de dirigirse hacia las personas, las transacciones que realizan y el contexto en el que lo hacen, analizando información proveniente de múltiples fuentes internas o externas, desde el CRM hasta las redes sociales.

Se trató sobre la importancia del autoaprendizaje de los sistemas, de utilizar nuestras experiencias anteriores e incorporar las experiencias ajenas como si fueran propias, para predecir y mitigar futuros riesgos.   

Fidel Perez, Director Comercial RSA España y Portugal, nos habló de la importancia de incorporar análisis de comportamiento, distinguir entre el proceder habitual de un cliente y comportamientos sospechosos que pueden proporcionar pistas sobre una amenaza.  

También hablamos de la necesidad de responder a los ataques en tiempo real, lo que requiere entender sobre la marcha los riesgos a los que nos enfrentamos, estableciendo mecanismos de control que no son muy intrusivos sobre los usuarios o clientes pero son muy eficaces en la predicción de ataques o fraudes.

En definitiva, la seguridad inteligente incorpora mucha analítica caracterizada por volúmenes de información altos, variedad de fuentes de datos y velocidad de análisis y respuesta. La seguridad se encuentra con Big Data.

Intelligence-Driven Security

 

Invitación al RSA Security Summit – Seguridad basada en la Inteligencia – 20 de Marzo 2013

Mañana, miércoles 20 de Marzo, en la Torre de Cristal de Madrid, celebramos el RSA Security Summit en el que repasaremos las amenazas de seguridad más significativas a las que se enfrenta los responsables de Seguridad hoy en día, así como las nuevas aproximaciones a la gestión de la seguridad que desde RSA estamos proponiendo como respuesta a estos desafíos. Este nuevo enfoque de la seguridad es el que estamos plasmando en las nuevas soluciones que estamos lanzando, tanto de productos nuevos (RSA Security Analytics, presentado el pasado 30 de Enero; disponibles los contenidos del evento online aquí), como de actualizaciones de productos existentes (RSA Authentication Manager 8, galardonado con el premio de SC Magazine 2013 en la categoría “Best Multifactor Product“)

Para el evento de mañana  contaremos con ponentes de excepción como Tom Corn, Senior VP y Chief Strategist Officer de RSA, Richard Nichols, Sales Operations Director para Security Analytics, David Walter, General Manager EMEA para las soluciones de GRC de RSA y Roberto Llop, Director Regional para EMEA Sur de RSA.

Dado que el aforo del evento es limitado, si estáis interesados en asistir deberéis rellenar el formulario desde este link, y en breve confirmaremos la disponibilidad de plaza. (URL Corta alternativa: http://tinyurl.com/rsaday-20mar2013)

A continuación reproduzco el texto completo de la invitación que hemos estado enviando en los últimos días, que proporciona más detalles del evento.

Nos vemos mañana día 20.

Texto del email de invitación: seguridad basada en la inteligencia
Los retos de los responsables de Seguridad evolucionan de manera continua. Amenazas avanzadas, fraude, aportación de valor para el negocio, adecuación a la transformación de las TI en la que estamos inmersos (cloud, movilidad, consumerización…)

Para ayudarles a enfrentarse a estos retos, en RSA estamos transformando la manera de gestionar la seguridad, basándola en el riesgo, enriqueciéndola con el contexto del negocio y dotándola de la agilidad necesaria para adaptarse a las nuevas amenazas.

Conceptos como Gobernanza, Big Data, analíticas avanzadas, controles adaptativos nos permiten alcanzar nuestro objetivo de GARANTIZAR LA CONFIANZA EN EL MUNDO DIGITAL, lo que nos mueve a un nuevo modelo de Seguridad basado en la Inteligencia.

En el RSA Security Summit, analizaremos esta transformación, con la participación de nuestros clientes, partners y los responsables de la estrategia de nuestra compañía.

Agenda:
09:00 – 09:30 Recepción y bienvenida
09:30 – 09:40 Apertura de la jornada Fernando de la Prida, Director General EMC España
09:40 – 10:30 RSA: visión del mercado de la seguridad Tom Corn,SVP,Chief Strategist Officer.RSA(*)
10:30 – 11:00 Security Analytics: Big Data al servicio de la seguridad Richard Nichols, Sales Operations Director, Security Analytics. RSA (*)
11:30 – 12:00 Café
12:00 – 12:30 Gobierno, Riesgo y Cumplimiento David Walter, General Manager, GRC EMEA. RSA (*)
12:30 – 13:30 Mesa redonda Modera: Luis Fernández Delgado, Editor de la revista SIC
13:30 – 13:40 Cierre de la Jornada Roberto Llop, Director Regional EMEA Sur. RSA
13:40 Cóctel 
(*) Ponencias en inglés. Habrá traducción simultánea

Dónde: Torre de Cristal, planta 50
              Paseo de la Castellana, 259, Madrid

¿Por dónde empezamos en seguridad? Empieza por el caco de barrio

Desde que hace ya un tiempo me invitaran a colaborar en este blog, he estado pensando cuál sería la mejor temática para este primer post, que se ha retrasado más de lo que me hubiera gustado.

No es por falta de temas a tratar. La privacidad,  siempre candente,fue mi primera candidata. Otras opciones interesantes fueron una perspectiva del panorama del fraude online, el repasorecomendaciones sobre cómo enfrentarse a las amenazas online -con especial foco en los más jóvenes– o la evolución de lo que se ha dado en llamar “CyberWarfare”, término surgido a raíz de que las cíber-armas salieran a la luz pública, que se han convertido en los súper virus de moda.

Todos estos, y algunos otros, son temas de los que espero hablar en el futuro. Sin embargo, en la primera intervención que tuve en este blog, mencioné brevemente cuáles son las preocupaciones de las empresas respecto a la seguridad informática. Creo que empezar por este tema y tener una idea más clara sobre las amenazas a las que se enfrentan los responsables de seguridad informática (que en la mayoría de los casos lleva muchos otros gorros), les permitirá priorizar sus recursos para mitigar el riesgo.

En general, a medida que las empresas maduran tecnológicamente, van incorporando la seguridad informática a las “cosas que hay que hacer”; el foco de sus esfuerzos es la necesidad de proteger la información que poseen, tanto los propios datos internos o confidenciales como la información de terceros sobre la que tienen responsabilidad de custodia (datos personales).

Existen otras amenazas con un impacto económico o en la reputación, pero en definitiva enfrentarse a una brecha que implique pérdida de datos es “el desastre”.

En el panorama económico actual, el responsable de seguridad, con unos recursos cada vez más limitados, tiene que decidir de qué amenazas debe preocuparse. Para ello, es útil saber qué métodos se usan para sustraer los datos. Históricamente, la información sobre técnicas e impacto de los ataques ha sido escasa y anecdótica, pero afortunadamente esto está cambiando. Actualmente contamos con el Verizon Data Breach Investigation Report, como la fuente de información más reconocida cuando se trata de ataques cibernéticos.

El informe de 2012, basado en investigaciones de incidentes realizadas durante 2011, nos proporciona una perspectiva sobre las amenazas reales a las que se enfrentan las empresas. Me gustaría compartir con vosotros las principales conclusiones:

  • El 94% de los ataques no son sofisticados, no usan técnicas esotéricas sino relativamente sencillas. No debemos subestimar a los atacantes, que posiblemente son capaces de ataques más elaborados, pero simplemente no les hace falta para conseguir sus objetivos.
  • El 79% de los ataques son blancos de oportunidad, es decir, los atacantes no buscaban una víctima concreta, sino que atacan a los que son vulnerables.
  • El 97% de los ataques se hubieran podido prevenir mediante controles simples o de nivel medio. Unido a las cifras anteriores, creo que la analogía con el efecto disuasorio de las puertas blindadas es válido: no son un obstáculo para un atacante decidido y con recursos, pero sí que hacen que el ladrón común se dirija a otro objetivo.

De la lectura de este informe, concluimos que la mayoría de las empresas no tienen por qué obsesionarse con protegerse contra un atacante de élite decidido y con recursos. Estos existen, y son una amenaza real y seria, pero volviendo a la analogía con el mundo real, mientras que los grandes museos tienen que preocuparse por burlar a los ladrones de guante blanco, la mayoría de nosotros debemos empezar por el caco de barrio, que se asoma a las ventanas para ver si están abiertas.

Esta comparación, aunque útil, falla en un punto clave: la detección de los ataques. En casa, si el ladrón se lleva la TV nos damos cuenta, pero en el mundo digital no es así:

  • El 85% de los ataques tardaron semanas o más en ser descubiertos, por lo que los atacantes han tenido tiempo de robar mucha información, borrar sus huellas, dejar nuevas “puertas traseras” para poder acceder en el futuro…
  • El 92% de los ataques los descubrió/reportó un tercero, es decir, la empresa no sólo sufre un ataque, sino que al no ser capaz de detectarlo, ni siquiera puede planificar la gestión de la crisis.

Por lo tanto, si la pregunta es dónde invierto para ser más efectivo, mi respuesta sería en implementar al menos los controles más básicos para disuadir a los atacantes que buscan blancos de oportunidad, y por si aún así somos atacados, invertir en ser capaces de detectar el ataque y al menos tener la posibilidad de gestionar el incidente.

EMC FORUM 2012

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Bajo el lema de la transformación, acabamos de celebrar nuestro evento anual: EMC Forum.  Este año hemos batido un récord de asistencia, con 891 participantes entre clientes y partners de EMC. Esta asistencia muestra que existe un gran interés en la evolución y las novedades  de nuestra industria y que los profesionales de TI aprovechan este foro para acercarse a la innovación, así como para conocer de primera mano cómo otras organizaciones de su entorno afrontan los nuevos retos de TI.

En esta edición, como novedad, EMC ha realizado un estudio previo para conocer mejor las prioridades y preocupaciones de nuestros clientes.

Las organizaciones españolas han respondido que el reto más importante para este año 2012 es el mantenimiento de las infraestructuras software y hardware existentes, es decir, lo que venimos describiendo como “mantener las luces encendidas”. Una comparación rápida sitúa este tema  como la quinta prioridad en el Reino Unido, mientras que en Alemania ni siquiera figura entre los cinco retos más importantes para este año. Parece un reflejo de la crisis económica y su distribución geográfica.

El resto de los temas de interés para nuestros clientes son proyectos en los que la innovación está muy presente, y han girado alrededor de temas como la gestión de la información, cloud computing, virtualización, seguridad, escalabilidad de infraestructuras, etc. En general, temas relacionados con las cuatro grandes tendencias de TI: lo social, movilidad, cloud computing y Big Data. Ya he opinado anteriormente que estos cuatro temas se encuentran interconectados. Las redes sociales son una de las áreas de interés de las analíticas de Big Data, mientras las demandas de movilidad se traducen en la necesidad de nubes aún más accesibles y seguras, cuya flexibilidad de uso supone un catalizador para un uso eficiente de volúmenes de datos cada vez mayores y así sucesivamente.

En cuanto a las sesiones, voy a hacer un repaso de los temas más interesantes, tanto a cargo de EMC como de nuestros partners.  Hemos hablado de la transformación interna de EMC para consumir TI como un servicio, convertidos en usuarios de las mismas soluciones cloud que proponemos al mercado. Hemos  compartido las etapas del proyecto, las arquitecturas resultantes y los beneficios alcanzados.

Sesiones sobre la federación de infraestructuras y datacenters como elemento de base para favorecer la movilidad de las aplicaciones, así como para proporcionar nuevos niveles de disponibilidad a los servicios. RPO* cero, RTO** cero. Ciencia ficción, evitar desastres en lugar de recuperarlos.

Big Data ha ocupado un conjunto de sesiones en sus dos principales vertientes. Algunas dedicadas a las problemáticas que su enorme volumen acarrea, donde se ha tratado la escalabilidad, seguridad y gestión. Otras sesiones se han focalizado en la enorme oportunidad que este concepto significa, y aquí se ha hablado de analíticas avanzadas, velocidad y puesta en marcha de la información.

Hemos echado un vistazo a las tecnologías de disco y de memoria. Por si este tipo de temas a veces parece muy técnico y alejado del negocio, hemos reflexionado sobre cómo los nuevos procesos en tiempo real imponen nuevos niveles de rendimiento y de cuáles son las vías para alcanzar esos niveles respetando los presupuestos existentes. Almacenamientos estratificados, mezclas de volumen a bajo precio y rendimiento extremo, con la automatización de los niveles de servicio como piedra angular.

Infraestructuras convergentes, deduplicación, scale-out, datacenter dirigido por software… palabras clave de un auténtico despliegue de las tecnologías, servicios y soluciones que ofrecemos. Pero lo más destacable encabezaba este post. Año tras año EMC Forum es una oportunidad para los profesionales de TI donde encontrarse unos con otros, con nosotros y con nuestros partners. Para EMC es, además de un gran oportunidad, un motivo de satisfacción reunir a tantos amigos alrededor de nuestra casa. Gracias por vuestra asistencia y os esperamos el año que viene.

*RPO (Recovery Point Objective)
**RTO (Recovery Time Objective)

Tan Improductivo como valioso. Backup.

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Empezar diciendo que el backup es una tarea improductiva suena un poco fuerte, pero en honor a la verdad es una descripción realista. No hay mejor backup que aquél que no se utiliza nunca. Ahora bien, nadie discute su necesidad, es nuestro seguro cuando la información se pierde o se corrompe. 

Seguridad versus costes

Un clásico dilema entre seguridad y costes. La seguridad anima a realizar copias muy frecuentemente, de forma que si se corrompe la información podemos volver a la situación más reciente posible. Adicionalmente queremos disponer de copias de cierta información en un momento dado: bases de datos tal como estaban al cierre del transaccional, los ficheros del final del batch, la situación de ayer y anteayer, fotos del final de mes, del cierre de año, de los últimos siete años…     

El límite a tanta seguridad lo pone el consumo de recursos. El volumen de datos de backup en estas condiciones puede fácilmente ser entre cinco y diez veces más grande que el volumen de datos de producción original. Otros recursos afectados son la necesidad de capacidad de proceso, las comunicaciones y el tiempo, que se manifiesta en forma de ventanas de backup difíciles de cumplir.

El backup nos ha acompañado siempre (el restore lo ha hecho CASI siempre), y aunque llevamos trabajando en él durante décadas, nunca deja de ser un tema candente, problemático y evolutivo al mismo tiempo.  

El declive de las cinta

Hemos asistido al declinar del backup en cinta a favor del backup a disco. Ciertamente continúa existiendo una notable base instalada de dispositivos de cinta o robótica asociada, pero no es menos cierto que en la mayor parte de los casos se trata de infraestructura heredada y ya son pocos los nuevos proyectos en los que se apuesta por este tipo de tecnología.  

Las ventajas del  backup a disco tienen mucho que ver con la eliminación de un buen número de tareas manuales o engorrosas, tales como el etiquetado de cartuchos, carga y descarga de librerías, movimiento físico de información entre múltiples centros de proceso o el mantenimiento de la robótica y sus piezas mecánicas. Y con el incremento de la disponibilidad del dato, cuando éste es necesario al ofrecer los discos mecanismos de protección tales como RAID y evitar accidentes o accesos indebidos a la información durante los procesos de transporte y manipulación manual.

La irrupción de la deduplicación

Apoyado en el cambio anterior, se despliega otro avance impactante: la deduplicación. Más allá del tradicional ciclo de backup total seguido de n backups incrementales, la deduplicación permite hacer backup sólo de aquellos bloques que han cambiado, mostrando a la vez un backup sintético que tiene toda la apariencia de un backup total, y que requiere de un único paso para restaurarse.

La deduplicación nos permite incrementar de forma dramática la escalabilidad, reduciendo al mismo tiempo la ventana de backup, los costes operativos, energéticos y de espacio físico o el ancho de banda de las comunicaciones en proyectos de respaldo remoto (oficinas remotas, disaster recovery, etc.). La deduplicación se ha mostrado especialmente eficaz en los entornos virtualizados, en los que distintos sistemas virtuales contienen la misma información de forma redundante cientos o miles de veces.   

IT as a service nuevo reto para el backup

Ahora, las nuevas arquitecturas de producción Cloud Computing suponen una vuelta de tuerca adicional  en escalabilidad y hacen aparecer nuevos requerimientos a los que las tecnologías de backup han de adaptarse.

Los modelos de TI consumidos como servicio generan la convivencia entre múltiples usuarios, departamentos e incluso compañías diferentes en el caso de proveedores de servicios. Al reto de los nuevos servicios multicliente, ofrecidos bien a clientes internos o externos, las tecnologías de backup han respondido con la capacidad de aislar los datos de unos usuarios respecto de otros (multitenancy). De esta forma, cada cliente entendido como un grupo de trabajo, departamento o compañía se considera autónomo y se limita y autoriza a un ámbito determinado de los datos de backup, simplificando su trabajo, respetando la confidencialidad de los datos y evitando interferencias de unos usuarios con otros. 

En definitiva la tecnología y el ingenio desarrollados en los últimos cinco años nos han permitido actuar simultáneamente sobre ambos factores de equilibrio. Mejorar dramáticamente la seguridad de nuestros datos disminuyendo los costes asociados.

 

Video presentación blogger de seguridad

Las preocupaciones de la calle se dividen en preocupaciones de los usuarios finales sobre robo de datos, identidades y de las empresas a quienes les preocupa el cumplimiento de normas… (more…)

Videos Recomendados

Expand The Data Lake: New Data Lake, New Breakthroughs

Archivo del Blog

  • 2016 3
  • 2015 20
  • 2014 7
  • 2013 16
  • 2012 21
facebook
twitter
linkedin
youtube
rss