Archive for September, 2013

3 Formas de aplicar un EDMS en Entornos de Ingeniería y Construcción

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

‘Guest blog’ escrito por José María Sotomayor. Jose María es Senior Systems Engineer para el Information Intelligence Group (IIG) de EMC en España, y en EMEA participa como Stream Leader para la práctica EPC a nivel de preventa, dentro del vertical de Energía e Industria (josemaria.sotomayor@emc.com). Espero que se anime a participar de forma habitual en este blog…    

3 Formas de aplicar un EDMS en Entornos de Ingeniería y ConstrucciónJose Maria Sotomayor EMC

Siempre que me preguntan por cuál es la forma más rápida de mejorar la gestión de la documentación en una compañía de Ingeniería y Construcción, en una EPC como muchas veces se las denomina, siempre pienso en el mismo caso: si la gestión de los documentos está desacoplada de los documentos como tal, porque se use una base de datos, una aplicación propia, listas Excel, etc., ciertamente hay una oportunidad de mejora.

Este factor de separación entre documentos y datos es importante. Una base de datos puede decirnos que existe un documento llamado “0089-PIPING-DIAGRAM-06700001-REV-D” pero ahora nos corresponde a nosotros contestar una serie de preguntas:

  • ¿Dónde está?
  • ¿Quién está trabajando sobre él?
  • ¿Dónde está la copia más reciente? ¿En la unidad de red? ¿En el disco de alguien?

¿Cuánto tiempo hemos invertido (o malgastado) en contestar estás preguntas? Lo peor de todo es que en muchos casos no podemos estar seguros. Los errores y la pérdida de documentos provienen muchas veces de prácticas como esta. Algunas veces me han comentado tiempos increíbles para dar con un documento. No digamos si además estamos hablando de UTEs o proyectos con colaboraciones similares, lo cual es el pan nuestro de cada día. Vamos a echar un vistazo a tres conceptos de gestión documental que aplican muy bien en este tipo de compañías si nos encontramos con este escenario:

  • Repositorio y metadatos.
  • Relaciones
  • Enlaces

 Repositorio y Metadatos

Un repositorio documental se encarga fundamentalmente de mantener los documentos y los datos que los describen (metadatos) juntos, tratándolos como una única unidad. Esto facilita enormemente la clasificación y búsqueda de la documentación. Nosotros definimos los metadatos para clasificar nuestros documentos y poderlos encontrar después, de forma parecida a los campos la base de datos que usábamos antes. Así, cuando buscamos en el repositorio un documento etiquetado como:

PROYECTO: 0089, NOMBRE: PIPING-DIAGRAM-06700001, REVISION: D

Encontraremos entonces el documento que estábamos buscando y toda la información relativa al mismo. Si un delineante está trabajando en él, sabremos quién. Si hacemos clic sobre el documento, podremos ver la última versión disponible. Sin sorpresas, sin lugar a error, e inmediato. En el fondo es la diferencia entre disponer de gestión documental o ser nosotros parte de ese sistema de gestión documental. Los metadatos son la base para disponer de forma unificada de herramientas tan útiles como guardar los comentarios junto con los documentos y poder buscar por ellos, enlazar el avance de los documentos a herramientas como Primavera o registrar información de distribución del documento (transmittals).

Relaciones

La capacidad de crear relaciones en un EDMS (Electronic Document Management System) es crítica en organizaciones de Ingeniería. Este mecanismo asegura que aquellos documentos que deben vivir juntos lo hagan realmente. Una Petición de Cambio es un perfecto ejemplo. Es un documento que modifica o actualiza el contenido de otro, de forma que el original no es modificado. Crear una relación del tipo “El Documento B es una Petición de Cambio del Documento A” nos permite saber en cualquier momento que el Documento A tiene Peticiones de Cambio, así como tener acceso inmediato a las mismas. Las relaciones a veces se usan también para modelar un sistema de “Revisiones”, ya que este concepto del mundo de la ingeniería es bastante distinto del tradicional sistema de “Versiones” que encontramos en un EDMS por defecto. Por ejemplo “Documento A en Revisión C es una revisión del Documento A en Revisión B” es otro de los tipos de relaciones que se pueden modelar.

Enlaces

Los enlaces nos permiten básicamente hacer que los documentos aparezcan en otras carpetas además de donde residen originalmente (son enlazados a otras carpetas).Este procedimiento es muy distinto a crear una copia. A diferencia de un enlace, la copia hace que si se modifica el documento original estos cambios no se vean reflejados en las demás carpetas, mientras que el enlace sí que lo permite (solo tenemos un único documento, en el fondo). Este mecanismo de enlace se utiliza mucho por ejemplo con las Especificaciones y Normativas de Clientes. Se enlazan a las distintas carpetas del proyecto donde es necesario que aparezcan, o entre múltiples proyectos de un mismo cliente. También se usan muy comúnmente con las Requisiciones de Material, ya que estas suelen incorporar documentos ya presenten originalmente dentro de la estructura del proyecto. Y un uso avanzado realmente útil es el de enlazar los documentos a estructuras alternativas de desglose tipo HBS, WBS, etc., para poder así navegar los documentos del proyecto de distintas formas, en función de la disciplina o rol de cada persona del proyecto.

Hemos querido empezar esta serie de entradas sobre Gestión Documental e Ingeniería por conceptos muy sencillos, pero que encierran un gran potencial. Hay muchos más que iremos cubriendo más adelante. Aunque existen soluciones directamente adaptadas al mundo de la Ingeniería como EMC Documentum EPFM (Engineering, Plants and Facilities Management) que utilizan estos conceptos como base para aportar una solución end to end completa para estas organizaciones, conocerlos puede ayudar en gran medida a enfocar nuestro proyecto, metas y medios para conseguirlos.

Por Jose María Sotomayor

 

Una historia sobre Big Data

David Beltrán

David Beltrán

David Beltrán cuenta con más de 20 años de experiencia en la industria TI. Trabaja en EMC desde el año 1999. Actualmente es Lead Global Architect para uno de los dos bancos más grandes de España. A lo largo de su trayectoria, ha trabajado con clientes de los distintos segmentos, incluyendo Finanzas, Seguros, Sector Público, Salud, Industria, Telco, Retail, Transportes, Petróleo y Gas.
David Beltrán

Latest posts by David Beltrán (see all)

En uno de mis últimos viajes a las Américas, tuve la ocasión de compartir una reunión de trabajo con un grupo de compañeros expertos en esto que últimamente está tanto de moda y que se denomina Big Data, algo sobre lo que todos los fabricantes del sector nos jactamos de tener la solución idónea para las problemáticas de nuestros clientes. 

Confieso que me vi sorprendido por la pasión y poder de comunicación de este equipo, pero sobre todo por su capacidad de generar “demandas terrenales” para la entelequia del Big Data.

Como ejemplo de modelo de proyecto al uso, nos ilustraron con la siguiente historia:

Imaginemos que tenemos una entidad bancaria que un día concreto del año sufre un ataque a su red de cajeros. Nada muy extraño por desgracia hasta aquí. Pero el ataque del que estamos hablando no es un ataque cualquiera, es algo mucho más sofisticado. Imaginemos por un momento que esta entidad sufre, en un intervalo de tiempo de media hora, un ataque coordinado en decenas de cajeros a lo largo de varios estados del país, que consiste en abrir el cajero, y mediante un procedimiento informático local, dar una orden de vaciado completo del dispensador de dinero.

Para perpetrar este hecho, es necesario para la red de delincuentes contar con la connivencia de empleados del propio banco y empleados del fabricante de los cajeros, conocedores ambos tanto de la tecnología a asaltar como de los mecanismos de seguridad puestos en marcha.

El hecho es que, de manera muy discreta, y disfrazado prácticamente como una intervención de servicio, el Banco en cuestión pasa a tener una merma de 50 millones de Reales en apenas unos minutos.

Una vez que el Banco se pone a investigar el hecho y ver cómo se podía haber evitado, descubren que realmente cuentan con una fuente de información excepcional, los logs de los cajeros, emitidos en tiempo real por los mismos y almacenados en la central.

Pero, ¿y ahora qué? De nada sirve poner a varias personas a leerse dichos logs en busca de algo que alerte sobre la posible causa del ataque, porque el ataque ya se ha producido, es demasiado tarde. Por lo tanto, y decididos a invertir para que esta fechoría no vuelva a suceder, el Banco decide contactar con nuestro equipo de expertos en la materia, los cuales, y de forma muy resumida, proporcionan lo siguiente:

1. Una plataforma potente para el procesado en tiempo real de dichos logs, basada en Greenplum y Hadoop.
2. Un algoritmo a medida de detección de intrusión o ataque en los cajeros, que proporciona un 95% de acierto en sus conclusiones.
3. Los servicios de implantación pertinentes para todo el proyecto.

Fíjense en la importancia del segundo punto, es la clave. Es fundamental contar con la presencia de un equipo de data scientists, es decir, personas capaces de desarrollar algoritmos de explotación de los datos adecuados a la necesidad concreta que atañe al proyecto en sí. En este caso, y en un plazo de una semana, el data scientist fue capaz de desarrollar un algoritmo matemático de predicción basado en la información de estado que proporcionan los cajeros automáticos de la entidad asaltada.

De esta manera, el Banco cuenta con una plataforma de análisis en tiempo real capaz de detectar de forma casi infalible un ataque perpetrado en la red de cajeros en el momento en el que se produce.

Y hasta aquí podría parecer otra bonita historia de ciencia ficción sobre Big Data y las posibles aplicaciones de uso que los fabricantes nos empeñamos en desarrollar para nuestros clientes. La diferencia estriba en que, esta vez, la historia es muy real, y sirve además para ilustrar cómo un fabricante como EMC es capaz de proporcionar un proyecto end-to-end de última tecnología que aporta un valor añadido inmenso para un cliente.

Renovación generacional y eficiencia de proceso

Alejandro Giménez

Alejandro Giménez

Alejandro Giménez, CTO EMC España. Un veterano con 20 años de experiencia tecnológica y comercial en el mundo de las TI. Sus clientes son su fuente favorita de información. Valora a EMC como un germen de innovación permanente @alexgimenezf

Ayer asistimos al lanzamiento mundial de una importante serie de novedades en las soluciones de EMC: La nueva generación de almacenamiento unificado VNX, así como su incorporación en las arquitecturas de referencia VSPEX, la disponibilidad general de ViPR, nuestra solución de Almacenamiento Definido por Software y un primer vistazo al proyecto ‘Nile’, cuyo objetivo es trasladar los conceptos de facilidad de uso y consumo elástico de recursos de la nube pública al datacenter. Sobre todos estos temas nos gustará hablar en este foro en fechas próximas, pero hoy quiero repasar esta renovación generacional del almacenamiento de gama media y más concretamente, las mejoras derivadas de un uso más eficiente de la capacidad de proceso.

Es un buen momento para recordar que EMC ha ido evolucionando todas sus plataformas hardware hacia la estandarización mediante la adopción completa de tecnología Intel x86. Sin ASICs, ni otros elementos extraños. Esta estrategia no sólo significa incorporar sus CPUs a toda nuestra gama de soluciones, sino colaborar con su departamento de ingeniería para alinear el desarrollo de nuestros productos con los suyos, lo que finalmente se traduce en una mejora permanente del rendimiento de nuestros sistemas.

Desde este punto de vista, la nueva gama VNX es mucho más que un refresco tecnológico; constituye una evolución de la arquitectura, que rediseña los procesos de entrada salida para garantizar un incremento del rendimiento a gran escala y de forma automatizada, sin optimizaciones manuales.

Estas mejoras están imbricadas en la nueva generación de plataformas VNX, y se apoyan tanto en avances tecnológicos como en cambios de código que han dado lugar al nuevo entorno operativo MCx, enfocado en exprimir todas las ventajas de las CPU multicore. Es importante resaltar que la optimización se realiza vía software y que permite un factor de escalado del backend superior al 97%, prácticamente lineal, lo que constituye toda una medida de eficiencia; o sea, que la adición de un mayor número de cores en el futuro se asumirá de forma eficiente y se traducirá en el correspondiente incremento del rendimiento.

La optimización multicore es clave para el futuro de las plataformas de EMC, tanto para mantener una óptima relación precio/rendimiento como para desarrollar futuros e innovadores productos.

Entorno Operativo MCx

Eficiencia Multicore

Algunas de las mejoras que este software incorpora son:

Multi Core Cache. Las mejoras se han dirigido a optimizar los mecanismos automáticos de ajuste dinámico de cargas, eliminando las limitaciones artificiales e ineficiencias que provoca la división entre cache de lectura y escritura así como las tareas de parametrización manual asociadas. El resultado es una mejora patente del rendimiento y una mayor facilidad de uso.

Multicore RAID. El tamaño cada vez mayor de los sistemas de almacenamiento continuará promoviendo la protección RAID 6; en los nuevos sistemas VNX, la funcionalidad multicore RAID garantiza que si un segundo disco falla se recupera de forma paralela y simultánea con el primero. Además, se elimina la necesidad de definir de forma manual los discos de spare, de forma que cualquier disco no utilizado es candidato a ser utilizado para este fin. En definitiva, recuperaciones más rápidas, disponibilidad mejorada y gestión más sencilla.

Multicore Fast Cache. El uso de esta cache extendida se ha mejorado mediante la optimización de los algoritmos de memoria, promoviendo los datos de forma más temprana, reduciendo las latencias y liberando proactivamente recursos durante los períodos de actividad pico.

Symmetric Active/Active. Esta funcionalidad permite el acceso simultáneo de cualquier controladora a cualquier LUN sin necesidad de configurarlo manualmente, y mejora el rendimiento balanceando las cargas entre los procesadores de servicio en modo activo/activo; el resultado se traduce en un uso más eficiente de los recursos, mejoras de la disponibilidad en caso de incidentes en el canal, failover más limpios y rápidos, y eliminación de las tareas manuales de asignación LUN/Procesador.

Mejoras en el uso de tecnologías Flash, incluyendo la integración entre VNX y las tarjetas de cache de servidores XtremSF, lo que define un nuevo estrato de almacenamiento de rendimiento extremo.

Aunque esta entrada se ha focalizado fundamentalmente en la optimización del uso de las CPUs, éstas no son, por supuesto, las únicas mejoras de la nueva gama VNX. A éstas habría que añadir otras nuevas funcionalidades como deduplicación de bloque (la deduplicación de archivo ya estaba disponible en la generación anterior), mejoras en la integración con Microsoft Hyper-V, en la protección de aplicaciones o incrementos en la capacidad de los sistemas, etc. La información completa está disponible en nuestra página web (http://spain.emc.com/index.htm).

Videos Recomendados

Expand The Data Lake: New Data Lake, New Breakthroughs

Archivo del Blog

  • 2016 3
  • 2015 20
  • 2014 7
  • 2013 16
  • 2012 21
facebook
twitter
linkedin
youtube
rss