El valor de la gestión de datos

5 ventajas de la arquitectura de Hadoop

Posted on Mon, Feb 16, 2015

 

arquitectura hadoop

El exponencial crecimiento de Big Data es independiente de la existencia de Hadoop, pero sin este software de código abierto resulta difícil, si no imposible, concebir tanto un almacenamiento, como un procesamiento y extracción de valor de los grandes datos a un bajo coste. 

Para analizar Big Data sin Hadoop, es decir, para aprovechar las ventajas estratégicas que ello supone para la ciencia y también para las organizaciones en general, habría que buscar otra tecnología que permitiera hacerlo de un modo eficiente. O quizá deberíamos decir mejor que habríamos de crearla, aunque a buen seguro sería complicado que pudiera ofrecer todas sus ventajas.

No en vano, la arquitectura de Hadoop tiene unas características que se adaptan a la perfección a las necesidades del universo Big Data, tanto para su almacentamiento como para permitir el intercambio de archivos y la posibilidad de llevar a cabo análisis de datos heterogéneos de forma rápida, flexible, escalable, a bajo coste y resistente a fallos.

 

Descárgate nuestra Guía Avanzada sobre Big Data

 

Los puntos fuertes de la arquitectura de Hadoop

La arquitectura de Hadoop permite llevar a cabo un análisis eficaz de grandes datos no estructurados, añadiéndoles un valor que puede ayudar a tomar decisiones estratégicas, a mejorar los procesos de producción, ahorrar costes, hacer un seguimiento de lo que opina la clientela o a extraer conclusiones científicas, pongamos por caso.

Lo hacen posible su tecnología escalable, su velocidad (no en tiempo real, al menos no sin ayuda, como la que proporciona Spark), flexibilidad, entre otros puntos fuertes. Si tenemos que señalar sus cinco principales ventajas, serían las siguientes:

  1. Tecnología altamente escalable: Un clúster de Hadoop puede crecer simplemente añadiendo nuevos nodos. No es necesario hacer ajustes que modifiquen la estructura incicial. Por lo tanto, nos permite un crecimiento fácil, sin estar atados a las características iniciales del diseño, haciendo uso de decenas de servidores de abajo costo que, a diferencia de la base de datos relacional, no puede escalar. Gracias al procesamiento distribuido de MapReduce, los archivos se dividen en bloques de forma sencilla.

  2. Almacenamiento a bajo costo: La informacion no se almacena de forma predefinida, en filas y columnas, como ocurre con las bases de datos tradicionales, sino que Hadoop asigna datos categorizados a través de miles de computadoras baratas, y ello supone un gran ahorro. Sólo así se convierte en factible. De otro modo, no podríamos trabajar con grandes volúmenes de datos, pues el costo sería altísimo, inasumible para la gran mayoría de las empresas.

  3. Flexibilidad: Al incrementar el número de nodos del sistema también ganamos en capacidad de almacenamiento y procesamiento. A su vez, es posible agregar o acceder a nuevas ydiferentes fuentes de datos (estructurados, semiestructurados y no estructurados), al tiempo que existe la posibilidad de adaptar herramientas accesorias que funcionan en el entorno Hadoop y ayudan en el diseño de procesos, la integración o mejorar otros aspectos.

  4. Velocidad: De poco nos servirán su bajo coste, escalabilidad y flexibilidad si el resultado no es razonablemente rápido. Afortunadamente, Hadoop también permite ejecutar procesamientos y realizar análisis muy rápidos.

  5. Tolerante a fallos: Hadoop es una tecnología que facilita almacenar grandes volúmenes de información, lo que a su vez permite recuperar datos de forma segura. Si un equipo se cae, siempre hay otra copia disponible, con lo que es posible la recuperación de datos en caso de producirse fallos.

Fuente imagen: twobee / FreeDigitalPhotos.net

 

Post relacionados:

New Call-to-action

Topics: Big Data