El Valor de la Gestión de Datos

Big Data y Hadoop, un tándem que funciona

Escrito por Redacción PowerData | 13/01/15 8:00

 

El tándem Big Data-Hadoop se ha revelado como revolucionario. El enorme potencial del opensource del elefante amarillo para almacenar y tratar grandes datos a un bajo coste, sin duda, ha supuesto un antes y un después en la analítica de grandes datos. 

Naturalmente, ello no significa que no tenga debilidades. De hecho, no son pocas sus carencias, algunas coyunturales, como la escasez de técnicos, y otras subsanables con nuevas tecnologías que todavía están en desarrollo o recurriendo a complementos que, por ejemplo, permitan un análisis en real time.

De un modo u otro, prácticamente todos son problemas subsanables y, en muchas ocasiones, merece la pena afrontar el desafío, ya que Apache Hadoop permite el procesamiento de grandes conjuntos de datos en un entorno distribuido con alto rendimiento y fiabilidad.

Sus grandes prestaciones para escalar a bajo costo pueden conllevar inconvenientes en el entorno empresarial, es cierto, pero por otra parte Hadoop se ha convertido casi en sinónimo de Big data. Con Hadoop, los grandes datos tienen un significado, algo no exclusivo de esta tecnología, pero sí lo es que obtenerlo, sacarle todo su jugo, esté al alcance de muchos. 




Hadoop extrae el valor de Big Data

Para los usuarios finales, se logra ejecutando aplicaciones que ejecutan miles de terabytes de datos a través de miles de nodos con el objetivo de extraer valor. Se trata, en suma, de hacer que los datos hablen. Es de este modo como Hadoop baja a la tierra Big Data.

Además de permitir analizar y hacer predicciones, se puede volver a analizar y realizar esa predicción tantas veces como sea necesario mediante un procesamiento que analiza y predice, sin límites, en un constante mirar hacia adelante como ventaja comparativaSólo con Hadoop es posible, aunque supone un desafío distinto hacerlo recurriendo al opensource original o a herramientas comerciales. 

Unas y otras permiten sacarle todo su jugo al Big Data. Si implementarlo es un desafío por problemas de ingeniería, de estándares de seguridad y otros puntos débiles, su alto rendimiento y fiabilidad bien merecen el esfuerzo. 

Habida cuenta de su enorme potencial y de su popularidad, no es demasiado aventurado afirmar que Hadoop ha llegado para quedarse. Con unos u otros elementos que lo complementen para mejorar estas debilidades. A buen seguro, aparecerán nuevas herramientas, como por ejemplo motores in memory para posibilitar las consultas en tiempo real.

Muy probablemente, su maduración traerá mejoras y una evolución positiva, como ya ocurrió con las bases de datos relacionales, ahora totalmente consolidadas. Su imparable crecimiento apoya este optimismo, así como su portentosa capacidad para procesar, para realizar operaciones de análisis, su escalabilidad infinita y como gran repositorio de datos. 

Hadoop está teniendo éxito también entre usuarios no especializados y, de hecho, empieza a ofrecerse también como servicio. El objetivo, ahora, es perfeccionarlo, reducir el tiempo que tarda en correr o, por ejemplo, garantizar su rendimiento.  

 

 

Tal vez te interese leer: 
Importancia de los grandes datos para el marketing y la publicidad