La irrupción del Big Data es un reto para el tradicional almacenamiento de datos, pero ello no significa que necesariamente hayamos de cerrar las puertas a las tecnologías más antiguas. Por un lado, no cabe duda de que la gestión de la información se nos presenta en este nuevo contexto como un gran desafío, lleno de emocionantes oportunidades y cambios sustanciales, si bien aquellas no tienen por qué desaparecer.
Los gestores de datos tradicionales, como es bien sabido, no son las soluciones de Big Data más apropiadas. Simplemente, los almacenes de datos de empresa (EDW, por sus siglas en inglés), no están concebidos para abordar el almacenamiento, procesamiento y análisis de los grandes datos.
Aunque no pueden dar respuesta a las necesidades actuales de inteligencia de negocio, en las que los datos cobran un protagonismo inédito, no puede negarse que los EDW aportan grandes ventajas para el almacenamiento y gestión de datos. Por lo tanto, siguen siendo eficaces para satisfacer requerimientos que no impliquen el almacenamiento y análisis de datos masivos, con una utilidad complementaria.
Otras tecnologías, lógicamente, tendrán que ocuparse de almacenar y procesar los grandes datos. Tal y como ocurría hasta ahora, -o incluso con una mayor importancia, si cabe-, a la hora de diseñar arquitecturas híbridas no comprometer la integridad, seguridad y rendimiento de los datos empresariales críticos sigue siendo clave.
Considerando que el almacenamiento de datos es lo que facilita encontrar respuestas a preguntas complejas en grandes conjuntos de datos, éste debe regirse mediante un modelo de datos integrado. En primera instancia se extraen datos de diversas fuentes, y éstos se almacenan para ser analizados de muchas maneras diferentes. De precisarse, incluyendo también fuentes internas, por lo general procedentes de las bases de datos relacionales
Porque extraer valor de los datos significa contar con tecnologías eficientes, que permitan trabajar con ellos con agilidad, seguridad, oportunidad y, en fin, garantizando que los datos sean útiles. Lograrlo, sin duda, es uno de los principales retos del almacenamiento de datos y tanto las tecnologías antiguas como las modernas, o la suma de todas ellas, evolucionan en favor de este objetivo último.
Actualmente, el almacenamiento de datos se expande para dar respuesta a los datos masivos. No en vano, los datos digitales que hoy nos brinda el universo Big Data sumado al Internet de las cosas son el nuevo reto en la la recogida de datos, almacenamiento y análisis. Y, cómo no, e interés de recabar datos de un sinnúmero de fuentes a la hora de extraer información relevante persigue aportar información clave que nos ayude a ser más competitivos.
Tal vez te interese leer:
Claves para tener éxito en el análisis de Big Data
Además de las tradicionales fuentes internas, a medida que el valor de la analítica de grandes datos crece, el almacén de datos debe administrarse aplicando una nueva cultura, habilidades, tecnologías y sistemas necesarios para llevarla a buen puerto.
Entre otros elementos de este nuevo panorama, destacan los profesionales bautizados como data scientist, así como el cloud computing. Dentro de éstas, en especial MaapReduce/Hadoop, NoSQL, herramientas de reporting y RDBMS extendidos son otras soluciones, marcos de trabajo y arquitecturas que han surgido para hacer frente a los grandes datos.
Así las cosas, si el objetivo es realizar análisis de grandes datos, los EDW deberán de complementarse o, en algunos casos, sustituirse por tecnologías capaces de hacer frente a este auténtico desafío.
De hecho, la revolución digital exige poder almacenar y procesar ingentes cantidades de datos de distinto tipo, descubrir su valor. A diferencia de lo que ocurría anteriormente, ahora es posible hacerlo a un bajo coste. En concreto, la alta eficiencia ha convertido a Hadoop en el paradigma dominante del almacenamiento escalable y procesamiento de los grandes datos.
A su vez, cuando se trata de almacenar datos, la opción de la nube tiene una aceptación cada vez mayor, que no cesa de aumentar. Sin embargo, al igual que ocurre con las tecnologías locales de Big Data, se observa una cierta resistencia o dificultad en este periodo de transición, entre otros factores por la novedad que ello supone, sumado a la escasez de especialistas.
Tanto Hadoop como el cloud computing ofrecen soluciones ventajosas para el almacenamiento de los grandes datos, con la posibilidad de que los servicios en la nube utilicen una plataforma de computación distribuida y ofrezcan desde aplicacones hasta software o centros de datos idóneos como soluciones de Big Data. De nuevo se trata de soluciones potencialmente complementarias.
En definitiva, la clave está en la flexibilidad y en el enfoque integrado. Solo si sabemos subirnos al carro de la innovación, sin dejar de aprovechar las ventajas de los recursos tradicionales, el alcance de nuestro EDW permitirá un almacenamiento y procesamiento de datos ad hoc que resulte factible. El papel del DWH en la era del Big Data sigue teniendo relevancia dentro de una arquitectura híbrida diseñada a la medida de nuestras necesidades.