El valor de la gestión de datos

¿La nube y el Big Data son incompatibles?

Publicado el 27/08/14 4:00
Desde su creación, los mejores avances en tecnología de la información siempre habían estado disponibles casi exclusivamente para empresas tecnológicas, grandes organizaciones, instituciones gubernamentales y educativas. Eso fue así hasta el surgimiento de la computación en la nube, en un proceso que muchos llaman la democratización de la tecnología de la información. Con un alcance cada vez mayor, una reducción significativa en el coste y la abundante variedad de aplicaciones disponibles, cualquiera en estos momentos puede tener la capacidad de aprovechar lo mejor de la tecnología existente. Y muchas veces sin gastar ni un céntimo en inversión inicial.

Pero la democratización de la tecnología de la información no solo afecta a la nube sino que con ella puede afectar también al Big Data. La adopción de Hadoop está creciendo a un ritmo acelerado y la capacidad de obtener analíticas mediante hardware no propietario y asequible se está volviendo más omnipresente.

La nube y el Big Data

 

Plantear la pregunta de la posible incompatibilidad entre la computación en la nube y Big Data nos remite a una realidad compleja y al mismo tiempo apasionante, la actual, en la que conviven diferentes tecnologías y metodologías que están en constante evolución y transformación.

Para buscar una respuesta debemos llevar a cabo un planteamiento claro de los distintos conceptos a los que nos referimos cuando hablamos de la nube, por un lado, y de Big Data, con Hadoop en su núcleo, por otro.

Si, por un lado, no puede negarse que actualmente Hadoop es líder absoluto en analítica de grandes datos, pues permite resolver muchos de los retos a nivel corporativo, también es cierto que el mundo Big Data es un fenómeno nuevo. No sabemos hacia dónde caminará, si Hadoop tendrá un largo recorrido o lo sustituirán otras tecnologías, aunque sí conocemos su tremendo potencial y su imparable empuje.

Por lo pronto, mientras Hadoop tiene poco más de una década, el cloud computing prácticamente acaba de nacer, aunque también es cierto que su aparición ha disparado los grandes volúmenes de datos, ya que su irrupción ha sido revolucionaria, y sus grandes ventajas como concepto están fuera de toda duda. Por su parte, lejos de ser una metodología, el corazón del Big Data lo constituye una plataforma de computación distribuida que incluso llegan a utilizar los servicios en la nube como parte de sus servicios.

¿Entonces, por qué considerarlos conceptos excluyentes? Más bien podríamos hablar de complementariedad o coexistencia como soluciones de muy distinto tipo que conforman la nueva realidad de los entornos TI, cuya demanda de almacenamiento y análisis de grandes datos crece de manera exponencial.

¿Cloud para proyectos de Big Data?

¿Pero, por qué subir Hadoop a la nube, tiene algún sentido? ¿Por qué el cloud es la mejor opción para proyectos de Big Data? Las dudas son lógicas, pues:

  • Hadoop convierte en potencialmente útil el océano de información de Big Data, caracterizado por datos estructurados y desestructurados.
  • Sin embargo, Hadoop no precisa del cloud para su funcionamiento, ya que suele desplegarse en entornos físicos ubicados en centros de datos.
  • Pero por otro lado, Hadoop sí parece ser imprescindible para el cloud, a tenor de iniciativas como la de EMR de Amazon, que utiliza un marco de Hadoop para para permitirnos procesar grandes cantidades de datos aprovechando sus ventajas.

Hoy por hoy, gozan de excelente salud tanto Big Data, que no se entiende sin Hadoop Apache y su rico ecosistema, como el cloud computing, que también empieza a estar unido a este framework opensource creado para permitir la computación distribuida en comodity hardware.

Por lo tanto, cabe preguntarse si finalmente las ventajas del cloud no acabarán por imponerse a las infraestructuras tradicionales, aunque el resultado no dejará de ser Big Data en un sentido amplio.

Como concepto o metodología, por lo tanto, el cloud computing es un proceso que ofrece recursos de computación bajo demanda a través de internet, y esto incluye todo, desde aplicaciones o software hasta los centros de datos. Por último, Hadoop es una plataforma basada en la computación distribuida, un gigante en el procesamiento de datos de bajo costo que alimenta el fenómeno Big Data procesando datos multiestructurados, ahora también en la nube, para finalmente almacenarlos en centros de datos. Por lo tanto, difícilmente puede hablarse de incompatibilidad.

La nube y big data forman una pareja perfecta

De hecho, las empresas pueden obtener mucho valor a partir de datos adquiridos a través de análisis de big data soportado por una infraestructura en la nube. La explosión de datos no estructurados significa que las formas de aprovechar los beneficios de la nube y el big data son más importantes que nunca. Un modelo de nube híbrida, por ejemplo, puede ayudar a las organizaciones a abordar problemas de seguridad en su nube privada, al tiempo que aprovecha la infraestructura de nube pública para servicios analíticos.

En cuanto a proyecciones de crecimiento de datos, la cantidad de datos creados para el año 2020 alcanzará los impresionantes 43 billones de gigabytes, con seis mil millones de personas en posesión de teléfonos móviles.

La computación en nube y el big data, aunque todavía en constante evolución, están demostrando ser la pareja perfecta. Juntos, proporcionan una infraestructura rentable y escalable para soportar big data y análisis de negocios.

Pasar del antiguo modelo de datos estructurados al mundo de los datos no estructurados mediante una tecnología muy asequible constituye una enorme ventaja competitiva que nos permite acceder a una gran cantidad de fuentes de información.

Fuente imagen: hiena reality/ FreeDigitalPhotos.net

 

Post relacionados:

 

New Call-to-action

Temas: Big Data