Desafíos con Hadoop para aprovechar los beneficios de Big Data

En este post repasamos los mayores desafíos para la implementación de Hadoop, el framework opensource líder en tecnologías de Big Data.


Desafios_Hadoop_aprovechar_beneficios_Big_Data.jpg

Son muchos los desafíos que enfrentar para la adopción de Hadoop, el framework líder para sacar partido de Big Data, y algunos de ellos ofrecen una especial complejidad. Sin embargo, un eficiente análisis de los grandes datos suele requerir su uso, con lo que prácticamente resulta obligatorio superarlos.

A la hora de ponernos manos a la obra, en efecto, la inclusión de Hadoop en la infraestructura de TI significa un gran reto. Tanto si lo hacemos on premise como si se utiliza como un servicio, aisladamente o trabajando conjuntamente con otros sistemas que, a su vez, pueden ser locales o estar alojados en la nube. 

Algunas de estas combinaciones resultarán más factibles que otras para usuarios no especializados, si bien a menudo se requieren soluciones ad hoc que exigen implementaciones específicas para así optimizar su rendimiento. Sirva de ejemplo, sin ir más lejos, la necesidad de realizar implementaciones complejas o de posibilitar consultas en tiempo real, uno de los talones de Aquiles de la plataforma opensource.

 

La capacitación, principal obstáculo

La escasez de técnicos es otra de las debilidades que cabe atribuir a Hadoop. No en vano, el principal obstáculo a la hora de implementarlo, según un estudio de Gartner basado en encuestas realizadas en 2015 a los miembros del Gartner Research Circle. A su vez, considerando el entusiasmo generalizado que despierta su uso, esta falta de competencia tecnológica podría verse subsanada en los próximos años, apunta la consultora.

Una carestía de expertos que, también de acuerdo con ésta, obliga al personal tecnológico a especializarse en soluciones de grandes datos, en concreto en Hadoop como tecnología de referencia, pues se han revelado como esenciales para generar valor de negocio. Sin duda, una interesante fórmula para suplir la dificultad actual de encontrar expertos, tanto para su implementación como para el análisis de los datos.

 

Responder a las necesidades es la clave

Junto con la falta de conocimientos, la dificultad de extraer valor de forma efectiva y los problemas de integrarlo con las infraestructuras propias son las tres principales razones que desalientan el uso de Hadoop, concluye el trabajo.

Son tres problemas que requieren de soluciones adaptadas a las necesidades de negocio planteadas. Incluso la misma elección de Hadoop debe responder a una reflexión previa, pues no siempre es la solución idónea. Yendo más allá, con anterioridad deberíamos haber decidido si realmente precisamos un análisis de grandes datos.

Será, por lo tanto, una suma de decisiones acertadas por parte del CIO y los jefes de negocio, lo que nos pondrán en la línea de salida. Posteriormente, deberemos prepararnos para ir avanzando en la carrera de obstáculos que nos espera. Lógicamente, solo superándolos con la suficiente capacitación podremos conseguir un exitoso procesamiento.

Cada situación será distinta, por lo que la casística determina los retos a superar. En función de los requerimientos de que se trate se plantearán estrategias concretas que implicará hacer frente a distintos envites. Entre otros, es importante resaltar los ajustes planteados por los sistemas de TI híbridos, su compatibilidad con otras tecnologísa de Big Data o, pongamos por caso, la elección de las herramientas pertenecientes a su rico ecosistema.

Sus diversos lenguajes, tanto por su programación multilenguaje como por facilitar su transición (casos del Hive and Hue o del Hadoop Streaming, que convierte el SQL en un trabajo de Map Reduce), es otra característica que puede generar confusión. Sin embargo, todas las herramientas conforman el puzzle de Hadoop y deben encajar a la perfección.

Igualmente, son costantes las nuevas aportaciones, con lo que estar al día para hacer la mejor elección para nuestro proyecto es otro imperativo. Sin olvidar, por otro lado, la importancia de hacer una buena elección al optar por uno u otro proveedor, en caso de descartar el uso del opensource original. 

De nuevo, las necesidades y preparación que tengamos nos ayudará a hacer la mejor elección. En lo que respecta a las fórmulas comerciales, además de la mayor facilidad de uso y de la asistencia técnica, entre otras ventajas, es clave optar por aquellos proveedores idóneos. Es decir, aquellos que mejor puedan satisfacer las necesidades particulares de nuestro proyecto o proyectos, si bien los planteamientos más complejos precisarán de grandes especialistas capaces de controlar riesgos, con lo que las soluciones comerciales podrían quedarse cortas o ser inadecuadas.   

En Hadoop, iniciarse significa, simplemente, pasar a la acción, ya que dando pequeños pasos se pueden alcanzar objetivos bien definidos. De hecho, el aprendizaje de estos profesionales es continuo y alcanzar la especialidad exige empezar desde el principio, con proyectos más simples.

En definitiva, sea como fuere, las grandes oportunidades que brinda el uso de Hadoop bien valen la pena el esfuerzo. Sobre todo, habida cuenta de que generalmente los inconvenientes son subsanables. A buen seguro, el trabajo se verá recompensado convirtiendo a este elefante amarillo en nuestro mejor aliado para extraer todo su jugo a los datos. O, lo que es lo mismo, para transformar el tándem ganador Hadoop-Big Data en valiosas ventajas competitivas.

Fuente imagen: Tuomas_Lehtinen / FreeDigitalPhotos.net

 

New Call-to-action

Artículos relacionados

Subscríbete a nuestro blog y recibe las últimas actualizaciones sobre gestión de datos.

Descubre contenido nuevo todos los días para profundizar la transformación digital en tu organización.