Guía práctica para diseñar y gestionar un clúster Hadoop

Big Data promete grandes cosas, pero pasar a la acción en el procesamiento de grandes datos no siempre es fácil. A nivel técnico, iniciados y no inic


hadoop operations and cluster management cookbook pdf

Big Data promete grandes cosas, pero pasar a la acción en el procesamiento de grandes datos no siempre es fácil. A nivel técnico, iniciados y no iniciados pueden encontrarse con un sinfín de dificultades a la hora de instalar un clúster Hadoop, tecnología prácticamente obligada en este tipo de entorno de datos masivos.

"Hadoop Operations and Cluster Management Cookbook" es una guía práctica que orienta sobre cómo diseñar y gestionar un clúster Hadoop, con ejemplos e indicaciones sencillas para los programadores y administradores que busquen desenvolverse a un nivel básico o también resolver problemas específicos.  

El libro es una suerte de manual orientado a un aprendizaje fácil. Parte de aspectos generales, como el concepto de los datos no estructurados y la posibilidad de extraer información valiosa a partir de ellos para la toma de decisiones de negocio más inteligentes. Una realidad en la que, explica el libro, Hadoop tiene un papel protagonista gracias a su capacidad para analizar y procesar estos datos.

 

Descárgate nuestra Guía sobre Big Data

 

Tras una somera y casi obvia introducción de contexto, se entra en materia de forma pormenorizada y práctica, siempre ofreciendo recetas que guían con la instalación desde la misma selección de hardware o aspectos a tener en cuenta en la creación de redes. En este punto, el libro presupone un cierto conocimiento de la comunicación a través de redes y, en general, también presupone una cierta experiencia.

También les presupone una cierta experiencia con Unix, ya que Hadoop es una herramienta desarrollada en este sistema operativo, lo que puede suponer un handicap para el usuario acostumbrado a Windows, además de centrarse en la eficacia y dejar de lado aspectos relacionados con la manejabilidad de este framework opensource.

El libro se divide en ocho capítulos que tratan temas de todo tipo, enfocados a su puesta en marcha y obtención de rendimiento

  1. Capítulo 1: Big Data y Hadoop 
  2. Capítulo 2: Preparación para la instalación de Hadoop: elección de hardware par alos nodos del clúster, diseño de la red, configuración de la administración, instalación del sistema operativo Linux, de Java y otras herramientas, configuración de SSH. 
  3. Capítulo 3: Configuración de un clúster de Hadoop 
  4. Capítulo 4: La gestión de un clúster Hadoop 
  5. Capítulo 5: Endurecimiento de un clúster Hádoop 
  6. Capítulo 6: Supervisión de un clúster Hadoop 
  7. Capítulo 7: El ajuste de un clúster Hadoop para un mejor funcionamiento 
  8. Capítulo 8: La construcción de un clúster Hadoop con Amazon EC2 y S3 

Su autor, Shumin Guo, es un estudiante de doctorado en Ciencias de la Computación en la Universidad Estatal de Wright, en Dayton, Ohio, Estados Unidos. Ha estado trabajando como administrador del sistema, programador e investigador en State Street Corp. y LexisNexis, donde se ha centrado en el Cloud Computing y la computación social, un área relacionada con el análisis de las redes sociales, los proyectos de código abierto y su impacto en la vida cotidiana.

 

Post relacionados:

 

hadoop y el bigdata 

Fuente imagen: Packt Publishing http://www.packtpub.com/

Artículos relacionados

Subscríbete a nuestro blog y recibe las últimas actualizaciones sobre gestión de datos.

Descubre contenido nuevo todos los días para profundizar la transformación digital en tu organización.