A continuación se muestra la lista de los mejores libros de Big Data y Hadoop:
a. Hadoop – La guía definitiva por Tom White
Este es el mejor libro para que los principiantes aprendan a Hadoop a ser desarrolladores de Hadoop y administradores de Hadoop. El lenguaje es bastante fácil y cubre conceptos de Hadoop y su ecosistema junto con características de Hadoop2.x como YARN, HA, etc. Aprenderá cómo desarrollar y mantener sistemas confiables y escalables de múltiples nodos con Apache Hadoop y cómo analizar grandes conjuntos de datos con él. .
si. Hadoop para Dummies por Dirk Deroos
- ¿Cuáles son los mejores libros sobre mercadeo en red?
- ¿Sobre qué leerías un libro?
- ¿Qué libro recomendarías para un conocimiento profundo del aprendizaje automático?
- ¿Por qué 1984 es un libro tan bueno?
- ¿Qué libros leíste para aprender el arte de invertir y los mercados de valores?
Este libro es fácil de leer y entender. Hace que los lectores comprendan el valor de Big data y cubre conceptos como el origen de Hadoop. su funcionalidad y beneficios y pocas aplicaciones prácticas de Big Data. También cubre el ecosistema de Hadoop y los programas Map Reduce y muestra cómo las aplicaciones de Hadoop se pueden usar para minería de datos, resolución de problemas y análisis de datos y cómo evitar dificultades comunes al desarrollar el clúster de Hadoop.
C. Hadoop en acción por Chuck Lam
Proporciona una introducción a las terminologías y programación de Hadoop en Map Reduce, comenzando con ejemplos sencillos y avanzando gradualmente para mostrar el uso de Hadoop en tareas complejas de análisis de datos. Cubre las mejores prácticas y patrones de diseño de la programación de Map Reduce.
re. Operaciones de Hadoop por Eric Sammers
Este libro le explicará los métodos para mantener grupos de Hadoop grandes y complejos. Hay capítulos dedicados para el mantenimiento de Hadoop, monitoreo, copias de seguridad, resolución de problemas en Hadoop, etc. para realizar estas tareas de manera eficiente. También cubre todos los componentes de Hadoop para ser un ingeniero de Big Data.
mi. Patrones de diseño de reducción de mapas: creación de algoritmos y análisis efectivos para Hadoop por Donald Miner
Este libro asume que el lector tiene un conocimiento básico de Hadoop y está dispuesto a dominar los algoritmos de Map Reduce. Describe varias aplicaciones de Map Reduce con Hadoop y varios métodos para resolver problemas de Hadoop rápidamente y explica las técnicas para la optimización de Map Reduce.
F. Programming Pig de Alan Gates
Este es el mejor libro para aprender Apache Pig – componente del ecosistema Hadoop para procesar datos utilizando scripts de Pig Latin. Proporciona conocimientos básicos para avanzar de nivel en Pig, incluido Pig Latin Scripting Language, Grunt Shell y funciones definidas por el usuario para extender Pig. También aprenderá cómo Pig convierte estos scripts en programas Map Reduce para trabajar eficientemente en Hadoop.
sol. Apache Sqoop Cookbook por Kathleen Ting y Jarek Jarcec Cecho
Es una guía de usuario para Apache Sqoop – componente del ecosistema Hadoop para transferir datos entre RDBMS y Hadoop. Se centra en la aplicación de parámetros que proporciona la interfaz de línea de comandos. Proporciona un mecanismo de cómo transferir datos masivos de RDBMS a HDFS y viceversa de manera eficiente.
h. Programming Hive por Dean Wampler, Edward Capriolo y Jason Rutherglen
Esta guía completa lo presenta a Apache Hive – Infraestructura de almacenamiento de datos Hadoop. Le ayudará a aprender el dialecto SQL de Hive: Hive QL para resumir, consultar y analizar grandes conjuntos de datos almacenados en HDFS.
yo. HBase – La guía definitiva por Lars George
Cubre todos los aspectos de Apache HBase de manera muy detallada. Cubre los conceptos de HBase desde lo básico hasta el nivel avanzado y explica cómo HBase puede ayudarlo a proporcionar una solución de almacenamiento escalable para acomodar datos prácticamente infinitos.
j. Usando Flume por Hari Shreedharan
A través de esta guía, aprenderá las características de Apache Flume para recopilar, agregar y escribir grandes conjuntos de datos en HDFS, HBase, etc. Muestra cómo configurar, implementar y monitorear el clúster Flume y cómo escribir complementos Flume para casos de uso. Le ayudará a explorar las API para enviar datos a los agentes Flume desde sus propias aplicaciones.