Curso de Hadoop
Aprende a tratar con miles de nodos y petabytes de datos con el Curso de Hadoop.
Impartido por:
Lo que aprenderás en este curso:
Requisitos del curso
Para comenzar esta formación de Hadoop es necesario tener conocimientos básicos de Java, SQL y Linux.
Valoraciones de estudiantes:
Contenido del curso:
-
- 2m
- 2m
- 5m
-
-
Descarga e instalación7m
-
Cloudera Manager11m
-
-
-
Conociendo el HDFS5m
-
Arquitectura del HDFS9m
-
Escritura, Lectura y Replicación14m
-
Permisos11m
-
Eliminación de ficheros14m
-
Safemode7m
-
Snapshot8m
-
Profundizando en la shell15m
-
Utilizando la API Java - Parte I19m
-
Utilizando la API Java - Parte II18m
-
-
-
Conociendo Map Reduce7m
-
Configuración y Driver20m
-
Map y Reduce - Parte I14m
-
Map y Reduce - Parte II19m
-
JAR y Resultados.10m
-
-
-
Conociendo YARN3m
-
Gestion de colas y Alta Disponibilidad - Parte I8m
-
Gestion de colas y Alta Disponibilidad - Parte II9m
-
Comandos8m
-
-
-
Ecosistema Hadoop2m
-
Apache Hue6m
-
ZooKeaper7m
-
Apache Sqoop - Parte I17m
-
Apache Sqoop - Parte II9m
-
Apache Flume - Parte I6m
-
Apache Flume - Parte II19m
-
Apache Pig - Parte I19m
-
Apache Pig - Parte II6m
-
Apache HBase - Parte I16m
-
Apache HBase - Parte II8m
-
Apache Hive - Parte I6m
-
Apache Hive - Parte II18m
-
Apache Oozie - Parte I8m
-
Apache Oozie - Parte II9m
-
Apache Mahout10m
-
Problemáticas tipo2m
-
Antipatrones4m
-
-
-
Conociendo Apache Spark4m
-
¿Hadoop o Spark?3m
-
Te dejamos una selección de cursos, carreras y artículos
Curso Apache Spark: Procesando Big Data
Métete de lleno en el ecosistema Big Data con este curso de Apache Spark y aprende a procesar y analizar datos con este framework que …
Dudas frecuentes
Con este curso online de Hadoop aprenderás a manejar de forma completa este framework orientado al trabajo con Big Data.
Una de las cosas más importantes de aprender Hadoop es que te permitirá acceder a un sector con mucho futuro y con muchas salidas laborales, ya que cada vez es más importante en muchos sectores el uso de Big Data.
Si te animas a comenzar este curso te explicamos brevemente lo que encontrarás en el mismo y la formación que obtendrás.
Iniciamos con una pequeña introducción dedicada al concepto de Big Data y a explicar los fundamentos de Hadoop, para comenzar a crear una base sobre la que ir avanzando en el curso.
Después os enseñaremos cómo realizar la descarga e instalación del entorno de trabajo que utilizaremos en el resto del curso, y entraremos a explicar qué es la Cloudera Manager y para qué se utiliza.
Tras esta primera toma de contacto con Hadoop pasaremos a desarrollar los aspectos más importantes del mismo. Comenzaremos desarrollando todo lo relacionado con el HDFS, el conocido Sistema de Archivos Distribuidos de Hadoop, tanto su arquitectura, funcionamiento y utilidad.
Cuando conozcas y domines HDFS, pasamos a la sección dedicada al Map Reduce, una técnica de procesamiento de gran importancia en la actualidad, y otro de los pilares de Hadoop.
Después de ver dos de los fundamentos de Hadoop, pasaremos a hablaros de Yarn, un administrador de dependencias, que resulta un complemento perfecto y del que os mostraremos su funcionamiento.
En el penúltimo apartado del curso podrás conocer más a fondo el extenso ecosistema Hadoop, del que nos centraremos en Apache Hue, ZooKeaper, Apache Sqoop, Apache Flume, Apache Pig y algunos otros componentes del mismo.
Y para finalizar el curso haremos una somera introducción a Apache Spark, un completo y potente framework de Apache, que compararemos un poco con Apache Hadoop, para que conozcáis un poco sus diferencias.