Big Data

Curso de Hadoop

Aprende a tratar con miles de nodos y petabytes de datos con el Curso de Hadoop.

Impartido por:

4.3 (161 valoraciones)
7 horas y 28 minutos · curso
Curso de Hadoop

Lo que aprenderás en este curso:

Requisitos del curso

Para comenzar esta formación de Hadoop es necesario tener conocimientos básicos de Java, SQL y Linux.

Valoraciones de estudiantes:

  • 5
  • 4
  • 3
  • 2
  • 1
4.3
161 valoraciones

Contenido del curso:

    • 2 m
    • 2 m
    • 5 m
    • Descarga e instalación
      7 m
    • Cloudera Manager
      11 m
    • Conociendo el HDFS
      5 m
    • Arquitectura del HDFS
      9 m
    • Escritura, Lectura y Replicación
      14 m
    • Permisos
      11 m
    • Eliminación de ficheros
      14 m
    • Safemode
      7 m
    • Snapshot
      8 m
    • Profundizando en la shell
      15 m
    • Utilizando la API Java - Parte I
      19 m
    • Utilizando la API Java - Parte II
      18 m
    • Conociendo Map Reduce
      7 m
    • Configuración y Driver
      20 m
    • Map y Reduce - Parte I
      14 m
    • Map y Reduce - Parte II
      19 m
    • JAR y Resultados.
      10 m
    • Conociendo YARN
      3 m
    • Gestion de colas y Alta Disponibilidad - Parte I
      8 m
    • Gestion de colas y Alta Disponibilidad - Parte II
      9 m
    • Comandos
      8 m
    • Ecosistema Hadoop
      2 m
    • Apache Hue
      6 m
    • ZooKeaper
      7 m
    • Apache Sqoop - Parte I
      17 m
    • Apache Sqoop - Parte II
      9 m
    • Apache Flume - Parte I
      6 m
    • Apache Flume - Parte II
      19 m
    • Apache Pig - Parte I
      19 m
    • Apache Pig - Parte II
      6 m
    • Apache HBase - Parte I
      16 m
    • Apache HBase - Parte II
      8 m
    • Apache Hive - Parte I
      6 m
    • Apache Hive - Parte II
      18 m
    • Apache Oozie - Parte I
      8 m
    • Apache Oozie - Parte II
      9 m
    • Apache Mahout
      10 m
    • Problemáticas tipo
      2 m
    • Antipatrones
      4 m
    • Conociendo Apache Spark
      4 m
    • ¿Hadoop o Spark?
      3 m
También te puede interesar

Te dejamos una selección de cursos, carreras y artículos

Big Data

Apache Spark VS Hadoop Map Reduce

19 Marzo 2019 Pedro Santos González
Procesos Big Data con Spark

Curso Apache Spark: Procesando Big Data

5 horas y 52 minutos · curso

Aprende a tratar con miles de nodos y petabytes de datos con el Curso de Hadoop.

  • Big Data

Dudas frecuentes

 

Con este curso online de Hadoop aprenderás a manejar de forma completa este framework orientado al trabajo con Big Data.

Una de las cosas más importantes de aprender Hadoop es que te permitirá acceder a un sector con mucho futuro y con muchas salidas laborales, ya que cada vez es más importante en muchos sectores el uso de Big Data.

Si te animas a comenzar este curso te explicamos brevemente lo que encontrarás en el mismo y la formación que obtendrás.

Iniciamos con una pequeña introducción dedicada al concepto de Big Data y a explicar los fundamentos de Hadoop, para comenzar a crear una base sobre la que ir avanzando en el curso.

Después os enseñaremos cómo realizar la descarga e instalación del entorno de trabajo que utilizaremos en el resto del curso, y entraremos a explicar qué es la Cloudera Manager y para qué se utiliza.

Tras esta primera toma de contacto con Hadoop pasaremos a desarrollar los aspectos más importantes del mismo. Comenzaremos desarrollando todo lo relacionado con el HDFS, el conocido Sistema de Archivos Distribuidos de Hadoop, tanto su arquitectura, funcionamiento y utilidad.

Cuando conozcas y domines HDFS, pasamos a la sección dedicada al Map Reduce, una técnica de procesamiento de gran importancia en la actualidad, y otro de los pilares de Hadoop.

Después de ver dos de los fundamentos de Hadoop, pasaremos a hablaros de Yarn, un administrador de dependencias, que resulta un complemento perfecto y del que os mostraremos su funcionamiento.

En el penúltimo apartado del curso podrás conocer más a fondo el extenso ecosistema Hadoop, del que nos centraremos en Apache Hue, ZooKeaper, Apache Sqoop, Apache Flume, Apache Pig y algunos otros componentes del mismo.

Y para finalizar el curso haremos una somera introducción a Apache Spark, un completo y potente framework de Apache, que compararemos un poco con Apache Hadoop, para que conozcáis un poco sus diferencias.

 

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Más Información.