Big Data

Curso de Hadoop

Aprende a tratar con miles de nodos y petabytes de datos con el Curso de Hadoop.

Impartido por:

4.2 (165 valoraciones)
7 horas y 28 minutos · curso
Curso de Hadoop

Lo que aprenderás en este curso:

Requisitos del curso

Para comenzar esta formación de Hadoop es necesario tener conocimientos básicos de Java, SQL y Linux.

Valoraciones de estudiantes:

  • 5
  • 4
  • 3
  • 2
  • 1
4.2
165 valoraciones

Contenido del curso:

    • 2m
    • 2m
    • 5m
    • Descarga e instalación
      7m
    • Cloudera Manager
      11m
    • Conociendo el HDFS
      5m
    • Arquitectura del HDFS
      9m
    • Escritura, Lectura y Replicación
      14m
    • Permisos
      11m
    • Eliminación de ficheros
      14m
    • Safemode
      7m
    • Snapshot
      8m
    • Profundizando en la shell
      15m
    • Utilizando la API Java - Parte I
      19m
    • Utilizando la API Java - Parte II
      18m
    • Conociendo Map Reduce
      7m
    • Configuración y Driver
      20m
    • Map y Reduce - Parte I
      14m
    • Map y Reduce - Parte II
      19m
    • JAR y Resultados.
      10m
    • Conociendo YARN
      3m
    • Gestion de colas y Alta Disponibilidad - Parte I
      8m
    • Gestion de colas y Alta Disponibilidad - Parte II
      9m
    • Comandos
      8m
    • Ecosistema Hadoop
      2m
    • Apache Hue
      6m
    • ZooKeaper
      7m
    • Apache Sqoop - Parte I
      17m
    • Apache Sqoop - Parte II
      9m
    • Apache Flume - Parte I
      6m
    • Apache Flume - Parte II
      19m
    • Apache Pig - Parte I
      19m
    • Apache Pig - Parte II
      6m
    • Apache HBase - Parte I
      16m
    • Apache HBase - Parte II
      8m
    • Apache Hive - Parte I
      6m
    • Apache Hive - Parte II
      18m
    • Apache Oozie - Parte I
      8m
    • Apache Oozie - Parte II
      9m
    • Apache Mahout
      10m
    • Problemáticas tipo
      2m
    • Antipatrones
      4m
    • Conociendo Apache Spark
      4m
    • ¿Hadoop o Spark?
      3m
También te puede interesar

Te dejamos una selección de cursos, carreras y artículos

Tecnología Big Data

Apache Spark VS Hadoop Map Reduce

19 Marzo 2019 Pedro Santos González
Procesos Big Data con Spark

Curso Apache Spark: Procesando Big Data

5 horas y 52 minutos · curso

Métete de lleno en el ecosistema Big Data con este curso de Apache Spark y aprende a procesar y analizar datos con este framework que …

  • Big Data

Dudas frecuentes

 

Con este curso online de Hadoop aprenderás a manejar de forma completa este framework orientado al trabajo con Big Data.

Una de las cosas más importantes de aprender Hadoop es que te permitirá acceder a un sector con mucho futuro y con muchas salidas laborales, ya que cada vez es más importante en muchos sectores el uso de Big Data.

Si te animas a comenzar este curso te explicamos brevemente lo que encontrarás en el mismo y la formación que obtendrás.

Iniciamos con una pequeña introducción dedicada al concepto de Big Data y a explicar los fundamentos de Hadoop, para comenzar a crear una base sobre la que ir avanzando en el curso.

Después os enseñaremos cómo realizar la descarga e instalación del entorno de trabajo que utilizaremos en el resto del curso, y entraremos a explicar qué es la Cloudera Manager y para qué se utiliza.

Tras esta primera toma de contacto con Hadoop pasaremos a desarrollar los aspectos más importantes del mismo. Comenzaremos desarrollando todo lo relacionado con el HDFS, el conocido Sistema de Archivos Distribuidos de Hadoop, tanto su arquitectura, funcionamiento y utilidad.

Cuando conozcas y domines HDFS, pasamos a la sección dedicada al Map Reduce, una técnica de procesamiento de gran importancia en la actualidad, y otro de los pilares de Hadoop.

Después de ver dos de los fundamentos de Hadoop, pasaremos a hablaros de Yarn, un administrador de dependencias, que resulta un complemento perfecto y del que os mostraremos su funcionamiento.

En el penúltimo apartado del curso podrás conocer más a fondo el extenso ecosistema Hadoop, del que nos centraremos en Apache Hue, ZooKeaper, Apache Sqoop, Apache Flume, Apache Pig y algunos otros componentes del mismo.

Y para finalizar el curso haremos una somera introducción a Apache Spark, un completo y potente framework de Apache, que compararemos un poco con Apache Hadoop, para que conozcáis un poco sus diferencias.

 

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Más Información.