Google Cloud Platform

Procesando datos de transporte con Google Cloud Dataflow

En esta formación simularás un conjunto de datos históricos en tiempo real y del mundo real. Se usarán Python y Dataflow a fin de procesar un conjunto de datos simulados de un conjunto de archivos de texto, y luego, BigQuery para almacenar y analizar los datos resultantes.

Impartido por:

4.0 (5 valoraciones)
30 minutos y 27 segundos · Curso
Procesar datos de transporte con Google Cloud Dataflow

Lo que aprenderás en este curso:

  • Configurar una aplicación de Python para crear un flujo de datos en tiempo real simulado a partir de datos históricos.
  • Usar Apache Beam de manera local para probar Dataflow localmente.
  • Usar Apache Beam para procesar datos con Dataflow y así crear un conjunto de datos en tiempo real simulados.
  • Consultar los flujos de datos en tiempo real simulados con BigQuery.

Requisitos del curso

Para un mejor aprovechamiento de esta formación, se recomienda estar familiarizado con una variedad de servicios de Google Cloud como Vertex AI, así como tener una comprensión básica de los conceptos y términos relacionados con el ML y el manejo de datos en tiempo real. También es positivo conocer el lenguaje de programación Python a nivel básico.

Valoraciones de estudiantes:

  • 5
  • 4
  • 3
  • 2
  • 1
4.0
5 valoraciones

Contenido del curso:

    • 4m
    • Introducción a Dataflow y BigQuery
      5m
    • Desarrollo
      17m
    • Conclusiones y próximos pasos
      3m
También te puede interesar

Te dejamos una selección de cursos, carreras y artículos

Copiar tablas de BigQuery con Google Cloud Composer

Copiando tablas de BigQuery en diferentes ubicaciones con Google Cloud Composer

42 minutos y 40 segundos · Curso

En esta formación aprenderá a crear y ejecutar un flujo de trabajo de Apache Airflow en Cloud Composer. Esto nos será útil para copiar tablas …

  • Google Cloud Platform
Gestión de datos de las apps Google Cloud

Gestión de datos de las aplicaciones Google Cloud Platform

30 minutos y 33 segundos · Taller

En este taller veremos cómo crear una base de datos NoSQL de Firestore en el modo Cloud Datastore y así obtener lo mejor de ambos …

  • Google Cloud Platform

Dudas frecuentes

1

¿Cuándo comienza la formación?

En OpenWebinars las formaciones no tienen fecha de inicio y de final.

Cada curso tiene una fecha de publicación y desde ese día estarán 100% disponible todos los contenidos del curso para los usuarios suscritos a alguno de nuestros planes.

2

¿Cuál es el precio?

En OpenWebinars no vendemos formaciones.

Tenemos diferentes tipos de suscripciones, que te dará acceso completo a todas las formaciones de la plataforma y a las nuevas que vamos lanzando, siempre y cuando tu suscripción esté activa (como Spotify con la música o Netflix con las películas y series).

¿Eres una empresa? Tenemos planes especiales para ti. Consúltanos aquí.

3

¿Puedo obtener un diploma que acredite mis conocimientos?

Efectivamente, una vez superada cada formación, podrás descargarte el diploma acreditativo de cada una de ellas. Añádelas a tu CV y mejora tu perfil para las empresas.

También podrás obtener un diploma de nivel superior al superar todas las formaciones de la lista.

En esta formación vas a aprender a crear una instancia de Data Fusion e implementar una canalización de muestra que se proporciona previamente. Esa canalización leerá un archivo JSON que contiene los datos más vendidos del NYT de Cloud Storage, posteriormente ejecutará transformaciones en el archivo para analizar y limpiar los datos, para, finalmente cargar un subconjunto de registros en BigQuery.

Este curso requiere tener conocimientos previos tanto en cloud computing, como en los servicios de Google Cloud, sobre todo en BigQuery y Cloud Storage. También es necesario tener una comprensión básica de los conceptos y términos relacionados con el proceso de ingesta de datos.

El proceso que se desarrollará en este curso será el de crear una instancia de Cloud Data Fusion, para posteriormente navegar por la interfaz de usuario de Data Fusion, y finalizará con la implementación de una canalización de muestra, con el objetivo de comprobar cómo funciona este servicio.

Artículos
Ver todos