Google Cloud Platform

Copiando tablas de BigQuery en diferentes ubicaciones con Google Cloud Composer

En este curso aprenderás a copiar tablas de BigQuery en diferentes ubicaciones utilizando para ello el servicio de Google Cloud Composer.

Impartido por:

3.1 (7 valoraciones)
42 minutos y 40 segundos · Curso
Copiar tablas de BigQuery con Google Cloud Composer

Lo que aprenderás en este curso:

  • Leer la lista de tablas de un archivo de configuración para copiarla.
  • Exportar a Cloud Storage la lista de tablas de un conjunto de datos de BigQuery ubicado en EE.UU.
  • Copiar las tablas exportadas de depósitos de Cloud Storage ubicados en EE.UU. a otros de la UE.
  • Importar la lista de tablas al conjunto de datos de destino de BigQuery de la UE.

Requisitos del curso

Para un mejor aprovechamiento de esta formación, es recomendable estar familiarizado con una variedad de servicios de Google Cloud como Cloud Storage y BIgQuery, así como tener una comprensión básica de los conceptos y términos relacionados con la infraestructura de Apache Airflow.

Valoraciones de estudiantes:

  • 5
  • 4
  • 3
  • 2
  • 1
3.1
7 valoraciones

Contenido del curso:

    • 6m
    • Introducción a Cloud Storage y Airflow
      4m
    • Desarrollo
      29m
    • Conclusiones y próximos pasos
      2m
También te puede interesar

Te dejamos una selección de cursos, carreras y artículos

Cargar datos de eCommerce en GCP con BigQuery

Cargando datos de eCommerce en GCP con BigQuery

21 minutos y 8 segundos · Curso

Con BigQuery, podemos consultar muchos terabytes de datos sin tener que administrar infraestructuras y sin necesitar un administrador de base de datos. En esta formación, …

  • Lenguajes de programación
Modelo de regresión logística con BigQuery ML en GCP

Construyendo un modelo de regresión logística con BigQuery ML en GCP

37 minutos y 30 segundos · Curso

En esta formación, se demuestra cómo usar Google BigQuery ML. BigQuery es un almacén de datos altamente escalable y sin servidor. También es una excelente …

  • Google Cloud Platform

Dudas frecuentes

1

¿Cuándo comienza la formación?

En OpenWebinars las formaciones no tienen fecha de inicio y de final.

Cada curso tiene una fecha de publicación y desde ese día estarán 100% disponible todos los contenidos del curso para los usuarios suscritos a alguno de nuestros planes.

2

¿Cuál es el precio?

En OpenWebinars no vendemos formaciones.

Tenemos diferentes tipos de suscripciones, que te dará acceso completo a todas las formaciones de la plataforma y a las nuevas que vamos lanzando, siempre y cuando tu suscripción esté activa (como Spotify con la música o Netflix con las películas y series).

¿Eres una empresa? Tenemos planes especiales para ti. Consúltanos aquí.

3

¿Puedo obtener un diploma que acredite mis conocimientos?

Efectivamente, una vez superada cada formación, podrás descargarte el diploma acreditativo de cada una de ellas. Añádelas a tu CV y mejora tu perfil para las empresas.

También podrás obtener un diploma de nivel superior al superar todas las formaciones de la lista.

En esta formación avanzada vas a aprender a crear y ejecutar un flujo de trabajo de Apache Airflow en Cloud Composer, todo ello de una forma totalmente práctica. Esto resulta de gran utilidad a la hora de copiar tablas de múltiples ubicaciones, en nuestro caso EEUU y Europa, y unificarlas en un único directorio de BigQuery. Veremos también cómo las empresas hacen el proceso de ingesta de datos en Cloud.

Los requisitos para realizar este curso online comprendiendo todo lo explicado en el mismo, son tener conocimientos previos con los servicios de Google Cloud Platform, sobre todo con Cloud Storage y BIgQuery, además de tener conocimientos iniciales sobre cloud computing en general, y poseer una comprensión básica de los conceptos y términos relacionados con la infraestructura de Apache Airflow.

Para conseguir el objetivo de esta formación, el profesor irá realizando paso a paso todos los procesos necesarios, comenzando por definir un conjunto de datos de destino de BigQuery, además de definir un flujo de trabajo dentro de Cloud Composer.

Se continuará configurando las variables necesarias de Airflow, además de explicar cómo subir el DAG y las dependencias a Cloud Storage, para finalizar utilizando la interfaz de usuario de Airflow para mover los datos de una localización a otra, que en este caso serán datos ubicados tanto en EEUU como en Europa.

Artículos
Ver todos