Implementar una aplicación de pila LAMP con AWS LightSail
En esta formación podrás ver cómo utilizar Lightsail para implementar fácilmente aplicaciones escalables en la nube. Utilizarás la...

Aprende a implementar un pipeline de datos robusto y seguro sobre una arquitectura de AWS, utilizando PySpark para realizar las agregaciones necesarias y Athena para exportar datos.
La metodología y plataforma de formación que se adapta al tamaño y ritmo de tu empresa.
Es recomendable tener conocimientos sobre Data Lakes, Data Warehouse y Python.
Resuelve tus dudas o contacta con nosotros para más información.
En OpenWebinars las formaciones no tienen fecha de inicio y de final.
Cada curso tiene una fecha de publicación y desde ese día estarán 100% disponible todos los contenidos del curso para los usuarios suscritos a alguno de nuestros planes.
En OpenWebinars no vendemos formaciones.
Tenemos diferentes tipos de suscripciones, que te dará acceso completo a todas las formaciones de la plataforma y a las nuevas que vamos lanzando, siempre y cuando tu suscripción esté activa (como Spotify con la música o Netflix con las películas y series).
¿Eres una empresa? Tenemos planes especiales para ti. Consúltanos aquí.
En este curso exploramos los conceptos relacionados con la ejecución de cargas de trabajo en un clúster de AWS EMR optimizado, y utilizaremos PySpark para realizar las agregaciones necesarias, logrando implementar un pipeline de datos una arquitectura de AWS.
Es una formación adecuada tanto para perfiles de desarrollo de software avanzados con conocimientos previos en procesamiento de datos, como para perfiles intermedios o avanzados en ingeniería de datos o ciencia de datos que quieren aprender a automatizar procesos utilizando las herramientas de la nube de AWS.
Para completar el curso de forma adecuada, comprendiendo todo lo que se explica en el mismo, es necesario tener conocimientos a nivel intermedio de la consola de AWS, además de conocimientos avanzados en bases de datos y SQL, en Python, y también sobre conceptos de flujos de datos en Data Lake y Data Warehouse.
Comenzamos el curso con una introducción a AWS EMR, explicando los conceptos fundamentales de la herramienta, cómo configurarla inicialmente y cómo levantar un clúster y un ecosistema de EMR desde cero. Además, se introducirá PySpark, que también se utilizará a lo largo de esta formación.
Seguidamente entramos en el bloque dedicado a la administración del clúster EMR que se había creado previamente, desde la configuración de la seguridad del mismo hasta cómo lanzar una aplicación y un job con EMR Serverless y la monitorización con EMR Jobs.
Finalmente, en el último apartado del curso, se abordará el uso de Athena para complementar nuestro ecosistema de EMR, que en este caso se utilizará para cargar datos. Aquí aprenderás las características de esta aplicación, cómo cargar los datos y también veremos algunos diseños de casos reales en los que se utilizó AWS EMR.