Las canalizaciones de datos suelen realizarse según uno de los siguientes paradigmas: extracción y carga (EL); extracción, carga y transformación (ELT), o extracción, transformación y carga (ETL). En este curso, abordaremos qué paradigma se debe utilizar para los datos por lotes y cuándo corresponde usarlo. Además, veremos varias tecnologías de Google Cloud para la transformación de datos, incluidos BigQuery, la ejecución de Spark en Dataproc, gráficos de canalización en Cloud Data Fusion y procesamiento de datos sin servidores en Dataflow. Los alumnos obtendrán experiencia práctica en la compilación de componentes de canalizaciones de datos en Google Cloud con Qwiklabs.
от партнера
Об этом курсе
Чему вы научитесь
Revisar los diferentes métodos de carga de datos: EL, ELT y ETL, y cuándo corresponde usarlos
Ejecutar Hadoop en Dataproc, usar Cloud Storage y optimizar trabajos de Dataproc
Usar Dataflow para compilar sus canalizaciones de procesamiento de datos
Administrar canalizaciones de datos con Data Fusion y Cloud Composer
от партнера
Программа курса: что вы изучите
Introducción
Introducción a Building Batch Data Pipelines
Ejecución de Spark en Dataproc
Procesamiento de datos sin servidor con Dataflow
Administración de canalizaciones de datos con Cloud Data Fusion y Cloud Composer
Resumen del curso
Рецензии
- 5 stars72,97 %
- 4 stars24,32 %
- 3 stars2,70 %
Лучшие отзывы о курсе BUILDING BATCH DATA PIPELINES ON GCP EN ESPAÑOL
Útil para comprender las herramientas que te da GCP para crear grandes canalizaciones de datos
Excelente curso, muy bien explicado, las parcticas son muy utiles
excelente material, buena explicación de conceptos claves para la creación de pipelines, y porque elegir dataflow en vez de datafusion
Часто задаваемые вопросы
Можно ли ознакомиться с курсом до регистрации?
Что я получу, зарегистрировавшись на курс?
Когда я получу сертификат о прохождении курса?
Почему я не могу прослушать этот курс?
Можно ли получить финансовую помощь?
Остались вопросы? Посетите Центр поддержки учащихся.