Use the Apache Spark Structured Streaming API with MongoDB

от партнера
Coursera Project Network
В этом Проект с консультациями вы:

Use the Apache Spark Structured Streaming API with Python to stream data from two different sources

Use the Apache Spark Structured Streaming API with Python to store a dataset in the MongoDB database and join two datasets

Clock2 hours
IntermediateУчащийся среднего уровня
CloudЗагрузка не требуется
VideoВидео на разделенном экране
Comment DotsАнглийский
LaptopТолько для ПК

By the end of this project, you will use the Apache Spark Structured Streaming API with Python to stream data from two different sources, store a dataset in the MongoDB database, and join two datasets. The Apache Spark Structured Streaming API is used to continuously stream data from various sources including the file system or a TCP/IP socket. One application is to continuously capture data from weather stations for historical purposes.

Навыки, которые вы получите

  • Apache Spark SQL
  • Mongodb
  • Apache Spark Structured Streaming API
  • Apache Spark Schema
  • Apache Spark

Будете учиться пошагово

На видео, которое откроется рядом с рабочей областью, преподаватель объяснит эти шаги:

  1. Create a Python PySpark program to read streaming structured data.

  2. Persist Apache Spark data to MongoDB.

  3. Use Spark Structured Query Language to query data.

  4. Use Spark to stream from two different structured data sources.

  5. Use the Spark Structured Streaming API to join two streaming datasets.

Как устроены проекты с консультациями

Ваше рабочее пространство — это облачный рабочий стол в браузере. Ничего не нужно загружать.

На разделенном экране видео преподаватель предоставляет пошаговые

Часто задаваемые вопросы

Часто задаваемые вопросы

Остались вопросы? Посетите Центр поддержки учащихся.