Working with Big Data

от партнера
Coursera Project Network
В этом Проект с консультациями вы:

Process a large dataset from NOAA showing hourly precipitation rates for a ten year period from the state of Wisconsin

Clock2 hours
IntermediateУчащийся среднего уровня
CloudЗагрузка не требуется
VideoВидео на разделенном экране
Comment DotsАнглийский
LaptopТолько для ПК

By the end of this project, you will set up an environment for Big Data Development using Visual Studio Code, MongoDB and Apache Spark. You will then use the environment to process a large dataset from NOAA showing hourly precipitation rates for a ten year period from the state of Wisconsin. MongoDB is a widely used NoSQL database well suited for very large datasets or Big Data. It is highly scalable and adaptable as well. Apache Spark is used for efficient in-memory processing of Big Data.

Навыки, которые вы получите

  • PySpark Queries
  • Mongodb
  • Python Programming
  • Big Data
  • PySpark

Будете учиться пошагово

На видео, которое откроется рядом с рабочей областью, преподаватель объяснит эти шаги:

  1. Set up Apache Spark and MongoDB Environment.

  2. Create a Python PySpark program to read CSV data.

  3. Use Spark SQL to query in-memory data.

  4. Configure Apache Spark to connect to MongoDB.

  5. Persist data using Spark and MongoDB.

Как устроены проекты с консультациями

Ваше рабочее пространство — это облачный рабочий стол в браузере. Ничего не нужно загружать.

На разделенном экране видео преподаватель предоставляет пошаговые

Часто задаваемые вопросы

Часто задаваемые вопросы

Остались вопросы? Посетите Центр поддержки учащихся.