Working with Big Data

oferecido por
Coursera Project Network
Neste projeto guiado, você irá:

Process a large dataset from NOAA showing hourly precipitation rates for a ten year period from the state of Wisconsin

Clock2 hours
IntermediateIntermediário
CloudSem necessidade de download
VideoVídeo em tela dividida
Comment DotsInglês
LaptopApenas em desktop

By the end of this project, you will set up an environment for Big Data Development using Visual Studio Code, MongoDB and Apache Spark. You will then use the environment to process a large dataset from NOAA showing hourly precipitation rates for a ten year period from the state of Wisconsin. MongoDB is a widely used NoSQL database well suited for very large datasets or Big Data. It is highly scalable and adaptable as well. Apache Spark is used for efficient in-memory processing of Big Data.

Habilidades que você desenvolverá

  • PySpark Queries
  • Mongodb
  • Python Programming
  • Big Data
  • PySpark

Aprender passo a passo

Em um vídeo reproduzido em uma tela dividida com a área de trabalho, seu instrutor o orientará sobre esses passos:

  1. Set up Apache Spark and MongoDB Environment.

  2. Create a Python PySpark program to read CSV data.

  3. Use Spark SQL to query in-memory data.

  4. Configure Apache Spark to connect to MongoDB.

  5. Persist data using Spark and MongoDB.

Como funcionam os projetos guiados

Sua área de trabalho é um espaço em nuvem, acessado diretamente do navegador, sem necessidade de nenhum download

Em um vídeo de tela dividida, seu instrutor te orientará passo a passo

Perguntas Frequentes – FAQ

Perguntas Frequentes – FAQ

Mais dúvidas? Visite o Central de Ajuda ao estudante.