Explore stock prices with Spark SQL

4.5
별점
39개의 평가
제공자:
Coursera Project Network
1,972명이 이미 등록했습니다.
학습자는 이 안내 프로젝트에서 다음을 수행하게 됩니다.

Create an application that runs on a Spark cluster

Derive knowledge from data using Spark RDD and DataFrames

Store results in Parquet tables

Clock2 hours
Intermediate중급
Cloud다운로드 필요 없음
Video분할 화면 동영상
Comment Dots영어
Laptop데스크톱 전용

In this 1-hour long project-based course, you will learn how to interact with a Spark cluster using Jupyter notebook and how to start a Spark application. You will learn how to utilize Spark Resisilent Distributed Datasets and Spark Data Frames to explore a dataset. We will load a dataset into our Spark program, and perform analysis on it by using Actions, Transformations, Spark DataFrame API and Spark SQL. You will learn how to choose the best tools to use for each scenario. Finally, you will learn to save your results in Parquet tables.

개발할 기술

  • Spark SQL
  • Data Analysis
  • Big Data
  • Apache Spark
  • Distributed Computing

단계별 학습

작업 영역이 있는 분할 화면으로 재생되는 동영상에서 강사는 다음을 단계별로 안내합니다.

  1. By the end of Task 1, you will become familiar with the Jupyter notebook environment

  2. By the end of Task 2, you will be able to initialize a Spark application

  3. By the end of Task 3, you will be able to create Spark Resilient Distributed Datasets

  4. By the end of Task 4, you will be able to create Spark Data Frames in several ways

  5. By the end of Task 5, you will be able to explore data sets with Spark SQL

  6. By the end of Task 6, you will be able to write statistic queries and compare Spark DataFrames

  7. By the end of Task 7, you will be able to store DataFrames in Parquet tables

안내형 프로젝트 진행 방식

작업 영역은 브라우저에 바로 로드되는 클라우드 데스크톱으로, 다운로드할 필요가 없습니다.

분할 화면 동영상에서 강사가 프로젝트를 단계별로 안내해 줍니다.

자주 묻는 질문

자주 묻는 질문

궁금한 점이 더 있으신가요? 학습자 도움말 센터를 방문해 보세요.