이 강좌에 대하여

최근 조회 68,270
공유 가능한 수료증
완료 시 수료증 획득
100% 온라인
지금 바로 시작해 나만의 일정에 따라 학습을 진행하세요.
다음 특화 과정의 4개 강좌 중 3번째 강좌:
유동적 마감일
일정에 따라 마감일을 재설정합니다.
중급 단계

Probabilities & Expectations, basic linear algebra, basic calculus, Python 3.0 (at least 1 year), implementing algorithms from pseudocode.

완료하는 데 약 30시간 필요
영어
자막: 영어

귀하가 습득할 기술

Artificial Intelligence (AI)Machine LearningReinforcement LearningFunction ApproximationIntelligent Systems
공유 가능한 수료증
완료 시 수료증 획득
100% 온라인
지금 바로 시작해 나만의 일정에 따라 학습을 진행하세요.
다음 특화 과정의 4개 강좌 중 3번째 강좌:
유동적 마감일
일정에 따라 마감일을 재설정합니다.
중급 단계

Probabilities & Expectations, basic linear algebra, basic calculus, Python 3.0 (at least 1 year), implementing algorithms from pseudocode.

완료하는 데 약 30시간 필요
영어
자막: 영어

제공자:

앨버타 대학교 로고

앨버타 대학교

Alberta Machine Intelligence Institute 로고

Alberta Machine Intelligence Institute

강의 계획 - 이 강좌에서 배울 내용

콘텐츠 평가Thumbs Up92%(1,268개의 평가)Info
1

1

완료하는 데 1시간 필요

Welcome to the Course!

완료하는 데 1시간 필요
2개 동영상 (총 12분), 2 개의 읽기 자료
2개의 동영상
Meet your instructors!8m
2개의 읽기 자료
Read Me: Pre-requisites and Learning Objectives10m
Reinforcement Learning Textbook10m
완료하는 데 6시간 필요

On-policy Prediction with Approximation

완료하는 데 6시간 필요
13개 동영상 (총 69분), 1 개의 읽기 자료, 2 개의 테스트
13개의 동영상
Generalization and Discrimination5m
Framing Value Estimation as Supervised Learning3m
The Value Error Objective4m
Introducing Gradient Descent7m
Gradient Monte for Policy Evaluation5m
State Aggregation with Monte Carlo7m
Semi-Gradient TD for Policy Evaluation3m
Comparing TD and Monte Carlo with State Aggregation4m
Doina Precup: Building Knowledge for AI Agents with Reinforcement Learning7m
The Linear TD Update3m
The True Objective for TD5m
Week 1 Summary4m
1개의 읽기 자료
Weekly Reading: On-policy Prediction with Approximation40m
1개 연습문제
On-policy Prediction with Approximation30m
2

2

완료하는 데 8시간 필요

Constructing Features for Prediction

완료하는 데 8시간 필요
11개 동영상 (총 52분), 1 개의 읽기 자료, 2 개의 테스트
11개의 동영상
Generalization Properties of Coarse Coding5m
Tile Coding3m
Using Tile Coding in TD4m
What is a Neural Network?3m
Non-linear Approximation with Neural Networks4m
Deep Neural Networks3m
Gradient Descent for Training Neural Networks8m
Optimization Strategies for NNs4m
David Silver on Deep Learning + RL = AI?9m
Week 2 Review2m
1개의 읽기 자료
Weekly Reading: On-policy Prediction with Approximation II40m
1개 연습문제
Constructing Features for Prediction28m
3

3

완료하는 데 8시간 필요

Control with Approximation

완료하는 데 8시간 필요
7개 동영상 (총 41분), 1 개의 읽기 자료, 2 개의 테스트
7개의 동영상
Episodic Sarsa in Mountain Car5m
Expected Sarsa with Function Approximation2m
Exploration under Function Approximation3m
Average Reward: A New Way of Formulating Control Problems10m
Satinder Singh on Intrinsic Rewards12m
Week 3 Review2m
1개의 읽기 자료
Weekly Reading: On-policy Control with Approximation40m
1개 연습문제
Control with Approximation40m
4

4

완료하는 데 6시간 필요

Policy Gradient

완료하는 데 6시간 필요
11개 동영상 (총 55분), 1 개의 읽기 자료, 2 개의 테스트
11개의 동영상
Advantages of Policy Parameterization5m
The Objective for Learning Policies5m
The Policy Gradient Theorem5m
Estimating the Policy Gradient4m
Actor-Critic Algorithm5m
Actor-Critic with Softmax Policies3m
Demonstration with Actor-Critic6m
Gaussian Policies for Continuous Actions7m
Week 4 Summary3m
Congratulations! Course 4 Preview2m
1개의 읽기 자료
Weekly Reading: Policy Gradient Methods40m
1개 연습문제
Policy Gradient Methods45m

검토

PREDICTION AND CONTROL WITH FUNCTION APPROXIMATION의 최상위 리뷰

모든 리뷰 보기

강화 학습 특화 과정 정보

The Reinforcement Learning Specialization consists of 4 courses exploring the power of adaptive learning systems and artificial intelligence (AI). Harnessing the full potential of artificial intelligence requires adaptive learning systems. Learn how Reinforcement Learning (RL) solutions help solve real-world problems through trial-and-error interaction by implementing a complete RL solution from beginning to end. By the end of this Specialization, learners will understand the foundations of much of modern probabilistic artificial intelligence (AI) and be prepared to take more advanced courses or to apply AI tools and ideas to real-world problems. This content will focus on “small-scale” problems in order to understand the foundations of Reinforcement Learning, as taught by world-renowned experts at the University of Alberta, Faculty of Science. The tools learned in this Specialization can be applied to game development (AI), customer interaction (how a website interacts with customers), smart assistants, recommender systems, supply chain, industrial control, finance, oil & gas pipelines, industrial control systems, and more....
강화 학습

자주 묻는 질문

  • Access to lectures and assignments depends on your type of enrollment. If you take a course in audit mode, you will be able to see most course materials for free. To access graded assignments and to earn a Certificate, you will need to purchase the Certificate experience, during or after your audit. If you don't see the audit option:

    • The course may not offer an audit option. You can try a Free Trial instead, or apply for Financial Aid.
    • The course may offer 'Full Course, No Certificate' instead. This option lets you see all course materials, submit required assessments, and get a final grade. This also means that you will not be able to purchase a Certificate experience.
  • 강좌를 등록하면 전문 분야의 모든 강좌에 접근할 수 있고 강좌를 완료하면 수료증을 취득할 수 있습니다. 전자 수료증이 성취도 페이지에 추가되며 해당 페이지에서 수료증을 인쇄하거나 LinkedIn 프로필에 수료증을 추가할 수 있습니다. 강좌 내용만 읽고 살펴보려면 해당 강좌를 무료로 청강할 수 있습니다.

  • 구독하는 경우, 취소해도 요금이 청구되지 않는 7일간의 무료 평가판을 이용할 수 있습니다. 해당 기간이 지난 후에는 환불이 되지 않지만, 언제든 구독을 취소할 수 있습니다. 전체 환불 정책 보기.

  • 예, Coursera에서는 수업료를 낼 수 없는 학습자를 위해 재정 지원을 제공합니다. 왼쪽에 있는 등록 버튼 아래 재정 지원 링크를 클릭하면 지원할 수 있습니다. 신청서를 작성하라는 메시지가 표시되며 승인되면 알림을 받습니다. 성취 프로젝트를 포함하여 전문 분야의 각 강좌에서 이 단계를 완료해야 합니다. 자세히 알아보기.

궁금한 점이 더 있으신가요? 학습자 도움말 센터를 방문해 보세요.