이 강좌에 대하여

최근 조회 180,138
공유 가능한 수료증
완료 시 수료증 획득
100% 온라인
지금 바로 시작해 나만의 일정에 따라 학습을 진행하세요.
다음 특화 과정의 4개 강좌 중 4번째 강좌:
유동적 마감일
일정에 따라 마감일을 재설정합니다.
중급 단계
완료하는 데 약 30시간 필요
영어

귀하가 습득할 기술

Reformer ModelsNeural Machine TranslationChatterbotT5+BERT ModelsAttention Models
공유 가능한 수료증
완료 시 수료증 획득
100% 온라인
지금 바로 시작해 나만의 일정에 따라 학습을 진행하세요.
다음 특화 과정의 4개 강좌 중 4번째 강좌:
유동적 마감일
일정에 따라 마감일을 재설정합니다.
중급 단계
완료하는 데 약 30시간 필요
영어

제공자:

Placeholder

deeplearning.ai

강의 계획 - 이 강좌에서 배울 내용

콘텐츠 평가Thumbs Up79%(1,838개의 평가)Info
1

1

완료하는 데 7시간 필요

Neural Machine Translation

완료하는 데 7시간 필요
9개 동영상 (총 81분), 10 개의 읽기 자료, 1 개의 테스트
9개의 동영상
Seq2seq4m
Alignment4m
Attention6m
Setup for Machine Translation3m
Training an NMT with Attention6m
Evaluation for Machine Translation8m
Sampling and Decoding9m
Andrew Ng with Oren Etzioni34m
10개의 읽기 자료
Connect with your mentors and fellow learners on Slack!10m
Background on seq2seq10m
(Optional): The Real Meaning of Ich Bin ein Berliner10m
Attention10m
Training an NMT with Attention10m
(Optional) What is Teacher Forcing?10m
Evaluation for Machine Translation10m
Sampling and Decoding10m
Content Resource10m
How to Refresh your Workspace10m
2

2

완료하는 데 7시간 필요

Text Summarization

완료하는 데 7시간 필요
7개 동영상 (총 43분), 8 개의 읽기 자료, 1 개의 테스트
7개의 동영상
Transformer Applications8m
Dot-Product Attention7m
Causal Attention4m
Multi-head Attention6m
Transformer Decoder5m
Transformer Summarizer4m
8개의 읽기 자료
Transformers vs RNNs10m
Transformer Applications10m
Dot-Product Attention10m
Causal Attention10m
Multi-head Attention10m
Transformer Decoder10m
Transformer Summarizer10m
Content Resource10m
3

3

완료하는 데 9시간 필요

Question Answering

완료하는 데 9시간 필요
10개 동영상 (총 45분), 11 개의 읽기 자료, 1 개의 테스트
10개의 동영상
Transfer Learning in NLP7m
ELMo, GPT, BERT, T57m
Bidirectional Encoder Representations from Transformers (BERT)4m
BERT Objective2m
Fine tuning BERT2m
Transformer: T53m
Multi-Task Training Strategy5m
GLUE Benchmark2m
Question Answering2m
11개의 읽기 자료
Week 3 Overview10m
Transfer Learning in NLP10m
ELMo, GPT, BERT, T510m
Bidirectional Encoder Representations from Transformers (BERT)10m
BERT Objective10m
Fine tuning BERT10m
Transformer T510m
Multi-Task Training Strategy10m
GLUE Benchmark10m
Question Answering10m
Content Resource10m
4

4

완료하는 데 7시간 필요

Chatbot

완료하는 데 7시간 필요
7개 동영상 (총 62분), 5 개의 읽기 자료, 1 개의 테스트
7개의 동영상
Transformer Complexity3m
LSH Attention4m
Motivation for Reversible Layers: Memory! 2m
Reversible Residual Layers 5m
Reformer2m
Andrew Ng with Quoc Le40m
5개의 읽기 자료
Optional AI Storytelling15m
Optional KNN & LSH Review20m
Optional Transformers beyond NLP20m
Acknowledgments10m
References10m

검토

NATURAL LANGUAGE PROCESSING WITH ATTENTION MODELS의 최상위 리뷰

모든 리뷰 보기

자연 언어 처리 특화 과정 정보

자연 언어 처리

자주 묻는 질문

궁금한 점이 더 있으신가요? 학습자 도움말 센터를 방문해 보세요.