이 강좌에 대하여

최근 조회 210,402
공유 가능한 수료증
완료 시 수료증 획득
100% 온라인
지금 바로 시작해 나만의 일정에 따라 학습을 진행하세요.
다음 특화 과정의 4개 강좌 중 2번째 강좌:
유동적 마감일
일정에 따라 마감일을 재설정합니다.
중급 단계
완료하는 데 약 24시간 필요
영어

귀하가 습득할 기술

Word2vecParts-of-Speech TaggingN-gram Language ModelsAutocorrect
공유 가능한 수료증
완료 시 수료증 획득
100% 온라인
지금 바로 시작해 나만의 일정에 따라 학습을 진행하세요.
다음 특화 과정의 4개 강좌 중 2번째 강좌:
유동적 마감일
일정에 따라 마감일을 재설정합니다.
중급 단계
완료하는 데 약 24시간 필요
영어

제공자:

Placeholder

deeplearning.ai

강의 계획 - 이 강좌에서 배울 내용

콘텐츠 평가Thumbs Up91%(2,480개의 평가)Info
1

1

완료하는 데 6시간 필요

Autocorrect

완료하는 데 6시간 필요
9개 동영상 (총 27분), 2 개의 읽기 자료, 1 개의 테스트
9개의 동영상
Overview1m
Autocorrect2m
Building the model3m
Building the model II2m
Minimum edit distance2m
Minimum edit distance algorithm5m
Minimum edit distance algorithm II3m
Minimum edit distance algorithm III2m
2개의 읽기 자료
Connect with your mentors and fellow learners on Slack!10m
How to Refresh your Workspace10m
2

2

완료하는 데 4시간 필요

Part of Speech Tagging and Hidden Markov Models

완료하는 데 4시간 필요
11개 동영상 (총 38분)
11개의 동영상
Markov Chains3m
Markov Chains and POS Tags4m
Hidden Markov Models3m
Calculating Probabilities3m
Populating the Transition Matrix4m
Populating the Emission Matrix2m
The Viterbi Algorithm3m
Viterbi: Initialization2m
Viterbi: Forward Pass2m
Viterbi: Backward Pass5m
3

3

완료하는 데 7시간 필요

Autocomplete and Language Models

완료하는 데 7시간 필요
9개 동영상 (총 50분)
9개의 동영상
N-grams and Probabilities7m
Sequence Probabilities5m
Starting and Ending Sentences8m
The N-gram Language Model6m
Language Model Evaluation6m
Out of Vocabulary Words4m
Smoothing6m
Week Summary1m
4

4

완료하는 데 7시간 필요

Word embeddings with neural networks

완료하는 데 7시간 필요
20개 동영상 (총 65분), 1 개의 읽기 자료, 1 개의 테스트
20개의 동영상
Basic Word Representations3m
Word Embeddings3m
How to Create Word Embeddings3m
Word Embedding Methods3m
Continuous Bag-of-Words Model3m
Cleaning and Tokenization4m
Sliding Window of Words in Python3m
Transforming Words into Vectors2m
Architecture of the CBOW Model3m
Architecture of the CBOW Model: Dimensions3m
Architecture of the CBOW Model: Dimensions 22m
Architecture of the CBOW Model: Activation Functions4m
Training a CBOW Model: Cost Function4m
Training a CBOW Model: Forward Propagation3m
Training a CBOW Model: Backpropagation and Gradient Descent4m
Extracting Word Embedding Vectors2m
Evaluating Word Embeddings: Intrinsic Evaluation3m
Evaluating Word Embeddings: Extrinsic Evaluation2m
Conclusion2m
1개의 읽기 자료
Acknowledgments10m

검토

NATURAL LANGUAGE PROCESSING WITH PROBABILISTIC MODELS의 최상위 리뷰

모든 리뷰 보기

자연 언어 처리 특화 과정 정보

자연 언어 처리

자주 묻는 질문

궁금한 점이 더 있으신가요? 학습자 도움말 센터를 방문해 보세요.