이 강좌에 대하여

최근 조회 136,876

학습자 경력 결과

38%

가 이 강좌를 수료한 후 새로운 커리어를 시작함

42%

가 이 강좌를 통해 확실한 경력상 이점을 얻음

43%

가 급여 인상 또는 승진 성취
공유 가능한 수료증
완료 시 수료증 획득
100% 온라인
지금 바로 시작해 나만의 일정에 따라 학습을 진행하세요.
다음 특화 과정의 7개 강좌 중 6번째 강좌:
유동적 마감일
일정에 따라 마감일을 재설정합니다.
고급 단계
완료하는 데 약 32시간 필요
영어
자막: 영어, 한국어

귀하가 습득할 기술

ChatterbotTensorflowDeep LearningNatural Language Processing

학습자 경력 결과

38%

가 이 강좌를 수료한 후 새로운 커리어를 시작함

42%

가 이 강좌를 통해 확실한 경력상 이점을 얻음

43%

가 급여 인상 또는 승진 성취
공유 가능한 수료증
완료 시 수료증 획득
100% 온라인
지금 바로 시작해 나만의 일정에 따라 학습을 진행하세요.
다음 특화 과정의 7개 강좌 중 6번째 강좌:
유동적 마감일
일정에 따라 마감일을 재설정합니다.
고급 단계
완료하는 데 약 32시간 필요
영어
자막: 영어, 한국어

제공자:

Placeholder

국립 연구 고등 경제 대학

강의 계획 - 이 강좌에서 배울 내용

콘텐츠 평가Thumbs Up88%(4,887개의 평가)Info
1

1

완료하는 데 5시간 필요

Intro and text classification

완료하는 데 5시간 필요
12개 동영상 (총 115분), 4 개의 읽기 자료, 3 개의 테스트
12개의 동영상
About this course2m
Welcome video5m
Main approaches in NLP7m
Brief overview of the next weeks7m
[Optional] Linguistic knowledge in NLP10m
Text preprocessing14m
Feature extraction from text14m
Linear models for sentiment analysis10m
Hashing trick in spam filtering17m
Neural networks for words14m
Neural networks for characters8m
4개의 읽기 자료
About the University10m
Prerequisites check-list2m
Hardware for the course5m
Getting started with practical assignments20m
2개 연습문제
Classical text mining10m
Simple neural networks for text10m
2

2

완료하는 데 5시간 필요

Language modeling and sequence tagging

완료하는 데 5시간 필요
8개 동영상 (총 84분), 2 개의 읽기 자료, 3 개의 테스트
8개의 동영상
Perplexity: is our model surprised with a real text?8m
Smoothing: what if we see new n-grams?7m
Hidden Markov Models13m
Viterbi algorithm: what are the most probable tags?11m
MEMMs, CRFs and other sequential models for Named Entity Recognition11m
Neural Language Models9m
Whether you need to predict a next word or a label - LSTM is here to help!11m
2개의 읽기 자료
Perplexity computation10m
Probabilities of tag sequences in HMMs20m
2개 연습문제
Language modeling15m
Sequence tagging with probabilistic models20m
3

3

완료하는 데 5시간 필요

Vector Space Models of Semantics

완료하는 데 5시간 필요
8개 동영상 (총 83분)
8개의 동영상
Explicit and implicit matrix factorization13m
Word2vec and doc2vec (and how to evaluate them)10m
Word analogies without magic: king – man + woman != queen11m
Why words? From character to sentence embeddings11m
Topic modeling: a way to navigate through text collections7m
How to train PLSA?6m
The zoo of topic models13m
2개 연습문제
Word and sentence embeddings15m
Topic Models10m
4

4

완료하는 데 5시간 필요

Sequence to sequence tasks

완료하는 데 5시간 필요
9개 동영상 (총 98분)
9개의 동영상
Noisy channel: said in English, received in French6m
Word Alignment Models12m
Encoder-decoder architecture6m
Attention mechanism9m
How to deal with a vocabulary?12m
How to implement a conversational chat-bot?11m
Sequence to sequence learning: one-size fits all?10m
Get to the point! Summarization with pointer-generator networks12m
3개 연습문제
Introduction to machine translation10m
Encoder-decoder architectures20m
Summarization and simplification15m

검토

자연 언어 처리의 최상위 리뷰

모든 리뷰 보기

고급 기계 학습 특화 과정 정보

This specialization gives an introduction to deep learning, reinforcement learning, natural language understanding, computer vision and Bayesian methods. Top Kaggle machine learning practitioners and CERN scientists will share their experience of solving real-world problems and help you to fill the gaps between theory and practice. Upon completion of 7 courses you will be able to apply modern machine learning methods in enterprise and understand the caveats of real-world data and settings....
고급 기계 학습

자주 묻는 질문

궁금한 점이 더 있으신가요? 학습자 도움말 센터를 방문해 보세요.