Deep Learning NLP: Training GPT-2 from scratch

4.1
별점
46개의 평가
제공자:
Coursera Project Network
3,143명이 이미 등록했습니다.
학습자는 이 안내 프로젝트에서 다음을 수행하게 됩니다.

Understand the history of GPT-2 and Transformer Architecture Basics

Learn the requirements for a custom training set

Learn how to use functions available in public repositories to fine-tune or train GPT-2 on custom data and generate text

Clock2 hours
Beginner초급
Cloud다운로드 필요 없음
Video분할 화면 동영상
Comment Dots영어
Laptop데스크톱 전용

In this 1-hour long project-based course, we will explore Transformer-based Natural Language Processing. Specifically, we will be taking a look at re-training or fine-tuning GPT-2, which is an NLP machine learning model based on the Transformer architecture. We will cover the history of GPT-2 and it's development, cover basics about the Transformer architecture, learn what type of training data to use and how to collect it, and finally, perform the fine tuning process. In the final task, we will discuss use cases and what the future holds for Transformer-based NLP. I would encourage learners to do further research and experimentation with the GPT-2 model, as well as other NLP models! Note: This course works best for learners who are based in the North America region. We’re currently working on providing the same experience in other regions.

개발할 기술

Artificial Intelligence (AI)TensorflowMachine LearningNatural Language Processing

단계별 학습

작업 영역이 있는 분할 화면으로 재생되는 동영상에서 강사는 다음을 단계별로 안내합니다.

  1. Introducing GPT-2

  2. Intro to Transformers

  3. Gathering a Dataset

  4. Training and Fine Tuning our Model

  5. Use Cases and the Future

안내형 프로젝트 진행 방식

작업 영역은 브라우저에 바로 로드되는 클라우드 데스크톱으로, 다운로드할 필요가 없습니다.

분할 화면 동영상에서 강사가 프로젝트를 단계별로 안내해 줍니다.

검토

DEEP LEARNING NLP: TRAINING GPT-2 FROM SCRATCH의 최상위 리뷰

모든 리뷰 보기

자주 묻는 질문

자주 묻는 질문

궁금한 점이 더 있으신가요? 학습자 도움말 센터를 방문해 보세요.