Generating New Recipes using GPT-2

4.5
별점
18개의 평가
제공자:
Coursera Project Network
2,044명이 이미 등록했습니다.
학습자는 이 안내 프로젝트에서 다음을 수행하게 됩니다.

Clean and preprocess text data for modeling

Create datasets for large-scale language generation

Fine-tune large-scale language model on small and niche task of generating recipes

Clock90-120 minutes
Intermediate중급
Cloud다운로드 필요 없음
Video분할 화면 동영상
Comment Dots영어
Laptop데스크톱 전용

In this 2 hour long project, you will learn how to preprocess a text dataset comprising recipes, and split it into a training and validation set. You will learn how to use the HuggingFace library to fine-tune a deep, generative model, and specifically how to train such a model on Google Colab. Finally, you will learn how to use GPT-2 effectively to create realistic and unique recipes from lists of ingredients based on the aforementioned dataset. This project aims to teach you how to fine-tune a large-scale model, and the sheer magnitude of resources it takes for these models to learn. You will also learn about knowledge distillation and its efficacy in use cases such as this one. Note: This course works best for learners who are based in the North America region. We’re currently working on providing the same experience in other regions.

개발할 기술

Python ProgrammingMachine LearningNatural Language Processing

단계별 학습

작업 영역이 있는 분할 화면으로 재생되는 동영상에서 강사는 다음을 단계별로 안내합니다.

  1. Introduction to the task and demo

  2. Exploratory data analysis and visualizations

  3. Dataset preparation

  4. GPT-2 theory and related machine learning concepts

  5. Model training on Google Colab

  6. Evaluating model performance empirically

안내형 프로젝트 진행 방식

작업 영역은 브라우저에 바로 로드되는 클라우드 데스크톱으로, 다운로드할 필요가 없습니다.

분할 화면 동영상에서 강사가 프로젝트를 단계별로 안내해 줍니다.

검토

GENERATING NEW RECIPES USING GPT-2의 최상위 리뷰

모든 리뷰 보기

자주 묻는 질문

자주 묻는 질문

궁금한 점이 더 있으신가요? 학습자 도움말 센터를 방문해 보세요.