Optimize TensorFlow Models For Deployment with TensorRT

4.6
별점
45개의 평가
제공자:
Coursera Project Network
2,604명이 이미 등록했습니다.
학습자는 이 무료 안내 프로젝트에서 다음을 수행하게 됩니다.

Optimize Tensorflow models using TensorRT (TF-TRT)

Use TF-TRT to optimize several deep learning models at FP32, FP16, and INT8 precision

Observe how tuning TF-TRT parameters affects performance and inference throughput

인터뷰에서 이 안내형 체험 보여주기

Clock1.5 hours
Intermediate중급
Cloud다운로드 필요 없음
Video분할 화면 동영상
Comment Dots영어
Laptop데스크톱 전용

This is a hands-on, guided project on optimizing your TensorFlow models for inference with NVIDIA's TensorRT. By the end of this 1.5 hour long project, you will be able to optimize Tensorflow models using the TensorFlow integration of NVIDIA's TensorRT (TF-TRT), use TF-TRT to optimize several deep learning models at FP32, FP16, and INT8 precision, and observe how tuning TF-TRT parameters affects performance and inference throughput. Prerequisites: In order to successfully complete this project, you should be competent in Python programming, understand deep learning and what inference is, and have experience building deep learning models in TensorFlow and its Keras API. Note: This course works best for learners who are based in the North America region. We’re currently working on providing the same experience in other regions.

요구 사항

It is assumed that are competent in Python programming and have prior experience with building deep learning models with TensorFlow and its Keras API

개발할 기술

  • Deep Learning
  • NVIDIA TensorRT (TF-TRT)
  • Python Programming
  • Tensorflow
  • keras

단계별 학습

작업 영역이 있는 분할 화면으로 재생되는 동영상에서 강사는 다음을 단계별로 안내합니다.

  1. Introduction and Project Overview

  2. Setup your TensorFlow and TensorRT Runtime

  3. Load the Data and Pre-trained InceptionV3 Model

  4. Create batched Input

  5. Load the TensorFlow SavedModel

  6. Get Baseline for Prediction Throughput and Accuracy

  7. Convert a TensorFlow saved model into a TF-TRT Float32 Graph

  8. Benchmark TF-TRT Float32

  9. Convert to TF-TRT Float16 and Benchmark

  10. Converting to TF-TRT INT8

안내형 프로젝트 진행 방식

작업 영역은 브라우저에 바로 로드되는 클라우드 데스크톱으로, 다운로드할 필요가 없습니다.

분할 화면 동영상에서 강사가 프로젝트를 단계별로 안내해 줍니다.

검토

OPTIMIZE TENSORFLOW MODELS FOR DEPLOYMENT WITH TENSORRT의 최상위 리뷰

모든 리뷰 보기

자주 묻는 질문

자주 묻는 질문

궁금한 점이 더 있으신가요? 학습자 도움말 센터를 방문해 보세요.