Optimize TensorFlow Models For Deployment with TensorRT

4.6
별점

55개의 평가

제공자:

3,226명이 이미 등록했습니다.

학습자는 이 무료 안내 프로젝트에서 다음을 수행하게 됩니다.

Optimize Tensorflow models using TensorRT (TF-TRT)

Use TF-TRT to optimize several deep learning models at FP32, FP16, and INT8 precision

Observe how tuning TF-TRT parameters affects performance and inference throughput

인터뷰에서 이 안내형 체험 보여주기

1.5 hours
중급
다운로드 필요 없음
분할 화면 동영상
영어
데스크톱 전용

This is a hands-on, guided project on optimizing your TensorFlow models for inference with NVIDIA's TensorRT. By the end of this 1.5 hour long project, you will be able to optimize Tensorflow models using the TensorFlow integration of NVIDIA's TensorRT (TF-TRT), use TF-TRT to optimize several deep learning models at FP32, FP16, and INT8 precision, and observe how tuning TF-TRT parameters affects performance and inference throughput. Prerequisites: In order to successfully complete this project, you should be competent in Python programming, understand deep learning and what inference is, and have experience building deep learning models in TensorFlow and its Keras API. Note: This course works best for learners who are based in the North America region. We’re currently working on providing the same experience in other regions.

요구 사항

It is assumed that are competent in Python programming and have prior experience with building deep learning models with TensorFlow and its Keras API

개발할 기술

  • Deep Learning

  • NVIDIA TensorRT (TF-TRT)

  • Python Programming

  • Tensorflow

  • keras

단계별 학습

작업 영역이 있는 분할 화면으로 재생되는 동영상에서 강사는 다음을 단계별로 안내합니다.

  1. Introduction and Project Overview

  2. Setup your TensorFlow and TensorRT Runtime

  3. Load the Data and Pre-trained InceptionV3 Model

  4. Create batched Input

  5. Load the TensorFlow SavedModel

  6. Get Baseline for Prediction Throughput and Accuracy

  7. Convert a TensorFlow saved model into a TF-TRT Float32 Graph

  8. Benchmark TF-TRT Float32

  9. Convert to TF-TRT Float16 and Benchmark

  10. Converting to TF-TRT INT8

안내형 프로젝트 진행 방식

작업 영역은 브라우저에 바로 로드되는 클라우드 데스크톱으로, 다운로드할 필요가 없습니다.

분할 화면 동영상에서 강사가 프로젝트를 단계별로 안내해 줍니다.

검토

OPTIMIZE TENSORFLOW MODELS FOR DEPLOYMENT WITH TENSORRT의 최상위 리뷰

모든 리뷰 보기

자주 묻는 질문

귀하의 작업 영역에는 노트북이나 데스크톱 컴퓨터에 맞게 용량이 지정된 클라우드 데스크톱이 포함되어 있으므로 모바일 기기에서는 안내 프로젝트를 이용할 수 없습니다.

안내 프로젝트 강사는 해당 주제의 전문가로서, 해당 프로젝트 영역이나 도구, 기술에 대한 경험이 풍부하며 전 세계 수백만 명의 학습자와 지식을 적극적으로 공유합니다.

안내 프로젝트에서 생성된 파일은 모두 다운로드하고 보관할 수 있습니다. 클라우드 데스크톱에 접속한 상태에서 '파일 브라우저'를 사용하여 파일을 다운로드할 수 있습니다.

페이지 상단에서 이 안내 프로젝트에 대한 경험 수준을 누르면 우선적으로 알아야 하는 지식을 확인할 수 있습니다. 안내 프로젝트의 단계마다 강사가 차례대로 안내해 드립니다.

네, 브라우저를 통해 이용할 수 있는 클라우드 데스크톱에서 안내 프로젝트 완료에 필요한 모든 것을 이용할 수 있습니다.

브라우저의 분할 화면 환경에서 바로 작업을 완료하여 학습할 수 있습니다. 화면 왼쪽에 있는 작업 영역에서 작업을 완료할 수 있습니다. 화면 오른쪽에서는 강사의 단계별 프로젝트 안내를 볼 수 있습니다.