使用TensorRT Inference Server加速深度学习模型的部署 NVIDIA高级系统架构师胡麟.pdf

上传:choosy_20498 浏览: 22 推荐: 0 文件:PDF 大小:3.39MB 上传时间:2020-12-24 11:23:30 版权申诉
HOW TO EASILY DEPLOY DEEP LEARNING MODELS IN PRODUCTION 胡麟 linh@ 2019.10.22 TENSORRT INFERENCE SERVER (TRTIS) Inference deployment challenges TensorRT Inference Server benefits Features AGENDA Deploy
上传资源
用户评论