需要的环境,适合什么样的场景?
发布网友
发布时间:2023-04-13 17:57
我来回答
共1个回答
热心网友
时间:2023-04-22 18:33
蓝海大脑深度学习液冷服务器研究人员表示:
TensorRT Inference Server在标准的Linux环境都可以使用,GPU最好需要有一定的CUDA的计算能力,比如像数据中心如P4,V100,P40等等,当然英伟达的其他GPU也是可以的,实时和并发可以由用户去配置、指定。TensorRT Inference Server对CPU和GPU都支持,不是只能用GPU建模,纯CPU的workload也是可以支持的。