橙山网 > 泛娱乐 > 今日看点 > 正文

Nvidia发表超大规模推论平台,瞄准大规模AI推论应用需求,,Nvidia提到,现

橙山网(www.csnd.net)2018-09-26 18:09:02

[摘要] 原标题:Nvidia发表超大规模推论平台,瞄准大规模AI推论应用需求 Nvidia推出用于语音、视频、图片以及推荐服务的Tensorrt超大规模推论平台(Tensorrt△Hyperscale△Inference△Platform),其使用

原标题:Nvidia发表超大规模推论平台,瞄准大规模AI推论应用需求

Nvidia推出用于语音、视频、图片以及推荐服务的Tensorrt超大规模推论平台(Tensorrt△Hyperscale△Inference△Platform),其使用的Tesla△GPU提供高速处理深度学习工作负载的能力,而推论最佳化引擎TensorRT则可以充...

Nvidia推出用于语音、视频、图片以及推荐服务的Tensorrt超大规模推论平台(Tensorrt△Hyperscale△Inference△Platform),其使用的Tesla△GPU提供高速处理深度学习工作负载的能力,而推论最佳化引擎TensorRT则可以充分利用Tesla△GPU的效能,处理视频串流、语音和推荐系统等应用,并为Nvidia△DeepStream△SDK提供运算基础。

Nvidia提到,现在大规模资料中心可以借助超大规模推论平台的能力,使用增强的自然语言互动,并直接获取查询的答案,而非只是一些预存的可能候选答案。

超大规模推论平台由三个主要部分组成,Tesla△T4 GPU、TensorRT△5以及TensorRT推论伺服器。Tesla△T4 GPU拥有320个Turing△Tensor△Cores以及2,560个CUDA核心,提供灵活的FP32、FP16、INT8和INT4的多精度运算,其推测速度是相同耗能CPU的40倍。

而TensorRT△5则是推论最佳化程式和Runtime引擎,TensorRT△5支援Turing△Tensor△Core,针对多精度工作负载扩展了神经网络最佳化,能低延迟提供推荐系统、语音分辨和机器翻译等高吞吐量的应用服务,并且TensorRT还能将使用32或是16位元资料训练的模型,为Tesla△T4和P4上最佳化成INT8操作,以及在Tesla△V100上最佳化为FP16。同时还赋予DeepStream△SDK利用Tesla△GPU,同时解码和分析视频串流。

TensorRT推论伺服器是容器化的微服务软件,可以在资料中心环境让应用程序使用人工智能模型。TensorRT推测伺服器是一个可以立即执行的容器,其提供的微服务可以让使用者通过API,在一个或是多个GPU上,使用Caffe2、TensorRT和TensorFlow等任何支援ONNX标准的框架进行推测。

橙山网(Csnd.net)简评:Nvidia提到,现在大规模资料中心可以借助超大规模推论平台的能力,使用增强的自然语言互动,并直接获取查询的答案,而非只是一些预存的可能候选答案。超大规模推论平台由三个主要部分组成,Tesla△T4

热 门
明 星
黑妹 林岭东 陈志云 龙彪 丹尼尔·冯·巴根 阿沁 李承铉 大卫·克莱顿·罗杰 陶经 德兰姆·沃尔夫 王艳娜 艾丽亚 水岛努 叶祖新 岗崎二郎 丸山隆平 安七炫 徐千雅 之中 台下 骑ofo被撞摘右肾 二胡 干学伟 一线教师 刘芳毓 杨晴暄 1908-10-05 瓣膜 金钟奖 张小燕 黄子佼 台视 维克托·拉苏克 亲戚:于丹与张国柱 一件 脱贫攻坚战 长安不是一日建成的 猪妖传 或者