中国电子技术网

设为首页 网站地图 加入收藏

 
 

英伟达打破实时对话AI的训练和推理用时记录

关键词:对话式AI人工智能

时间:2019-08-15 10:25:12      来源:互联网

英伟达今天宣布的最大成果包括:BERT训练用时打破记录,进入1小时关口。BERT是世界上最先进的人工智能语言模型之一,也被广泛认为是自然语言处理(NLP)标杆的先进模型。Nvidia的AI平台仅仅需要53分钟就能够完成模型训练,经过训练的模型在短短2毫秒多一点的时间里(10毫秒在业内被认为是高水平线)就能够成功地做出推理(即利用通过训练学习到的能力得出结果)——又一个记录。

Nvidia用于开发和运行可理解和响应请求的对话式AI的GPU强化平台,已经达成了一些重要的里程碑,并打破了一些记录。

http://app.semi.org.cn/data/resource/Image/QQ%E9%8E%B4%EE%81%84%E6%B5%9820190814134504.png

这对任何基于其技术进行开发的人来说意义重大——当中包括大大小小的公司,因为英伟达将很多用于实现这些进步的代码开源。那些代码用PyTorch编写,易于运行。

英伟达今天宣布的最大成果包括:BERT训练用时打破记录,进入1小时关口。BERT是世界上最先进的人工智能语言模型之一,也被广泛认为是自然语言处理(NLP)标杆的先进模型。Nvidia的AI平台仅仅需要53分钟就能够完成模型训练,经过训练的模型在短短2毫秒多一点的时间里(10毫秒在业内被认为是高水平线)就能够成功地做出推理(即利用通过训练学习到的能力得出结果)——又一个记录。

英伟达的这些突破不仅仅是吹嘘的资本——这些进步可为任何使用NLP对话式人工智能和GPU硬件的人提供切实的好处。Nvidia在它的其中一个SuperPOD系统上打破了训练时间记录,该SuperPOD系统由运行1472个V100 GPU的92个Nvidia DGX-2H系统组成;在运行Nvidia TensorRT的Nvidia T4 GPU上完成推理过程。Nvidia TensorRT在性能上超出高度优化的CPU许多个量级。不过,该公司将公开BERT训练代码和经过TensorRT优化的BERT样本,让所有人都可以通过GitHub利用。

除了这些里程碑以外,英伟达的研究部门还建立并训练了有史以来最大的一个基于“Transformer”的语言模型。这也是BERT的技术基础。该定制模型包含的参数多达83亿个,规模是当前最大的核心BERT模型BERT-Large的24倍。英伟达将这个模型命名为“Megatron”,它也对外提供了用于训练这个模型的PyTorch代码,因而其他人能够自行训练出类似的基于“Transformer”的大型语言模型。

  • 分享到:

 

猜你喜欢

  • 主 题:英飞凌XMC4000支持EtherCAT®通讯的伺服/IO控制方案介绍
  • 时 间:2024.04.25
  • 公 司:英飞凌&骏龙科技

  • 主 题:安森美数字助听芯片的创新
  • 时 间:2024.05.09
  • 公 司:安森美

  • 主 题:IO-Link 技术介绍及相关设计解决方案
  • 时 间:2024.05.22
  • 公 司:ADI & Arrow