得荣| 裕民| 鹤壁| 曲松| 祁门| 合江| 福州| 行唐| 阿坝| 南涧| 清丰| 威远| 杜尔伯特| 常山| 都昌| 洛南| 绍兴县| 小河| 南县| 方城| 鲁山| 唐海| 明水| 炎陵| 巴塘| 香河| 青田| 衡东| 当阳| 碌曲| 垦利| 天等| 钟祥| 延安| 襄汾| 新建| 辉南| 莘县| 阳新| 许昌| 广宗| 彭山| 大渡口| 辽阳县| 沙洋| 茂港| 梅州| 柳州| 彬县| 革吉| 崇义| 莒县| 竹山| 大余| 梨树| 镇江| 陈仓| 牟定| 榆树| 凤冈| 霍林郭勒| 马祖| 湖口| 恒山| 邹城| 凤凰| 双阳| 临县| 洛隆| 东台| 弋阳| 蒙阴| 玛曲| 五常| 武胜| 稷山| 彰武| 江宁| 衡南| 台安| 合江| 宽城| 宝安| 林甸| 南陵| 恩平| 洞头| 奉新| 嫩江| 张北| 社旗| 弥勒| 普安| 嵊泗| 太康| 迁安| 洋县| 松原| 潞西| 甘南| 九龙| 灵丘| 聂拉木| 内江| 喀喇沁左翼| 炉霍| 什邡| 峨边| 怀仁| 台山| 讷河| 金川| 长海| 新宾| 屏边| 兴和| 覃塘| 仙游| 方城| 万荣| 浦东新区| 科尔沁右翼中旗| 抚松| 介休| 阳泉| 唐河| 友谊| 昂仁| 新荣| 吉利| 罗甸| 鄯善| 乌当| 广州| 高安| 盐田| 白碱滩| 玉林| 大兴| 丰宁| 新邵| 石景山| 米泉| 滕州| 甘德| 江油| 林西| 达孜| 广东| 平邑| 富源| 南川| 怀远| 柞水| 永靖| 江陵| 贵港| 宁津| 泸水| 潞西| 四川| 崇礼| 万荣| 莘县| 徐水| 达孜| 岳阳市| 安康| 海伦| 阿拉善左旗| 鄂州| 礼县| 泰州| 丹江口| 固安| 安图| 礼泉| 扎兰屯| 张家口| 临汾| 崇义| 溧水| 华山| 增城| 永春| 望都| 沙坪坝| 黄石| 香河| 嵊泗| 炉霍| 咸宁| 朗县| 阳朔| 分宜| 彰化| 望江| 琼山| 吉安市| 大余| 毕节| 青白江| 吉安县| 下花园| 庄河| 玉门| 大城| 竹溪| 鄯善| 五寨| 星子| 清河门| 岑巩| 师宗| 札达| 龙川| 黄陂| 漳浦| 宣威| 吉林| 友谊| 磴口| 乐清| 淅川| 北安| 渭南| 罗江| 樟树| 习水| 鄯善| 古浪| 新田| 克拉玛依| 广州| 图木舒克| 唐海| 牟平| 定结| 讷河| 垣曲| 同心| 鄯善| 焦作| 洮南| 灵山| 同安| 抚远| 安国| 安西| 平顺| 基隆| 玛沁| 呼图壁| 项城| 濮阳| 乐业| 胶南| 苏州| 唐河| 蓬莱| 寻甸| 包头| 张湾镇| 高港|

手机淘宝怎么打开彩票:

2018-10-19 20:49 来源:中国企业信息网

  手机淘宝怎么打开彩票:

  在中央国家机关部署开展了“以案释纪明纪、严守纪律规矩”主题警示教育月活动,各级党组织通报典型案件185起,营造了全面从严治党的舆论氛围。大家一致称赞三元牛奶厂一流的现代化生产设备、科学规范的生产流程、高度的企业责任感,让我们科技工作者真正体会到了现代农业科学技术在现代农业中的应用,科学技术创新对现代农业发展的重要作用。

  实施意见要求,积极利用气象立法、行政许可、执法实践、行政复议及解决纠纷案件过程和世界气象日、防灾减灾日,全国科普日、国家宪法日以及各种法律法规宣传周和法律法规颁布实施纪念日等重要时间节点向社会公众普法。  大家纷纷表示,利用春节回乡探亲访友的机会,深入田间地头、农家炕头,掌握第一手真实情况,有利于增进与农民群众的感情,促进工作落实。

    罗芝斌同志讲到,中信银行重庆分行坚决落实集团扶贫任务,通过“融资+融智”的方式,抽调骨干驻村驻点落实具体工作,推进“精准扶贫”、“助学支教”等工作落地。陈雷结合最近召开的全国水利厅局长会议、全国防汛抗旱工作视频会议、全国水利规划计划工作座谈会、实施湖长制工作视频会议、水利党风廉政建设工作会议精神,就当前水利改革发展形势及有关工作向离退休老同志作了通报。

  纪工委全年受理业务范围内信访举报2200件,比上年增长110%;中央国家机关全年给予436名党员干部党纪处分,其中司局级171人,处级190人;工委、纪工委批准给予141名司局级干部党纪处分,其中轻处分104人,占%;重处分35人,占%。  本轮巡察进驻时间为30天左右,时间服从质量。

郭林虎还存在其他违纪问题。

  本学期共开设18个专业,64个教学班。

  我们从来不反对加班,部分加班也无可避免,但任何的加班都应当建立在行政效能的基础上,失去效能的加班不仅不应提倡,还要大力抵制,更不可让加“假班”形式之风疯狂滋长。习近平总书记指出,纠正“四风”不能止步,作风建设永远在路上,各级领导干部要带头转变作风,身体力行,以上率下,形成“头雁效应”。

  巡察组将认真遵守各项工作纪律,严格落实中央八项规定和实施细则精神,认真履行职责,依纪依规开展巡察,圆满完成委党组交付的任务。

  要不断加强党员志愿者队伍建设,广泛开展志愿服务活动。  当然,治理官场“大忽悠”,纠正官场“四风”问题,不是没有相应的制度规定,相反,我们的制度规定是完备的。

      月,工业和信息化部发布的《促进新一代人工智能产业发展三年行动计划(—年)》提出,人工智能技术具有显著的溢出效应,将进一步带动其他技术的进步,推动战略性新兴产业总体突破,正在成为推进供给侧结构性改革的新动能、振兴实体经济的新机遇、建设制造强国和网络强国的新引擎。

  因此,在当前的中国,加强制度建设,要以治理官场“大忽悠”为最根本的着力点,不是看制定了多少新的制度规章,而是要加强制度的执行力建设。

    此次活动受到了女职工的喜爱和一致好评,大家切切实实感受到了科技创新发展对于企业生产和百姓生活带来的深刻影响,纷纷表示作为科技工作者,一定要继续增强国家使命感、社会责任感,在今后的工作中努力奋斗,为国家科技创新事业发展贡献自己的一份力量。  《条例》着眼落实“两个责任”、层层传导压力、形成监督合力,对有关副战区级单位党委和军级单位党委建立巡察制度、加强巡察力量、开展巡察工作作出规定,对反馈巡视情况、移交问题和线索、巡视整改落实等巡视成果运用工作进行规范,对派出巡视组的党组织、被巡视单位以及有关机关部门和相关单位在巡视工作中的责任予以明确,对巡视工作人员严格依规依纪履行职责提出要求,对违反巡视工作纪律行为的责任追究作出规定。

  

  手机淘宝怎么打开彩票:

 
责编:
  • 快科技
  • (原驱动之家)全球最新科技资讯专业发布平台
NVIDIA Tensor Core深度学习核心解析:全是干货
2018-10-19 00:19:07  出处:雷锋网  作者:任然 编辑:上方文Q   点击可以复制本篇文章的标题和链接

不久前,NVIDIA在SIGGRAPH 2018上正式发布了新一代GPU架构——Turing(图灵),黄仁勋称Turing架构是自2006年CUDA GPU发明以来最大的飞跃。

Turing架构的两大重要特性便是集成了用于光线追踪的RT Core以及用于AI计算的Tensor Core,使其成为了全球首款支持实时光线追踪的GPU。

不过说到AI计算,NVIDIA GPU成为最好的加速器早已是公认的事实,但将Tensor Core印上GPU名片的并不是这次的Turing,而是他的上任前辈——Volta。

NVIDIA Tensor Core深度学习核心解析:全是干货

基于Volta架构的Titan V是NVIDIA在计算领域成就的集大成者。深度学习和神经网络已成为NVIDIA GPU的背后驱动力,作为最先进的计算加速器,它集成了用于机器学习操作的内置硬件和软件加速,深度学习能力完全可以被当做Titan V和Volta的名片。

Titan V与初代基于开普勒的GeForce GTX Titan已经相去甚远,初代Titan的定位是一款万能显卡,既可作为游戏发烧友的旗舰游戏显卡,也为专业消费者提供全双精度浮点(FP64)计算能力。

在Titan V诞生之前,Titan产品线几乎都是基于这种设计方法,一颗巨大的GPU核心是NVIDIA“高大全”设计思路的最好代表。

NVIDIA Tensor Core深度学习核心解析:全是干货

而在Titan V上,NVIDIA再次扩展了大核心的上限。Volta最引人注目的则是其全新的专用处理模块——Tensor Core(张量计算核心),它与Volta的其他微架构改进,以及支持深度学习和高性能计算(HPC)的软件/框架集成在一起。

凭借面积达815mm?的巨大GV100核心,Titan这一产品线变得比以往任何时候都更接近工作站级,Titan V在拥有世界最强图形渲染性能的同时,深度学习和高性能计算方面的性能都有了极大的提升,当然它的价格也达到了工作站级的3000美元。

强化算力,重造Titan

除了深度学习和通用计算之外,Titan品牌的这次迭代还涉及到其他一些因素。 NVIDIA其实已经不太需要通过Titan系列为自己树立形象,最初的GTX Titan已经通过NVIDIA K20Xs为Oak Ridge国家实验室的Titan超级计算机提供计算力。况且,Titan系列在产品价格和性能方面也没有任何特别的竞争压力。

尽管Titan V的非ECC HBM2显存和GeForce驱动程序堆栈都更加面向消费者,但该卡仍可直接受益于框架和API的软件支持,这是NVIDIA深度学习开发整体工作的一部分。

鉴于单路Titan V并不会对服务器计算卡Quadro GV100产生什么影响,NVIDIA在Titan V上只砍掉了针对服务器多路互联设计的NVLink高速总线,而主要的计算能力(FP64/FP16/Tensor Core)都被完整保留。

NVIDIA Tensor Core深度学习核心解析:全是干货

与Pascal及更早期的产品均使用面向PC设计的GPU以及常规GDDR5(x)显存不同,NVIDIA这次选择了一颗规模巨大、产量和良品率都不高的服务器级芯片,有大量的晶体管被花费在了非图形功能上(即Tensor Core),这是NVIDIA在计算领域押下的赌注,NVIDIA已经不满足于只在传统图形计算卡和通用计算方面处于领先地位。

由于是首次分析GPU的深度学习性能,所以目前市面上还没有确定一套标准的基准测试,特别是对于Volta独特的张量内核和混合精度功能。对于Titan V,我们将使用百度DeepBench、NVIDIA的Caffe2 Docker、Stanford DAWNBench和HPE深度学习基准套件(DLBS)来测试。

但是在深入研究这些测试数据之前,雷锋网首先会就深度学习、GPU、Volta微架构以及深度学习性能基准进行一些背景介绍。

GPU与深度学习

首先要说明的是,虽然“机器学习”或更通用的“AI”有时可互换用于“深度学习”,但从技术上讲,它们各自指的是不同的东西,机器学习是AI的子集,深度学习则是机器学习的子集。

NVIDIA Tensor Core深度学习核心解析:全是干货

深度学习是因“深度神经网络”(Deep Neural Networks)而得名,其最终被设计为识别数据中的模式,产生相关预测,接收关于预测准确度的反馈,然后基于反馈进行自我调整。计算发生在“节点”上,“节点”被组织成“层”:原始输入数据首先由“输入层”处理,“输出层”推出代表模型预测的数据。两者之间的任何一层都被称为“隐藏层”,而“deep”则代表着深度神经网络有许多隐藏层。

这些隐藏层可以在不断增加的抽象层次上运行,使得它们甚至可以从复杂的输入数据中提取和区分非线性特征。一个标准的例子是图像识别,其中初始层寻找某些边缘或形状,这通知后面的层寻找鼻子和眼睛,之后的层可能寻找面部。最后的图层组合了所有这些数据以进行分类。

NVIDIA Tensor Core深度学习核心解析:全是干货

随着输入数据在模型中向前推进,计算包括特殊的内部参数(权重),最后会产生一个表示模型预测与正确值之间误差的损失函数。然后使用此错误信息反向运行模型以计算将改善模型预测的权重调整,该前向和后向传递(或反向传播)序列包括单个训练迭代。

为了进行推断,这个过程自然地排除了逆向传递,最终需要的计算强度比训练模型更小。从这个意义上说,推断也不太需要像FP32这样高的精度,并且可以对模型进行适当的修剪和优化,以便在特定的设备上部署。然而推断设备对延迟、成本和功耗变得更加敏感,尤其是在边缘计算的场景下。

卷积神经网络(CNN)和递归神经网络(RNN)是深度神经网络的两个重要子类型。卷积本身是一种操作,将输入数据和卷积核结合起来形成某种特征映射,转换或过滤原始数据以提取特征。

CNN通常是“前馈”的,因为数据在没有循环的情况下流过各层。而对于RNN(以及像LSTM和GRU这样的变体)来讲,每次计算后都会有一个单独的权重循环回自身,给网络一种“记忆”感,这让网络能够做出有时间意识的预测,在文本分析等场景中很有用。

由于深度学习数学可以归结为线性代数,因此某些操作可以重写为对GPU更友好的矩阵间乘法。当NVIDIA首次开发并公布cuDNN时,其中一个重要实现就是将算法降级为矩阵乘法以加速卷积。多年来cuDNN的发展包括“预先计算的隐式GEMM”卷积算法,它恰好是触发Tensor Core卷积加速的唯一算法。

NVIDIA GPU的优势

对于深度学习训练来说,GPU已经成为加速器的最佳选择。大多数计算本质上是并行的浮点计算,即大量的矩阵乘法,其最佳性能需要大量的内存带宽和大小,这些需求与HPC的需求非常一致,GPU正好可以提供高精度浮点计算、大量VRAM和并行计算能力,NVIDIA的CUDA可谓恰逢其时。

CUDA和NVIDIA的计算业务的发展与机器学习的研究进展相吻合,机器学习在2006年左右才重新成为“深度学习”。GPU加速神经网络模型相比CPU可提供数量级的加速,反过来又将深度学习重新推广到如今的流行词汇。与此同时,NVIDIA的图形竞争对手ATI在2006年被AMD收购;OpenCL 1.0在2009年才发布,同年AMD剥离了他们的GlobalFoundries晶圆厂。

随着DL的研究人员和学者们成功地使用CUDA来更快地训练神经网络模型,NVIDIA才发布了他们的cuDNN库的优化深度学习原语,其中有很多以HPC为中心的BLAS(基本线性代数子例程)和相应的cuBLAS先例,cuDNN将研究人员创建和优化CUDA代码以提高DL性能的需求抽象出来。至于AMD的同类产品MIOpen,去年才在ROCm保护伞下发布,目前也只在Caffe公开发布。

所以从这个意义上讲,尽管NVIDIA和AMD的底层硬件都适合DL加速,但NVIDIA GPU最终成为了深度学习的参考实现。

剖析Tensor Core

在关于Volta混合精度Tensor Core的几个谜团中,一个比较烦人的问题是4 x 4矩阵乘法的能力。Tensor Core是一种新型处理核心,它执行一种专门的矩阵数学运算,适用于深度学习和某些类型的HPC。Tensor Core执行融合乘法加法,其中两个4*4 FP16矩阵相乘,然后将结果添加到4*4 FP16或FP32矩阵中,最终输出新的4*4 FP16或FP32矩阵。

NVIDIA将Tensor Core进行的这种运算称为混合精度数学,因为输入矩阵的精度为半精度,但乘积可以达到完全精度。碰巧的是,Tensor Core所做的这种运算在深度学习训练和推理中很常见。

NVIDIA Tensor Core深度学习核心解析:全是干货

Tensor Core虽然在GPU里是全新的运算单元,但其实它与标准的ALU流水线并没有太大差别,只不过Tensor Core处理的是大型矩阵运算,而不是简单地单指令流多数据流标量运算。Tensor Core是灵活性和吞吐量权衡的选择,它在执行标量运算时的表现很糟糕,但它可以将更多的操作打包到同一个芯片区域。

Tensor Core虽然有一定的可编程性,但仍然停留在4*4矩阵乘法累加层面上,并且不清楚累积步骤是如何以及何时发生的。尽管被描述为进行4*4矩阵数学运算,但实际上Tensor Core运算似乎总是使用16*16矩阵,并且操作一次跨两个Tensor Core进行处理。这似乎与Volta架构中的其他变化有关,更具体地说,与这些Tensor Core是如何集成进SM中有关。

NVIDIA Tensor Core深度学习核心解析:全是干货

对于Volta架构,SM被划分为四个处理块或子核。对于每个子核,调度器每个时钟向本地分支单元(BRU)、Tensor Core阵列、数学分派单元或共享MIO单元发出一个warp指令,这就首先阻止了Tensor运算和其他数学运算同时进行。在利用两个Tensor Core时,warp调度器直接发出矩阵乘法运算,并且在从寄存器接收输入矩阵之后,执行4*4*4矩阵乘法。待完成矩阵乘法后,Tensor Core再将得到的矩阵写回寄存器。

NVIDIA Tensor Core深度学习核心解析:全是干货

在Tensor Core执行实际指令时,即使在使用NVVM IR(LLVM)的编译器级别上,也仅存在用于warp级矩阵操作的本征,对于CUDA++和PTX ISA,warp级别仍然是唯一级别。加载输入矩阵的形式是每个扭曲线程持有一个片段,其分布和身份均未指定。从广义上讲,它遵循标准CUDA核心的基于线程级别拼接的GEMM计算的相同模式。

NVIDIA Tensor Core深度学习核心解析:全是干货

一般而言,给定A*B+C Tensor Core操作,片段由A的8个FP16*2元素(即16个FP16元素)和B的另外8个FP16*2元素,以及FP16累加器的4个FP16*2元素或 FP32累加器的8个FP32元素组成。

在矩阵乘法累加运算之后,计算结果会分散在每个线程的目标寄存器片段中,需要在整个范围内统一,如果其中一个warp线程退出,这些低级操作基本上就会失败。

NVIDIA Tensor Core深度学习核心解析:全是干货

Citadel LLC团队的低级微基准测试揭示了许多Volta微体系结构细节,包括Tensor Core操作和相关的片段,与输入矩阵相比,它们都位于寄存器和标识中。他们观察到,子核核心以特定的拼接模式计算矩阵乘法,其中所有32个warp线程都在运行。

NVIDIA Tensor Core深度学习核心解析:全是干货

从概念上讲,Tensor Core在4*4子矩阵上运行,以计算更大的16*16矩阵。warp线程被分成8组,每组4个线程,每个线程组连续计算一个8*4块,总共要经过4组的过程,每一个线程组都处理了目标矩阵的1/8。

NVIDIA Tensor Core深度学习核心解析:全是干货

在一个集合中,可以并行完成四个HMMA步骤,每个步骤适用于4*2子块。这四个线程直接链接到寄存器中的那些矩阵值,因此线程组可以处理单个Step 0 HMMA指令,从而一次性计算子块。

NVIDIA Tensor Core深度学习核心解析:全是干货

由于矩阵乘法在数学上需要对某些行列进行复用,以允许跨所有8*4块并行执行,每个4*4矩阵被映射到两个线程的寄存器。在计算16*16父矩阵的4*4次子矩阵运算中,这将包括将连续计算的集合相加,形成16*16矩阵中4*8个元素的相应块。尽管Citadel没有对FP16进行测试,但它们发现FP16 HMMA指令只产生2个步骤,而不是4个步骤,这或许与FP16只占用的较小的寄存器空间有关。

NVIDIA Tensor Core深度学习核心解析:全是干货

通过独立的线程调度和执行,以及warp同步和warp-wide结果分配,基本的4*4*4 Tensor Core操作转换为半可编程16*16*16混合精度矩阵乘法累加。虽然CUDA 9.1支持32*8*16 and 8*32*16矩阵,但相乘的矩阵都需要相应的列和行为16,最终矩阵为32*8或8*32。

Tensor Core的运行方式似乎是NVIDIA GEMM计算层次结构的一个硬件实现的步骤,如CUTLASS(用于GEMM操作的CUDA C ++模板库)中所示。对于传统的CUDA核心,最后一步需要将warp tile结构分解为由各个线程拥有的标量和向量元素。使用WMMA API(现在表示张量核),所有这些都被抽象掉了,只剩下了需要处理的合作矩阵片段加载/存储和多重积累。积累发生在一个FMA类型的操作中。

NVIDIA Tensor Core深度学习核心解析:全是干货

在寄存器级别上,NVIDIA在他们的Hot Chips 2017论文中提到“使用三个相对较小的乘法和累加器数据的4*4矩阵,可以执行64次乘加运算。”而增强的Volta SIMT模型的每线程程序计数器(能够支持张量核)通常需要每个线程2个寄存器槽。HMMA指令本身会尽可能多复用寄存器,所以我无法想象寄存器在大多数情况下不会出现瓶颈。

对于独立的4*4矩阵乘法累加,Tensor Core阵列在寄存器、数据路径和调度方面很有核能并没有物理设计,它只能用于特定的子矩阵乘法。

NVIDIA Tensor Core深度学习核心解析:全是干货

无论如何,从NVIDIA的角度来看,Volta不是一颗深度学习的专用ASIC,它仍然覆盖GPGPU的领域,因此保持CUDA可编程Tensor Core适用于GEMM / cuBLAS和HPC是合乎逻辑的。对于CUDA c++的CUTLASS来说,情况更是如此,因为它的WMMA API支持旨在为广泛的应用程序启用Tensor CoreGEMM操作。从根本上说,NVIDIA深度学习硬件加速的发展与cuDNN(以及cuBLAS)的发展有很大关系。

让FP16适用于深度学习

Volta的深度学习能力是建立在利用半精度浮点(IEEE-754 FP16)而非单精度浮点(FP32)进行深度学习训练的基础之上。

该能力首先由cuDNN 3支持并在Tegra X1的Maxwell架构中实现,随后原生半精度计算被引入Pascal架构并被称为“伪FP16”,即使用FP32 ALUs处理成对的FP16指令,理论上可以使每个时钟的FP16吞吐量增加一倍。这一特性实际上已经在Tensor Core处理寄存器中矩阵片段的过程中得到体现,其两个FP16输入矩阵被收集在8个FP16*2或16个FP16元素中。

就FP32与FP16而言,由于单精度浮点所包含的数据多于半精度浮点,因此计算量更大,需要更多的内存容量和带宽来容纳和传输数据,并带来更大的功耗。因此,在计算中成功使用低精度数据一直是穷人的圣杯,而目标则是那些不需要高精度数据的应用程序。

NVIDIA Tensor Core深度学习核心解析:全是干货

除了API/编译器/框架的支持之外,深度学习一直都有在使用FP16数据类型时损失精度的问题,这会让训练过程不够准确,模型无法收敛。

据雷锋网了解,NVIDIA以前也曾在类似的情况下推出过“混合精度”这一概念,在Pascal的快速FP16(针对GP100)和DP4A/DP2A的整数点积操作(针对GP102、GP104和GP106 GPU)中,就曾提出过类似的说法。

NVIDIA Tensor Core深度学习核心解析:全是干货

当时人们关注的是推理能力,就像Titan V的“深度学习TFLOPS”一样,Titan X(Pascal)推出了“44 TOPS(新型深度学习推断指令)”。新的指令对4元8位向量或2元8位/16位向量执行整数点积,从而得到一个32位整数积,可以与其他32位整数一起累积。

NVIDIA Tensor Core深度学习核心解析:全是干货

对于Volta的混合精度而言,重要的精度敏感数据(如主权重)仍然会存储为FP32;而Tensor Core的混合精度训练则会将两个半精度输入矩阵相乘得到一个精度乘积,然后累积成一个精度和。NVIDIA表示,在将结果写入内存之前,Tensor Core会将结果转换回半精度,这样当使用半精度格式时,寄存器和存储器中需要的数据更少,这有助于处理超大矩阵中的数据。

NVIDIA Tensor Core深度学习核心解析:全是干货

FP16与FP32所包含的数据空间并不相同,归一化方法可以解决FP32格式数据超出FP16可表示范围的问题。举个例子,许多激活梯度的值都落在FP16的范围之外,但由于这些值聚集在一起,因此将损耗乘以缩放因子便可以移动FP16范围内的大部分值。在完成最终的权重更新之前,将梯度重新缩放到原始范围,便可以维持其原始的精度。

NVIDIA Tensor Core深度学习核心解析:全是干货

不过,并非所有的数学、神经网络和层都适用于FP16,通常FP16和Tensor Core的混合精度最适合卷积和RNN重图像处理等,而对于不适合的神经网络框架或类型,FP16将默认禁用或不推荐使用。

内存改进,SM变化

使用Tensor Core处理混合精度数据似乎可以减轻内存带宽问题,但事实证明,尽管Volta在几乎所有方面都得到了内存子系统的增强,但幅度并不明显。

首先,Volta有一个12 KB的L0指令缓存,虽然Pascal及其他之前的GPU核心也有指令缓存,但Volta更高效的L0是子核心SM分区私有的,因此它对warp调度器来说也是私有的,这对Volta架构更大的指令大小是一种补偿,并有可能为支持Tensor Core通道的框架做出贡献。同时Volta指令延迟也要低于Pascal,特别是核心FMAs从6个周期减少到了4个周期。

NVIDIA Tensor Core深度学习核心解析:全是干货

随着每个SM中调度器比例的增加,砍掉第二个调度端口似乎是对具有独立数据路径和数学调度单元的子核心的权衡。而具备FP32/INT32执行能力,也为其他低精度/混合精度模型打开了大门。这些子核方面的增强,都是为了优化Tensor Core阵列。

另一个重大变化是合并L1缓存和共享内存。在同一个块中,共享内存可配置为每SM 最高96 KB。HBM2控制器也进行了更新,其效率提高了10~15%。

NVIDIA Tensor Core深度学习核心解析:全是干货

深度学习基准测试

深度学习从框架到模型,再到API和库,AI硬件的许多部分都是高度定制化的,这样的新领域有时会让人非常难以理解。

俗话说“光说不练假把式”,实践永远是检验真理的唯一标准。对计算机来说,介绍的再详细也不如真刀真枪跑一下测试,没有什么比benchmark更能提现硬件的实际表现了。

随着ImageNet和一些衍生模型(AlexNet、VGGNet、Inception、Resnet等)的影响,ILSVRC2012(ImageNet大规模视觉识别挑战)中的图像数据集训练逐渐被行业所认可。

现在基本上所有深度学习框架都支持CUDA和cuDNN,对于Volta而言,支持FP16存储的框架也都支持Tensor Core加速,启用FP16存储后Tensor Core加速会自动启用。

在随后的下篇文章里,我们将通过多项测试来考验Volta架构,利用各种深度学习框架来了解Tensor Core的性能。

微信公众号搜索" 驱动之家 "加关注,每日最新的手机、电脑、汽车、智能硬件信息可以让你一手全掌握。推荐关注!【微信扫描下图可直接关注

文章价值打分
当前文章打分0 分,共有0人打分
文章观点支持

+0
+0

韦山村 市人才储备中心 长征桥 梅田 永阳镇
红苋坪 四季 北滘中学 孟后刘村委会 中心南道