在5月(yue)14日刚刚结束(shu)的GTC 2020发(fa)布(bu)会(hui)上,NVIDIA发(fa)布(bu)了新一代GPU架(jia)构(gou)“Ampere(安(an)培)” ,并推出首款基(ji)于Ampere架(jia)构(gou)的GPU——NVIDIA A100 。相比上一代Volta架(jia)构(gou)V100 GPU,NVIDIA A100 GPU实现了5大(da)技术突破(po):

1、Ampere架构,也是(shi)A100的核心,采(cai)用7nm工艺(yi),包含540亿个晶体管,面积达到826mm²,是(shi)目前最大(da)的7nm处(chu)理器;

2、第三代张量核心(Tensor Core),计算更(geng)加灵活、速(su)度(du)更(geng)快(kuai)、使(shi)用更(geng)容(rong)易。其(qi)功能经过扩(kuo)展后加入了(le)专为AI开发的(de)全新 TF32 精度(du),无需更(geng)改代码,可将AI计算速(su)度(du)提升至(zhi)上一代的(de)20倍。此外,张量核(he)现已支持FP64,为HPC应用提供了(le)比上一代多2.5倍的(de)算力。

3、多实例GPU(MIG),可以将(jiang)一个(ge)(ge)A100 GPU分割成多(duo)达7个(ge)(ge)独立的GPU实(shi)例,从(cong)而为(wei)不同任务(wu)提供灵活的算(suan)力支持(chi),并确(que)保GPU资(zi)源(yuan)得到充分的利用;

4、第三代NVLink互联技术,使得GPU与GPU之(zhi)间(jian)的互联(lian)带宽达到600GB/s,是PCIe 4.0带宽的10倍,能够大(da)幅(fu)提(ti)升服务(wu)器(qi)的扩展性能;

5、结构稀疏性,A100 中的(de)(de) Tensor Core 可为稀(xi)疏模(mo)型提(ti)供高达(da) 2 倍的(de)(de)性能提(ti)升(sheng)。虽然稀(xi)疏化功能对 AI 推(tui)理更为有(you)益(yi),但它也可用于改善模(mo)型训练的(de)(de)性能。

通过以上(shang)(shang)不同技术维度的(de)(de)(de)升级(ji)组合(he),NVIDIA A100 GPU实现了(le)迄今(jin)为止最大的(de)(de)(de)性能飞跃(yue),训练(lian)峰(feng)值算力达到(dao)(dao)312 TFLOPS,AI推理峰(feng)值算力达到(dao)(dao)1248 TOPS,将AI训练(lian)和(he)推理性能提高到(dao)(dao)上(shang)(shang)一代(dai)的(de)(de)(de)20倍(bei)。Ampere架构的(de)(de)(de)发布也引发了(le)大家的(de)(de)(de)广泛关注(zhu)。

为此(ci),智(zhi)东西公开课联(lian)合NVIDIA推出(chu)的Ampere GPU架(jia)构公开课,独家(jia)解密NVIDIA新一代GPU架(jia)构“Ampere(安(an)培)”。

5月26日晚7点,Ampere GPU架构(gou)(gou)公开课将(jiang)正式(shi)开讲,由NVIDIA中国区(qu)工程及(ji)解决方案总监(jian)赖俊(jun)杰博士主(zhu)讲,主(zhu)题为《面向HPC及(ji)AI的巨大飞跃,NVIDIA全新(xin)Ampere GPU架构(gou)(gou)深度(du)解析(xi)》。

赖(lai)俊杰博士将围绕Ampere架(jia)构、新一代(dai)(dai)Tensor Core、多实例GPU、结构化稀疏性和第三代(dai)(dai)NVLink,NVSwitch技术,以及基于A100 GPU 打(da)造(zao)的第三代(dai)(dai)AI系统DGX A100进(jin)行全方位解读。

课程时间

时间:5月26日晚7点
地点:智东西公(gong)开课小程序(xu)

课程详情

主题:面向HPC及AI的巨大飞跃,NVIDIA全新Ampere GPU架构深度解析
提纲:
1、NVIDIA Ampere GPU 架构总览
2、第三代Tensor Core,及TF32应用深入解析
3、多实例GPU (Multi-Instance GPU)技术及应用场景
4、通过结构化稀疏 (Structual Sparsity) 进一步加速神经网络计算
5、第三代NVLink,NVSwitch 及 DGX A100解读

讲师:
赖(lai)俊杰博士,现(xian)任NVIDIA中国(guo)区工程(cheng)(cheng)(cheng)及解决(jue)方案总监。赖(lai)博士在(zai)清华大学(xue)电子工程(cheng)(cheng)(cheng)系(xi)取得(de)本(ben)科及硕士学(xue)位,于法(fa)国(guo)INRIA获得(de)博士学(xue)位。博士期间的(de)主要的(de)研究方向(xiang)包(bao)括GPU架构研究,及GPU性(xing)能(neng)分析模型。在(zai)并行程(cheng)(cheng)(cheng)序的(de)性(xing)能(neng)分析,及性(xing)能(neng)优化领域有丰富的(de)经验。现(xian)在(zai)工作(zuo)的(de)重点是带领团队协助NVIDIA的(de)关键用(yong)(yong)户完(wan)成(cheng)机器学(xue)习应用(yong)(yong)的(de)工程(cheng)(cheng)(cheng)落(luo)地,以及尝试(shi)利用(yong)(yong)机器学(xue)习的(de)最新(xin)技术(shu),去解决(jue)计算机视觉(jue),语(yu)音,游戏等行业应用(yong)(yong)中遇到的(de)实际问题。

报名方式

添(tian)加智(zhi)东西公(gong)开课(ke)小助手(shou)芒(mang)(mang)芒(mang)(mang)(ID:zhidxclass005)报(bao)名,添(tian)加时请备注“姓名-公(gong)司(si)/学校-职位/专(zhuan)业”,因报(bao)名人(ren)数过(guo)(guo)多,优先通过(guo)(guo)备注者。