中国新闻联播-最专业的新闻资讯平台

中国新闻联播

AMD造出最大芯片InstinctMI300加速卡,包含128GBHBM

来源:IT之家   发布时间:2023-01-09 10:33  阅读量:12076   

感谢本站的朋友OC_Formula的线索传递!

在CES 2023上,AMD公开了面向下一代数据中心的APU加速卡产品Instinct MI300该芯片将CPU,GPU,内存封装成一个整体,大大缩短了DDR内存冲程和CPU—GPU PCIe冲程,从而大大提高了其性能和效率

这款加速卡采用小芯片设计,拥有13个小芯片,基于3D堆栈,包含24个Zen4 CPU内核,并集成了CDNA 3和8个HBM3内存堆栈,集成了5nm和6nm IP,共包含128GB HBM3内存和1460亿个晶体管将于2023年下半年上市

目前AMD InstinctMI300的晶体管数量已经超过了拥有1000亿个晶体管的英特尔Ponte Vecchio,是AMD投产的最大芯片从苏丽莎女士手持Instinct MI300的照片中我们也可以看到,它的大小已经超过了半只人类的手,看起来比较夸张

AMD表示,它有9个基于3D堆栈的5nm小芯片和4个基于6nm的小芯片,周围是封装的HBM内存芯片,共有1460亿个晶体管部件AMD表示,这款加速卡的AI性能比上一代高很多

目前AMD只发布了这个信息量产芯片将于2023年下半年推出届时可能会有NVIDIA Grace,Hopper GPU等竞品,但应该会比英特尔的猎鹰海岸更早

从AMD代表展示的MI300样品来看,这9个小芯片采用了主动式设计,不仅可以实现I/O tile之间的通信,还可以与HBM3栈接口的内存控制器通信,从而带来不可思议的数据吞吐量同时,它还允许CPU和GPU同时处理内存中的相同数据,从而节省功耗,提高性能,简化流程

本站了解到,AMD宣称InstinctMI300可以带来8倍的AI性能,MI250加速卡每瓦5倍的性能提升它可以将ChatGPT和DALL—E等超大型AI模型的训练时间从几个月减少到几周,从而节省数百万美元的电费

值得一提的是,Instinct MI300将应用于美国即将推出的200亿次超级计算机El Capitan,这也意味着El Capitan在2023年部署时将成为世界上最快的超级计算机。

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

网友吐槽

发表

推荐阅读

图文推荐

友情链接

财经科技教育健康房产汽车旅游娱乐时尚图片

Copyright © 2002-2021中国新闻联播版权所有 网站地图 备案号:粤ICP备08132402号-1

本站部分资源来源于网络,版权归原作者或者来源机构所有,如作者或来源机构不同意本站转载采用,请通知我们,我们将第一时间删除内容。本站刊载文章出于传递更多信息之目的,所刊文章观点仅代表作者本人观点,并不意味着本站赞同作者观点或证实其描述,其原创性及对文章内容的真实性、完整性、及时性本站亦不作任何保证或承诺,请读者仅作参考。