官方微信
手机客户端
设为首页
收藏本站
扫一扫,关注我们
QQ登录
微信登录
登录
注册
我的空间
我的消息
我的积分
我的收藏
我的好友
我的相册
我的道具
帐号设置
退出登录
搜索
搜索
本版
文章
帖子
用户
免费发布信息
首页
Portal
新闻资讯
论坛
BBS
城事杂谈
求职招聘
房屋出租
织里跳蚤
房产资讯
关于我们
导读
首页
房产
装修
亲子
婚嫁
美食
汽车
旅游
娱乐
信息
求职
租房
二手房
招聘
拼车
二手车
服务
生活服务
城事杂谈
跳蚤市场
便民服务
社区
城事杂谈
情感天空
户外旅游
房产楼市
装修装饰
美食天地
当前位置:
»
论坛
›
城市服务
›
电脑维修
›
帖子
湖州市委常委会召开2024年度民主生
关注织里资讯微信公众号
@所有织里人,这份国庆假期安全提
[ 理财 ]
刘强东宣布发力稳定币,大厂找到了“新金
[ 学习教育 ]
上海一河道变身网红泳池?已有2人溺水!
[ 理财 ]
1400万销量没了!特朗普重创美国电车行业
[ 汽车天地 ]
“杂牌”电动汽车的反击,日产N7,2万台
[ 汽车天地 ]
1800亿长城魏建军,猛攻高价车
返回列表
发帖
查看:
494
|
回复:
0
AMD最强AI芯片发布:性能是英伟达H100的1.3倍!
[复制链接]
admin
admin
当前在线
积分
332814
关注TA
发消息
发表于 2023-12-7 22:09:07
|
来自:中国广东
|
显示全部楼层
|
阅读模式
12月7日消息,AMD于当地时间周三举行了“Advancing AI”发布会,正式推出了面向AI及HPC领域的GPU产品Instinct MI300A/MI300X加速器,直接与英伟达(NVIDIA)H100加速器竞争。同时AMD还发布了代号为Hawk Point的最新一代Ryzen 8000系列APU,可面向AI PC产品。
MI300A:HPC性能达到NVIDIA H100的4倍
虽然在今年6月的“数据中心与人工智能技术发布会”,AMD就有发布MI300A和MI300X,只不过当时MI300X只是纸面上的发布,现在MI300A和MI300X已经开始批量量产了,AMD也公布了更多关于MI300A、MI300X的性能数据。
AMD MI300A采用了Chiplet设计,其内部拥有多达13个小芯片,均基于台积电5nm或6nm制程工艺(CPU/GPU计算核心为5nm,HBM内存和I/O等为6nm),其中许多是 3D 堆叠的,以便创建一个面积可控的单芯片封装,总共集成1460 亿个晶体管。
具体来说,MI300A与上一代的MI250X一脉相承,采用新一代的CDNA 3 GPU架构,拥有228个计算单元(14592个核心),并集成了24个Zen 4 CPU内核,配置了128GB的HBM3内存。MI300A的计算核心被 8 个HBM3内存包围,单个HBM3的带宽为6.3GB/s,八个16GB堆栈形成128GB统一内存,带宽高达5.3TB/s。
在算力方面,MI300A提供了高达61 TFLOPS FP64算力,多达122 TFLOPS FP32算力。
AMD表示,MI300A GPU将HPC提升到一个新的水平,其性能是NVIDIA H100的4倍,能效是H100的两倍。
具体来说,在OpenFOAM中,MI300A APU提供了相比H100高达4倍的性能提升,这主要来自于统一的内存布局、GPU性能以及整体内存容量和带宽。与NVIDIA的Grace Hopper超级芯片相比,该系统每瓦的性能也提高了2倍。
AMD证实,MI300A目前正在发货,还将用于为下一代El Capitan超级计算机提供动力,预计该超级计算机将提供高达2 Exaflops的计算能力。值得一提的是,AMD是唯一一家凭借Frontier超级计算机突破1 Exaflop大关的公司,也是地球上效率最高的系统。此外,惠普、Eviden、技嘉、超微等也将是MI300A加速器的OEM和解决方案合作伙伴。
MI300X:AI性能比英伟达H100高出30%!
MI300X采用了相比MI250X更简单的设计,MI300X内部集成了12个5/6nm工艺的小芯片(HMB和I/O为6nm),拥有1530亿个晶体管,放弃了 APU 的 24 个Zen4内核和 I/O 芯片,取而代之的是更多计算核心的 CDNA 3 GPU。
MI300X的每个基于CDNA 3 GPU架构的GCD总共有40个计算单元,相当于2560个内核。总共有八个计算芯片(GCD),因此总共有320个计算和20480个核心单元。不过,就目前的量产版而言,AMD缩减这些核心的一小部分,因此实际总共有304个计算单元(每个GPU小芯片38个CU)可用于19456个流处理器。
在内存带宽方面,MI300X也配备了更大的 192GB HBM3内存(8个HBM3封装,每个堆栈为12 Hi)相比MI250X提高了50%,带来高达5.2TB/s的带宽和896GB/s的Infinity Fabric带宽。相比之下,英伟达即将推出的H200 AI加速器提供141 GB的容量,而英特尔即将推出的Gaudi 3将提供144 GB的容量。大型内存池在LLM(大语言模型)中非常重要,LLM大多是与内存绑定的,AMD可以通过在HBM内存容量上的领先地位来提升器人工智能能力。
具体来说,AMD的MI300X与英伟达的H100加速器相比:
内存容量提高 2.4 倍
内存带宽提高 1.6 倍
1.3 倍 FP8 TFLOPS
1.3 倍 FP16 TFLOPS
在 1v1 比较中,速度比 H100 (Llama 2 70B) 快达 20%
在 1v1 比较中,速度比 H100 (FlashAttention 2) 快达 20%
8v8 服务器中的速度比 H100 (Llama 2 70B) 快达 40%
在 8v8 服务器中,速度比 H100 (Bloom 176B) 快达 60%
在具体的AI大模型加速性能对比当中,MI300X相比H100在 FlashAttention-2 和 Llama 2 70B 中提供了高达 20% 的性能提升。
从平台角度来看,将 8x MI300X 解决方案与 8X H100 解决方案进行比较,前者在 Llama 2 70B 中获得了更大的 40% 的性能提升,而在 Bloom 176B 中则获得了 60% 的性能提升。
AMD指出,在AI训练性能方面,MI300X 与竞争对手 (H100) 相当,并提供有竞争力的价格/性能,同时在推理工作负载方面表现出色。
在功耗方面,AMD MI300X的额定功率为750W,比 MI250X的500W增加了50%,比NVIDIA H200多了50W。
ROCm6.0开放软件平台
AMD还推出了ROCm 6.0开放软件平台,该最新版本具有强大的新功能,包括支持各种人工智能工作负载,例如生成式人工智能和大型语言模型。
新的软件堆栈支持最新的计算格式,例如 FP16、Bf16 和 FP8(包括 Sparsity)等。
这些优化相结合,通过优化的推理库将 vLLM 的速度提高了高达 2.6 倍,通过优化的运行时间将 HIP Graph 的速度提高了 1.4 倍,并通过优化的内核将 Flash Attention 的速度提高 1.3 倍。
AMD指出,与上一代软硬件组合相比,使用MI300X和ROCm 6跑Llama 2 70B文本生成,AI推理速度提高了约8倍。
ROCm6 预计将于本月晚些时候与 MI300 AI 加速器一起推出。看看 ROCm 6 与 NVIDIA CUDA 堆栈的最新版本(它的真正竞争对手)相比如何,将会很有趣。
G593-ZX1/ZX2系列服务器
AMD还展示了一种配置是Gigabyte的G593-ZX1/ZX2系列服务器,它提供多达8个MI300X GPU加速器和两个AMD EPYC 9004 CPU。这些系统将配备多达八个3000W的电源,总功率为18000W。
据介绍,该集成了8个MI300X GPU的加速器平台,相比NVIDIA HGX H100平台,带来的提升包括:
2.4倍更高的HBM3内存(1.5 TB vs. 640 GB)
1.3倍以上的计算FLOPS(10.4 PF vs. 7.9 PF)
类似的双向带宽(896 GB/s vs. 900 GB/s)
类似的单节点环形带宽(448 GB/s vs. 450 GB/s)
类似的网络功能(400 GbE vs. 400 GbE)
类似的PCIe协议(PCIe Gen 5 128 GB/s)
据semianalysis此前报道,微软、Meta、甲骨文、谷歌、Supermicro/Qunta-direct、亚马逊等公司已经向AMD下了不同数量的MI300系列订单。
今天,微软也宣布将评估对AMD的AI加速器产品的需求,评估采用该新品的可行性。Meta公司也宣布将在数据中心采用AMD新推的MI300X芯片产品。甲骨文也表示,公司将在云服务中采用AMD的新款芯片。
此前市场预计AMD的MI300系列在2024年的出货约为30~40万颗,最大客户为微软、谷歌,若非受限台积电CoWoS产能短缺及英伟达早已预订逾四成产能,AMD出货有望再上修。
值得注意的是,在不久前的财报会议上,AMD CEO苏姿丰(Lisa Su)表示,“基于我们在人工智能路线图执行和云客户购买承诺方面取得的快速进展,根据预计,随着全年收入的增加,数据中心GPU的收入在第四季度将约为4亿美元,2024年将超过20亿美元。这一增长将使MI300系列成为AMD历史上销售额最快增长至10亿美元的产品。
目前,在生成式AI的热潮之下,英伟达凭借其AI芯片的出色性能及CUDA的生态优势,在云端AI芯片市场占据者垄断优势。不过,由于英伟达的AI芯片价格高昂以及供应短缺,云服务及AI技术厂商们处于成本及多元化供应链安全考虑,也使得AMD和英特尔等竞争者有了更多的机会。
编辑:芯智讯-浪客剑
来源:
https://view.inews.qq.com/k/20231207A03O1X00
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
回复
使用道具
举报
返回列表
发帖
发表回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
精选推荐
湖州市委常委会召开2024年度民主
名单公布!
首个全国生态日主场活动在湖州举
2023绿色低碳创新大会在湖州举行
《焦点访谈》关注湖州!
市共同富裕领导小组召开第五次会
织里镇家园志愿广场本周活动预告
防诈骗小课堂,提高警惕!
7天1检!常态化核酸检测提醒!
浏览过的版块
时尚街拍
友情链接
浙沪导航
imtoken钱包官网下载
网站目录
NBA直播
关闭
站长推荐
/1
关注织里资讯微信公众号
关注织里资讯微信公众号
查看 »
浙江网络警察报警平台
经营性网站备案信息
湖州市公安局网监备案
不良信息举报中心
联系客服
关注微信
下载APP
返回顶部
返回列表
点击联系客服
在线时间:8:30-17:00
客服电话
13362228119
电子邮件
511400718@qq.com
扫一扫,关注我们
下载APP客户端