找回密码
 立即注册
  • QQ空间
  • 回复
  • 收藏

苹果在相同snl的情况ai浮点追上nv游戏卡

指的是fp16和bf16
苹果m5的fp16/bf16性能为16 TFLOPS,steelnoamd light是5400分
那么估算4倍规模的m5max fp16性能为60+TFLOPS,snl为2万分
对比一个类似的nv50系卡,5070在2.5g默频,fp16/bf16是61.7 TFLOPS,2.8g的时候snl分数为2.3万,那么2.5g频率snl分数正好2万分
都是稠密性能没算稀疏化,都是snl 2万分对应60 TFLOPS fp16/bf16性能
不过苹果在数据格式上支持还需要提升,并没有fp8和fp4,完全不如nv
以及苹果的int8是两倍fp16,120+ TOPs不如nv的240+ TOPs
回复

使用道具 举报

大神点评(11)

e20923711 楼主 昨天 13:29 显示全部楼层
所以如果ultra是8倍m5 gpu规模,那么fp16和bf16应该和5080类似,snl也是和5080类似,如果说作为private cloud compute还是算力有点低,就带宽会比5080高点
回复 支持 反对

使用道具 举报

snl跟ai有什么关系,ai是矩阵加乘
回复 支持 反对

使用道具 举报

为什么techpowerup上5070的fp16是30.87
回复 支持 反对

使用道具 举报

苹果int8性能测的有问题,扔一个int8的模型根本没比fp16快,m5不像是30tops的水平
回复 支持 反对

使用道具 举报

硬吹苹果?都发展到fp8和fp4了,还在这fp16算力,不懂就问苹果有多少fp8算力啊
回复 支持 反对

使用道具 举报

snl用的是cuda fp16,5070只有34T
苹果在相同snl的情况ai浮点追上nv游戏卡-1.png
回复 支持 反对

使用道具 举报

果子就该开发一款对标tpu的asic,把黄狗🐶ai卡神话扫进垃圾堆
回复 支持 反对

使用道具 举报

有个屁用,pytorch对苹果的支持稀烂
回复 支持 反对

使用道具 举报

pytorch已经不在支持苹果的mps了,不要停苹果吹牛逼,苹果在ai软件生态的投入远不如华为,更别说英伟达了

苹果在相同snl的情况ai浮点追上nv游戏卡-1.jpg
回复 支持 反对

使用道具 举报

也不奇怪吧
回复 支持 反对

使用道具 举报

Todd 昨天 13:35 显示全部楼层
讨论ai能力评论区讨论了个寂寞
回复 支持 反对

使用道具 举报

说点什么

您需要登录后才可以回帖 登录 | 立即注册
HOT • 推荐