快捷导航

比华为便宜!NVIDIA三款中国特供AI GPU来了:精准缩水 美国放行

[复制链接]
查看: 301|回复: 0
发表于 2024-4-8 21:59:33 | 显示全部楼层 |阅读模式
笑死了,前几天被一个亲戚拉去培训,三天两夜,我想着没事就去看看,结果就是视频这种会议,一模一样,还卖惨,放一些凄惨的音乐,讲爸爸妈妈,然后一群人围在那嗷嗷哭,我站在旁边贼尴尬。看起来好笑但老板不傻,这么做不过是为了让员工们把自己潜移默化成群体的一员,群体的力量很惊人的,个体会情不自禁的做群体都做的事,逐步驯化员工,让他们成为听话的赚钱工具。
快科技2月2日消息,美国对中国半导体技术的封锁越来越严格,但是在商言商,NVIDIA始终没有放弃中国市场,一直想尽办法打造符合美国出口管制的中国特供版本,尤其是AI GPU,第二波三款正在到来。

最早针对美国禁售A100、H100,NVIDIA设计了特供版A800、H800,只是阉割传输带宽,算力丝毫不减。

但是很快,美国出台新规,算力也做了限制,A800、H800甚至是RTX 4090就都没法卖了。

为此,NVIDIA在游戏卡市场设计了RTX 4090D,已经低调上市。

而在AI加速领域,NVIDIA设计了H20、L20、L2,原计划2023年就发布出货,但为了完全符合出口管制,推迟了一段时间。

H20基于Hopper架构,是一款高性能的AI训练卡,正是中国客户亟需的,根据最新报道它已经开始小批量供货给中国,第二季度上量。

H20的定价据称仅为1.2-1.5万美元,比华为昇腾910B 1.7万美元要低不少,用心昭然若揭。

L20、L2均基于Ada Lovelace架构,均为AI推理卡,暂不清楚是否已经供货,可能要稍等等,对于中国客户而言也不是非常迫切的需要。

目前,三款新卡的最终规格已经确定,和之前曝光的基本一致。

H20的规格还是比较强的,INT8/FP8 Tensor算力为296T,BF16/FP16 Tensor算力为148T,TF32 Tensor算力为74T,FP32算力为44T,FP64算力为1T,功耗400W。

它具备60MB二级缓存、96GB HBM3内存,带宽4TB/s,支持7路NVDEC、7路NVJPEG视频引擎,还有着PCIe 5.0 x16系统接口、900GB/s NVLink互联带宽,支持最多7个MIG。

相比于H200,它少了45GB HBM3,算力更是阉割得七零八落,INT8/FP8、BF16/FP16、TF32都少了多达93%,FP64少了足足97%,只有FP32只少了35%。

但即便如此,H20 FP32性能依然不如华为昇腾910B,这也是后者最大的优势。

H20还可以八卡并行,组成一套HGX服务器,价格大约20万美元,而之前八块H800服务器需要大约28万美元。

L20是双插槽全高全长PCIe扩展卡,搭载96MB二级缓存、48GB GDDR6 ECC内存,带宽864GB/s,INT8/FP8算力为239T,更高精度逐级减半,但不支持FP64,功耗275W。

L2则是单插槽半高卡,只有36MB二级缓存、24GB GDDR6 ECC,带宽300GB/s,算力进一步降低INT8/FP8 193T,FP32额外砍了一半只有24.1T。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:上方文Q

相关阅读:咨信网

相关帖子

有些人是真的为了生存,挣钱,不得不做,有些人可能是真的被洗脑了,觉得这样的行为很有用?无论那样,都挺悲哀的。我希望工作并不是全部,一天24小时,除了工作睡觉,还要陪伴家人啊,和朋友在一起,或者一个人待着,干自己喜欢的事情……你想要我免费加班,可以啊,一个月因为特殊情况加几天班,也不会特别在意 。只是家里有情况的时候,单位也可以通融一下……都是互相的嘛。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册账号

本版积分规则

精彩推荐

让管理企业更简单

  • 反馈建议:麻烦到企业之家管理处反馈
  • 我的电话:这个不能给
  • 工作时间:周一到周五

关于我们

云服务支持

精彩文章,快速检索

关注我们

Copyright 企业之家  Powered by©  技术支持:飛    ( 闽ICP备2021007264号-5 )