快捷导航

比华为便宜!NVIDIA三款中国特供AI GPU来了:精准缩水 美国放行

[复制链接]
查看: 284|回复: 0
发表于 2024-4-8 21:59:33 | 显示全部楼层 |阅读模式
大学毕业去找工作,找到一个化妆品行业的,结果到了就是大清早的在那里放着很嗨的音乐,一伙人排着队,搞得像传销,我们是第一天来的,所以没进去,结束完以后由老员工带我们去试岗,结果就是背着一书包的产品去挨家挨户去推销,我中午吃饭直接就跑路,问了一下,基本都是18岁左右的,16都有!
快科技2月2日消息,美国对中国半导体技术的封锁越来越严格,但是在商言商,NVIDIA始终没有放弃中国市场,一直想尽办法打造符合美国出口管制的中国特供版本,尤其是AI GPU,第二波三款正在到来。

最早针对美国禁售A100、H100,NVIDIA设计了特供版A800、H800,只是阉割传输带宽,算力丝毫不减。

但是很快,美国出台新规,算力也做了限制,A800、H800甚至是RTX 4090就都没法卖了。

为此,NVIDIA在游戏卡市场设计了RTX 4090D,已经低调上市。

而在AI加速领域,NVIDIA设计了H20、L20、L2,原计划2023年就发布出货,但为了完全符合出口管制,推迟了一段时间。

H20基于Hopper架构,是一款高性能的AI训练卡,正是中国客户亟需的,根据最新报道它已经开始小批量供货给中国,第二季度上量。

H20的定价据称仅为1.2-1.5万美元,比华为昇腾910B 1.7万美元要低不少,用心昭然若揭。

L20、L2均基于Ada Lovelace架构,均为AI推理卡,暂不清楚是否已经供货,可能要稍等等,对于中国客户而言也不是非常迫切的需要。

目前,三款新卡的最终规格已经确定,和之前曝光的基本一致。

H20的规格还是比较强的,INT8/FP8 Tensor算力为296T,BF16/FP16 Tensor算力为148T,TF32 Tensor算力为74T,FP32算力为44T,FP64算力为1T,功耗400W。

它具备60MB二级缓存、96GB HBM3内存,带宽4TB/s,支持7路NVDEC、7路NVJPEG视频引擎,还有着PCIe 5.0 x16系统接口、900GB/s NVLink互联带宽,支持最多7个MIG。

相比于H200,它少了45GB HBM3,算力更是阉割得七零八落,INT8/FP8、BF16/FP16、TF32都少了多达93%,FP64少了足足97%,只有FP32只少了35%。

但即便如此,H20 FP32性能依然不如华为昇腾910B,这也是后者最大的优势。

H20还可以八卡并行,组成一套HGX服务器,价格大约20万美元,而之前八块H800服务器需要大约28万美元。

L20是双插槽全高全长PCIe扩展卡,搭载96MB二级缓存、48GB GDDR6 ECC内存,带宽864GB/s,INT8/FP8算力为239T,更高精度逐级减半,但不支持FP64,功耗275W。

L2则是单插槽半高卡,只有36MB二级缓存、24GB GDDR6 ECC,带宽300GB/s,算力进一步降低INT8/FP8 193T,FP32额外砍了一半只有24.1T。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:上方文Q

相关阅读:咨信网

相关帖子

里面吼那个,就是公司最喜欢搞得拓展活动,请一帮所谓的教练训练你,问你们是团队还是团伙,不去还要算你旷工。当时喊我学设计大学毕业刚上班的时候,公司搞这个拓展,做了这个游戏叫打败大魔王,你要说出自己名字那些,然后有些人嘶吼那些,吼出来,所谓的扮演大魔王的人还是说:不通过,我听不见! 我当时去吼了,一下。他说他听不见,我脾气瞬间上来了:你是nm的聋子?啥子垃圾拓展,你们看可以说我是笨,但是不能用这种弱智活动侮辱我的智商! 然后当着全公司人转头开上我的奥迪A6L就辞职走了。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册账号

本版积分规则

精彩推荐

让管理企业更简单

  • 反馈建议:麻烦到企业之家管理处反馈
  • 我的电话:这个不能给
  • 工作时间:周一到周五

关于我们

云服务支持

精彩文章,快速检索

关注我们

Copyright 企业之家  Powered by©  技术支持:飛    ( 闽ICP备2021007264号-5 )