快捷导航

英伟达 AI 芯片 H200 开始供货,性能相比 H100 提升 60%-90%

[复制链接]
查看: 360|回复: 0
发表于 2024-4-1 22:29:40 | 显示全部楼层 |阅读模式
看完这个视频我不禁沉默了,让我想起了18年的春节后,家里人让我去一个公司上班,那个公司跟视频里的有一个特别像,又是跳舞,又是演讲的,我回忆了一下,那个公司的员工基本上是打电话,问一大本电话薄上的各个“客户”,需不需要本公司的产品,当时我跟几个年龄差不多但都不认识的人一起进的公司,那年,我18岁,我甚至跑到厕所,跟家里人打了个电话,我说,这真的不是传销吗?他们说,你不要在那里乱说,虽说是上班,但你最重要的是在那里学习,如果公司让你打电话啊之类的,你也慢慢学,特别是要跟他们一起,学会“讲话”。我现在想想,真是细思极恐,我要真变成这样的人,真就没有未来了(转自我上次在这种“企业文化”视频下评论的内容)。
3 月 28 日消息,据日本经济新闻报道,英伟达的尖端图像处理半导体(GPU)H200 现已开始供货。H200 为面向 AI 领域的半导体,性能超过当前主打的 H100。

根据英伟达方面公布的性能评测结果,以 Meta 公司旗下大语言模型 Llama 2 处理速度为例,H200 相比于 H100,生成式 AI 导出答案的处理速度最高提高了 45%。

市场调研机构 Omdia 曾表示,2022 年英伟达在 AI 半导体市场约占 8 成的份额,与此同时 AMD 等竞争对手也在开发对抗英伟达的产品,竞争愈演愈烈。

英伟达当地时间 3 月 18 日在开发者大会上宣布,年内将推出新一代 AI 半导体“B200”,B200 和 CPU(中央运算处理装置)组合的新产品用于最新的 LLM 上。“最强 AI 加速卡”GB200 包含了两个 B200 Blackwell GPU 和一个基于 Arm 的 Grace CPU,推理大语言模型性能比 H100 提升 30倍,成本和能耗降至 25 分之一。

GB200 采用新一代 AI 图形处理器架构Blackwell,黄仁勋在 GTC 大会上表示:“Hopper 固然已经非常出色了,但我们需要更强大的 GPU”。

据IT之家此前报道,英伟达 H200 于去年 11 月发布,其为基于英伟达的“Hopper”架构的 HGX H200 GPU,是 H100 GPU 的继任者,也是该公司第一款使用 HBM3e 内存的芯片,这种内存速度更快,容量更大,因此更适合大型语言模型。较前任霸主 H100,H200 的性能直接提升了 60% 到 90%。英伟达称:“借助 HBM3e,英伟达 H200 以每秒 4.8 TB 的速度提供 141GB 的内存,与 A100 相比,容量几乎是其两倍,带宽增加了 2.4 倍。”

相关阅读:应急防汛物资
有些人是真的为了生存,挣钱,不得不做,有些人可能是真的被洗脑了,觉得这样的行为很有用?无论那样,都挺悲哀的。我希望工作并不是全部,一天24小时,除了工作睡觉,还要陪伴家人啊,和朋友在一起,或者一个人待着,干自己喜欢的事情……你想要我免费加班,可以啊,一个月因为特殊情况加几天班,也不会特别在意 。只是家里有情况的时候,单位也可以通融一下……都是互相的嘛。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册账号

本版积分规则

精彩推荐

让管理企业更简单

  • 反馈建议:麻烦到企业之家管理处反馈
  • 我的电话:这个不能给
  • 工作时间:周一到周五

关于我们

云服务支持

精彩文章,快速检索

关注我们

Copyright 企业之家  Powered by©  技术支持:飛    ( 闽ICP备2021007264号-5 )