快捷导航

NVIDIA GPU弱爆了!世界第一AI芯片升级4万亿晶体管、90万核心

[复制链接]
查看: 318|回复: 0
发表于 2024-4-8 21:56:45 | 显示全部楼层 |阅读模式
我的更夸张,之前去一家公司,那边职位说是“影视招投”,其实就是让你装白富美,然后去骗那种有钱的老头子,跟他聊骚,骗他投钱,最恐怖的是,公司里真有一个女的装那个白富美,然后其他员工聊到约见面,就会让那个“白富美”去,而且这种一套下来,骗到的钱基本都是六位数,还美其名曰这是线上线下配合的o2o模式[囧],真的恐怖。
快科技3月14日消息,Cerebras Systems发布了他们的第三代晶圆级AI加速芯片“WSE-3”(Wafer Scale Engine 3),规格参数更加疯狂,而且在功耗、价格不变的前提下性能翻了一番。

2019年的第一代WSE-1基于台积电16nm工艺,面积46225平方毫米,晶体管1.2万亿个,拥有40万个AI核心、18GB SRAM缓存,支持9PB/s内存带宽、100Pb/s互连带宽,功耗高达15千瓦。

2021年的第二代WSE-2升级台积电7nm工艺,面积不变还是46225平方毫米,晶体管增至2.6万亿个,核心数增至85万个,缓存扩至40GB,内存带宽20PB/s,互连带宽220Pb/s。

如今的第三代WSE-3再次升级为台积电5nm工艺,面积没说但应该差不多,毕竟需要一块晶圆才能造出一颗芯片,不可能再大太多了。

晶体管数量继续增加达到惊人的4万亿个,AI核心数量进一步增加到90万个,缓存容量达到44GB,外部搭配内存容量可选1.5TB、12TB、1200TB。

乍一看,核心数量、缓存容量增加的不多,但性能实现了飞跃,峰值AI算力高达125PFlops,也就是每秒12.5亿亿次浮点计算,堪比顶级超算。

它可以训练相当于GPT-4、Gemini十几倍的下一代AI大模型,能在单一逻辑内存空间内存储24万亿参数,无需分区或者重构。

用它来训练1万亿参数大模型的速度,相当于用GPU训练10亿参数。

四颗并联,它能在一天之内完成700亿参数的调教,而且支持最多2048路互连,一天就可以完成Llama 700亿参数的训练。

WSE-3的具体功耗、价格没公布,根据上代的情况看应该在200多万美元。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:上方文Q

相关阅读:自信AI智能助手

相关帖子

有些人是真的为了生存,挣钱,不得不做,有些人可能是真的被洗脑了,觉得这样的行为很有用?无论那样,都挺悲哀的。我希望工作并不是全部,一天24小时,除了工作睡觉,还要陪伴家人啊,和朋友在一起,或者一个人待着,干自己喜欢的事情……你想要我免费加班,可以啊,一个月因为特殊情况加几天班,也不会特别在意 。只是家里有情况的时候,单位也可以通融一下……都是互相的嘛。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册账号

本版积分规则

精彩推荐

让管理企业更简单

  • 反馈建议:麻烦到企业之家管理处反馈
  • 我的电话:这个不能给
  • 工作时间:周一到周五

关于我们

云服务支持

精彩文章,快速检索

关注我们

Copyright 企业之家  Powered by©  技术支持:飛    ( 闽ICP备2021007264号-5 )