快捷导航

NVIDIA GPU弱爆了!世界第一AI芯片升级4万亿晶体管、90万核心

[复制链接]
查看: 315|回复: 0
发表于 2024-4-8 21:56:45 | 显示全部楼层 |阅读模式
我其实笑不太出来,不是他们的行为不可笑,而是我看到弹幕里有句话,背上没有孩子车子房子这些负担谁愿意这样,这句话确实把我刺痛了,现在年轻人“不思进取”可能就是不想这样吧,不想结婚不想要孩子仅仅只是想活得有尊严些,轻松些,我突然觉得我们这个社会如此大行其道真的对吗,人活的真的不像人,但回过头才发现自己也不怎么像个人,有什么资格笑他们呢?我没资格笑努力的他们,却也无法认同这样的方式,到底是哪出了问题?
快科技3月14日消息,Cerebras Systems发布了他们的第三代晶圆级AI加速芯片“WSE-3”(Wafer Scale Engine 3),规格参数更加疯狂,而且在功耗、价格不变的前提下性能翻了一番。

2019年的第一代WSE-1基于台积电16nm工艺,面积46225平方毫米,晶体管1.2万亿个,拥有40万个AI核心、18GB SRAM缓存,支持9PB/s内存带宽、100Pb/s互连带宽,功耗高达15千瓦。

2021年的第二代WSE-2升级台积电7nm工艺,面积不变还是46225平方毫米,晶体管增至2.6万亿个,核心数增至85万个,缓存扩至40GB,内存带宽20PB/s,互连带宽220Pb/s。

如今的第三代WSE-3再次升级为台积电5nm工艺,面积没说但应该差不多,毕竟需要一块晶圆才能造出一颗芯片,不可能再大太多了。

晶体管数量继续增加达到惊人的4万亿个,AI核心数量进一步增加到90万个,缓存容量达到44GB,外部搭配内存容量可选1.5TB、12TB、1200TB。

乍一看,核心数量、缓存容量增加的不多,但性能实现了飞跃,峰值AI算力高达125PFlops,也就是每秒12.5亿亿次浮点计算,堪比顶级超算。

它可以训练相当于GPT-4、Gemini十几倍的下一代AI大模型,能在单一逻辑内存空间内存储24万亿参数,无需分区或者重构。

用它来训练1万亿参数大模型的速度,相当于用GPU训练10亿参数。

四颗并联,它能在一天之内完成700亿参数的调教,而且支持最多2048路互连,一天就可以完成Llama 700亿参数的训练。

WSE-3的具体功耗、价格没公布,根据上代的情况看应该在200多万美元。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:上方文Q

相关阅读:自信AI智能助手

相关帖子

你和钱,对我都不重要,你没钱,对我很重要。什么意思?只有当你没钱了,你才会为了求生而向我出卖劳动力,为我服务。怎么让你没钱?挤掉你的生存空间,买断越来越多的生产资料,直到买光,浪不浪费我不知道,我只知道这些生产资料都属于我,你不能动,想动就来当我奴隶。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册账号

本版积分规则

精彩推荐

让管理企业更简单

  • 反馈建议:麻烦到企业之家管理处反馈
  • 我的电话:这个不能给
  • 工作时间:周一到周五

关于我们

云服务支持

精彩文章,快速检索

关注我们

Copyright 企业之家  Powered by©  技术支持:飛    ( 闽ICP备2021007264号-5 )