快捷导航

NVIDIA GPU弱爆了!世界第一AI芯片升级4万亿晶体管、90万核心

[复制链接]
查看: 353|回复: 0
发表于 2024-4-8 21:56:45 | 显示全部楼层 |阅读模式
他们住在郊区,残破的求职公寓,为了家人,为了生活下去,丢人吗?他们不觉得,我们觉得而已,弱肉强食的社会,生活在底层,你可以反抗,再找份工作罢了,但是找工作的这几个月,也需要钱啊,没存款就忍着吧。大家不要被视频标题骗了。我是学医的,神经内科。毕业后在精神病院当主治医生,视频内的行为都是我们为院里的病人量身定做的康复操,目的是让病人活动康复治疗。根本不是什么公司的企业文化。
快科技3月14日消息,Cerebras Systems发布了他们的第三代晶圆级AI加速芯片“WSE-3”(Wafer Scale Engine 3),规格参数更加疯狂,而且在功耗、价格不变的前提下性能翻了一番。

2019年的第一代WSE-1基于台积电16nm工艺,面积46225平方毫米,晶体管1.2万亿个,拥有40万个AI核心、18GB SRAM缓存,支持9PB/s内存带宽、100Pb/s互连带宽,功耗高达15千瓦。

2021年的第二代WSE-2升级台积电7nm工艺,面积不变还是46225平方毫米,晶体管增至2.6万亿个,核心数增至85万个,缓存扩至40GB,内存带宽20PB/s,互连带宽220Pb/s。

如今的第三代WSE-3再次升级为台积电5nm工艺,面积没说但应该差不多,毕竟需要一块晶圆才能造出一颗芯片,不可能再大太多了。

晶体管数量继续增加达到惊人的4万亿个,AI核心数量进一步增加到90万个,缓存容量达到44GB,外部搭配内存容量可选1.5TB、12TB、1200TB。

乍一看,核心数量、缓存容量增加的不多,但性能实现了飞跃,峰值AI算力高达125PFlops,也就是每秒12.5亿亿次浮点计算,堪比顶级超算。

它可以训练相当于GPT-4、Gemini十几倍的下一代AI大模型,能在单一逻辑内存空间内存储24万亿参数,无需分区或者重构。

用它来训练1万亿参数大模型的速度,相当于用GPU训练10亿参数。

四颗并联,它能在一天之内完成700亿参数的调教,而且支持最多2048路互连,一天就可以完成Llama 700亿参数的训练。

WSE-3的具体功耗、价格没公布,根据上代的情况看应该在200多万美元。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:上方文Q

相关阅读:自信AI智能助手

相关帖子

我这人吧,被骗进去过传销,也是自己脑子转得快,加上我脾气特别倔,硬是配合另外一个老哥打出来的,我最烦工作的地方叫我家人或者什么,或者叫我做那种跟传销有点相似的东西,没法形容那种感觉,有点想打人,我没有暴力倾向,但就是听不得,赚钱的方法老多了,这样赚的特别多吗?不见得吧。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册账号

本版积分规则

精彩推荐

让管理企业更简单

  • 反馈建议:麻烦到企业之家管理处反馈
  • 我的电话:这个不能给
  • 工作时间:周一到周五

关于我们

云服务支持

精彩文章,快速检索

关注我们

Copyright 企业之家  Powered by©  技术支持:飛    ( 闽ICP备2021007264号-5 )