这个没什么说的,我原来就在平安上海电销中心干过,各种加班,什么听别人录音,什么学习什么培训,去你mua。我就不一样了。你说任你说,我不听就是了,再牛逼你能拿我怎么样?开了我?过的可舒服了[吃瓜],还加班,主管说什么开个会干嘛的,超过下班半个小时我就说有事必须去办,有时候主管还:你确定吗。搞笑,我当然确定,根本不理她,每日时常打够了,话术也算都用了,坑不到人怪我咯。去你mua的想让我加班,不可能。
自從 ChatGPT 掀起 AI 熱潮,市場對 NVIDIA GPU 需求激增,導致晶片短缺,與此同時,科技公司紛紛將生成式 AI 技術導入產品,更需要考量算力和成本。亞馬遜持續採取雙管齊下的方式,不僅積極開發自研晶片,也讓客戶選擇使用 NVIDIA 最新產品。
AWS(Amazon Web Services)年度盛會──AWS re:Invent 2023 上,亞馬遜發表全新 Trainium2 AI 晶片和 Graviton4 處理器,並與 NVIDIA 擴大策略合作、引進更多產品。
Trainium2 晶片專為訓練 AI 模型所建構,將支援 EC Trn2 執行個體。相較 2020 年 12 月推出的第一代 Trainium 晶片,第二代的效能提高 4 倍、能源效率提高 2 倍,包括 Databricks、Anthropic 計劃使用這款晶片投入 AI 模型開發。
以 Arm 架構為基礎的 Graviton4 處理器,比起現有 Graviton3 處理器運算效能提升 30%、核心數量增加 50%、記憶體頻寬增加 75%,不僅能耗可低於英特爾或 AMD 的資料中心處理器,更能保護需要高度加密需求的 AI 訓練資料和工作負載。亞馬遜表示,AWS 已有超過 5 萬家客戶正在使用 Graviton 系列處理器,Graviton4 處理器將支援 EC2 R8g 執行個體,目前提供預覽版,計劃在未來幾個月內全面供應。
▲ Graviton4 和 Trainium2 原型晶片。(Source:亞馬遜)
在與 NVIDIA 合作方面,AWS 推出 3 款 Amazon Elastic Compute Cloud(Amazon EC2)執行個體:P5e 執行個體配置 NVIDIA H200 GPU,瞄準大規模與先進生成式 AI 和 HPC 工作負載;G6、G6e 執行個體分別配置 NVIDIA L4 GPU、NVIDIA L40S GPU,其中 G6e 執行個體特別適合用來開發 3D 工作流程、數位分身以及其他使用 NVIDIA Omniverse 的應用,這些執行個體都能提供客戶採用。
NVIDIA 更與 AWS 合作推動 Project Ceiba,聯手設計全球最快、由 GPU 驅動的 AI 超級電腦,配備 NVIDIA GH200 NVL32 多節點平台與 Amazon EFA 互連技術的大規模系統由 AWS 代管,可為 NVIDIA 研發團隊提供服務。這部開創先河的 AI 超級電腦配置 16,384 顆 NVIDIA GH200 超級晶片,能處理 65exaflops 速度等級的 AI 運算。
相关阅读:PLC控制柜 |