亚马逊AWS发布Inferentia 2芯片,加速大规模模型推理
AWS
推理
芯片
性能
亚马逊
竞争
模型
内存
分布式
大规模
加速器
规模
2024-03-15 18:06
31
亚马逊AWS发布Inferentia 2芯片,将计算性能提高三倍,加速器总内存提高四分之一。Inferentia 2支持分布式推理,最多可支持1750亿个参数,成为大规模模型推理的有力竞争者。
Prev:宁德时代与宇通签订十年战略合作框架
Next:瑞声科技完成PSS公司80%股权收购
快报
一手资料
数据
个人中心