Amazon AWS が大規模モデル推論を高速化する Inferentia 2 チップをリリース
メルセデス・ベンツ EQE SUV
MAN商用車
ポート
できる
の
メモリ
メモ
推論
チップ
チップ
パフォーマンス
パフォーマンス
増加
ポート
モデル
メモリ
力
大規模
デル
メモリ
リース
規模
メモリ
メモリ
リリー
リリース
に
2024-12-26 07:13
31
Amazon AWS は、コンピューティング パフォーマンスを 3 倍にし、アクセラレータの総メモリを 4 分の 1 増加させる Inferentia 2 チップをリリースします。 Inferentia 2 は分散推論をサポートしており、最大 1,750 億のパラメーターをサポートできるため、大規模なモデル推論の強力な競合相手になります。
Prev:Amazon AWS releases Inferentia 2 chip to accelerate large-scale model reasoning
Next:Amazon AWS, 대규모 모델 추론을 가속화하기 위해 Inferentia 2 칩 출시
News
Exclusive
Data
Account