Amazon AWS lëshon çipin Inferentia 2 për të përshpejtuar përfundimin e modelit në shkallë të gjerë

2024-12-26 07:13
 31
Amazon AWS lëshon çipin Inferentia 2, i cili trefishon performancën kompjuterike dhe rrit kujtesën totale të përshpejtuesit me një të katërtën. Inferentia 2 mbështet arsyetimin e shpërndarë dhe mund të mbështesë deri në 175 miliardë parametra, duke e bërë atë një konkurrent të fortë për arsyetimin e modeleve në shkallë të gjerë.