Amazon AWS wypuszcza chip Inferentia 2, aby przyspieszyć wnioskowanie o modelach na dużą skalę

31
Amazon AWS wypuszcza chip Inferentia 2, który potraja wydajność obliczeniową i zwiększa o jedną czwartą całkowitą pamięć akceleratora. Inferentia 2 obsługuje wnioskowanie rozproszone i może obsługiwać do 175 miliardów parametrów, co czyni go silnym konkurentem w zakresie wnioskowania opartego na modelach na dużą skalę.