آمازون AWS تراشه Inferentia 2 را برای تسریع در استنتاج مدل در مقیاس بزرگ منتشر می کند

2024-12-26 07:13
 31
آمازون AWS تراشه Inferentia 2 را منتشر می کند که عملکرد محاسباتی را سه برابر می کند و کل حافظه شتاب دهنده را یک چهارم افزایش می دهد. Inferentia 2 از استدلال توزیع شده پشتیبانی می کند و می تواند تا 175 میلیارد پارامتر را پشتیبانی کند، که آن را به یک رقیب قوی برای استدلال مدل در مقیاس بزرگ تبدیل می کند.