Dipu Technology hat ein umfangreiches Modelltraining auf Basis des Moore Thread Kua'e Qianka Intelligent Computing Cluster abgeschlossen

40
Dipu Technology hat den Pre-Training-Test des LLaMA2-Großsprachenmodells mit 70 Milliarden Parametern mithilfe des Moore Thread Kua'e Qianka Intelligent Computing Cluster erfolgreich abgeschlossen und dabei die Stabilität und Effizienz des Clusters während des Trainingsprozesses gezeigt.