SenseTime lance le grand modèle universel multimodal et multitâche « Scholar 2.5 »

2024-12-20 10:35
 0
SenseTime a récemment publié un grand modèle universel multimodal et multitâche appelé « Scholar 2.5 », avec 3 milliards de paramètres. Il s'agit du modèle ImageNet le plus précis et le plus grand parmi les modèles open source mondiaux. Ce modèle a obtenu un score de plus de 65,0 mAP dans l'ensemble de données de référence de détection d'objets COCO, fournissant une perception et une compréhension efficaces et précises pour les tâches de scénario générales telles que la conduite autonome et les robots. Actuellement, "Scholar 2.5" est publié sur la plateforme open source OpenGVLab.