Mistral/Ministral
Semi-ouvert
8 mds de
paramètres
Sortie 10/2024
Licence Mistral AI Non-Production
Sorti en octobre 2024, ce modèle de petit gabarit est entraîné pour des tâches de raisonnement, de connaissances générales et de programmation. Il utilise le tokenizer Tekken, efficace pour compresser des textes. Il parle plus de 100 langues.
Taille
Doté de 8 milliards de paramètres, ce modèle fait partie
de la classe des petits modèles (entre 7 et 20 milliards de
paramètres).
Un modèle de petit gabarit est moins complexe et coûteux en ressources par rapport aux modèles plus grands, tout en offrant une performance suffisante pour diverses tâches (résumé, traduction, classification de texte...)
Pour aller plus loin
Pour les expert·es, consultez la fiche du modèle sur Hugging Face.
Les calculs d’impacts environnementaux reposent sur les projets EcoLogits et Impact
CO2.