Longtemps spécialisée dans la traduction automatique de documents financiers, la société française Dragon LLM entend désormais entraîner des modèles de langage adaptés à des tâches spécifiques capables de s’exécuter en local ou sur des serveurs sans GPU. Quitte à développer sa propre architecture de SLM, basé sur l’approche hybride Mamba-Transformer.