Un problème fréquent touche toutes les industries et va prendre de l’ampleur avec l’essor de l’IA : la dérive des modèles d’apprentissage avec la détection, la mise à jour à la volée et la correction de cette dérive.

En effet, un modèle d’IA/ML subit une dégradation de performance plus ou moins rapide en fonction de divers paramètres (fréquemment appelée dérive). Des schémas d’apprentissage en continu existent mais sont souvent difficiles et coûteux à mettre en place, ce qui les rend peu opérationnels. Des outils de détection de dérive peuvent aussi être intégrés dans certains cas d’usage précis, mais nécessitent le plus souvent un savoir-faire spécifique au domaine d’application et un long réglage des paramètres, ce qui les rend également difficiles d’emploi. Enfin, il existe des modèles construits autour de la détection et de la correction de la dérive. Ils sont rares et offrent des performances inégales tout en s’appuyant bien souvent sur des hypothèses peu réalistes dans un environnement de production.

Après des travaux de recherche sur les pipelines de données et l’explicabilité des résultats d’IA, Mangrove concentre actuellement ses efforts de R&D sur la gestion de la dérive et les contraintes opérationnelles en partenariat avec le Laboratoire de Recherche en Informatique de l’Université de Bordeaux (LaBri) et certains de nos clients.