CF202545265
DevSecMLOps : sécurité dès la conception pour des pipelines d'apprentissage automatique fiables
J-320
Doctorat Doctorat complet
Informatique
Occitanie
Disciplines
Autre (Informatique)
Laboratoire
INSTITUT DE RECHERCHE EN INFORMATIQUE DE TOULOUSE (IRIT) - UMR 5505
Institution d'accueil
Université Paul Sabatier Toulouse 3
Ecole doctorale
Mathématiques, informatique, télécommunications de Toulouse (MITT) - ED 475

Description

Contexte
Les Machine Learning Operations (MLOps) sont devenues essentielles pour gérer le cycle de vie des modèles ML, en assurant livraison continue, automatisation et reproductibilité. Cependant, la sécurité n’a pas suivi la même évolution rapide. Les pratiques classiques de sécurité logicielle (analyses statiques, scans dynamiques, évaluations de vulnérabilités) sont bien établies, mais les pipelines ML présentent des risques spécifiques : attaques adversariales, empoisonnement de modèles, compromission des données d’entraînement, dérive des modèles, injection d’attaques, ainsi que des défis de confidentialité et de conformité (protection des données personnelles, PII). Les pratiques MLOps actuelles manquent de mécanismes de sécurité intégrés, sont fragmentées et souvent incompatibles avec l’agilité promise. Cela a donné naissance au domaine émergent du DevSecMLOps, qui adapte les principes de DevSecOps aux systèmes ML pour concilier sécurité et agilité.

Le problème central est l’absence d’une approche unifiée et systématique pour intégrer la security-by-design dans l’ensemble des pipelines MLOps, incluant :

l’intégration explicite des exigences de sécurité dès la conception,

le suivi et le contrôle continu de ces exigences à toutes les étapes du pipeline,

l’adaptation aux menaces évolutives sans ralentir le déploiement.

Sans cette approche, les systèmes d’IA risquent d’être performants mais fragiles, exposant les organisations à des failles critiques de sécurité et de confidentialité.

Objectifs
La thèse visera à poser les bases et à développer des mécanismes pratiques de DevSecMLOps, avec un accent particulier sur la confidentialité des données et la robustesse des modèles. Les objectifs incluent :

Intégrer les exigences de sécurité dans les workflows ML dès le début, en anticipant et en atténuant les menaces (empoisonnement de données, manipulation adversariale, fuites de données).

Explorer l’automatisation assistée par IA pour réaliser des contrôles de sécurité continus, tests adversariaux et détection d’anomalies, conciliant rigueur et agilité.

Développer un cadre méthodologique et technique opérationnalisant la sécurité dans les pipelines ML, permettant un déploiement fiable et performant des systèmes d’IA.

Mission du doctorant
Le doctorant :

étudiera les vulnérabilités tout au long du cycle de vie ML et analysera les pratiques MLOps existantes,

identifiera comment étendre les principes DevSecOps aux workflows ML,

concevra des mécanismes de security-by-design adaptés à chaque étape (ingestion des données, prétraitement, entraînement, déploiement),

explorera l’usage de ML pour automatiser les contrôles de sécurité et générer des tests adversariaux,

validera les solutions via des cas industriels (Softeam Group), évaluant l’efficacité sur la réduction des menaces tout en maintenant reproductibilité et rapidité de livraison.

Compétences requises

L'appel est ouvert aux étudiants en master ou aux professionnels ; les étudiants en master à la recherche d'un stage de 6 mois, avec l'intention de poursuivre en doctorat, sont également invités à postuler

Bibliographie

[1] X. Zhang, ‘Conceptualizing, Applying and Evaluating SecMLOps: A Paradigm for Embedding Security into the ML Lifecycle’, Carleton University, 2025. Accessed: Sept. 08, 2025. [Online]. Available: https://hdl.handle.net/20.500.14718/43535
[2] B. Eken, S. Pallewatta, N. Tran, A. Tosun, and M. A. Babar, ‘A Multivocal Review of MLOps Practices, Challenges and Open Issues’, ACM Comput. Surv., July 2025, doi: 10.1145/3747346.
[3] Hinder, F., Vaquet, V., & Hammer, B. ‘Adversarial Attacks for Drift Detection’. 2024. Accessed: Sept. 08, 2025. [Online]. Available: https://arxiv.org/html/2411.16591v1
[4] S. Panchumarthi, ‘DevSecMLOps: A Security Framework for Machine Learning Pipelines’, Authorea Preprints. Accessed: Sept. 07, 2025. [Online]. Available: https://www.authorea.com/doi/full/10.36227/techrxiv.175037181.12992346?commit=6b759b374daa544b9579f507221f2da101c2a9f4
[5] Enoiu, E. P., Truscan, D., Sadovykh, A., & Mallouli, W. (2023, August). VeriDevOps software methodology: security verification and validation for DevOps practices. In Proceedings of the 18th International Conference on Availability, Reliability and Security (pp. 1-9).
[6] Nigmatullin, I., Sadovykh, A., Messe, N., Ebersold, S., & Bruel, J. M. (2022, April). RQCODE–Towards Object-Oriented Requirements in the Software Security Domain. In IEEE International Conference on Software Testing, Verification and Validation Workshops (ICSTW 2022) (pp. 2-6). IEEE.

Mots clés

MLOps, Génie logiciel, Cybersécurité

Offre financée

Dates

Date limite de candidature 21/09/26

Durée36 mois

Date de démarrage01/10/26

Date de création22/09/25

Langues

Niveau de français requisB2 (intermédiaire)

Niveau d'anglais requisB2 (intermédiaire)

Divers

Frais de scolarité annuels400 € / an

Contacts

Vous devez vous connecter pour voir ces informations.

Cliquez ici pour vous connecter ou vous inscrire (c'est gratuit !)