Modèles génératifs par flots Hamiltoniens et non-réversibles
J-51
Doctorat Doctorat complet
Auvergne-Rhône-Alpes
- Disciplines
- Laboratoire
- LABORATOIRE DE MATHEMATIQUES (LM)
- Institution d'accueil
- UNIVERSITE CLERMONT AUVERGNE
- Ecole doctorale
- Sciences Fondamentales - ED 178
Description
Le projet de doctorat sinscrit dans le domaine des modèles génératifs, qui vise à capturer et à échantillonner des distributions de données complexes et de grande dimension, jouant ainsi un rôle central en apprentissage automatique, en inférence bayésienne et en physique computationnelle. Parmi les méthodes génératives, les Normalizing Flows (NF) se distinguent par leur capacité à apprendre une transformation dune distribution simple vers une distribution cible via une succession de transformations inversibles, offrant des garanties intéressantes en termes de stabilité et de correction. Toutefois, ces approches classiques souffrent souvent de limitations computationnelles importantes, notamment en grande dimension, où le calcul des déterminants jacobiens devient coûteux.Dans ce contexte, les Normalizing Hamiltonian Flows (NHF) constituent une alternative prometteuse. En sappuyant sur des schémas dintégration symplectique, ils permettent de construire des transformations conservant le volume tout en autorisant des architectures neuronales flexibles. Ces méthodes présentent plusieurs avantages, tels quune réduction des coûts de calcul, une robustesse accrue grâce à une modélisation explicite de lénergie cinétique, ainsi quune meilleure interprétabilité. Des résultats récents montrent notamment que les NHF nécessitent des intégrations dynamiques plus courtes que les modèles de diffusion, ce qui renforce leur attractivité du point de vue computationnel.
Le projet vise ainsi à approfondir ces avancées en améliorant la flexibilité des NHF, tout en explorant des approches alternatives fondées sur des implémentations de flux non réversibles. Lobjectif est de développer des outils génératifs à létat de lart, capables de rivaliser avec les modèles de diffusion, et de mieux comprendre les liens analytiques entre ces différentes approches et de quantifier leur performance. Un enjeu important consistera également à évaluer la capacité des NHF à passer à léchelle sur des modèles complexes de physique statistique et à comparer rigoureusement leur efficacité à celle dautres méthodes génératives.
Le doctorant ou la doctorante évoluera dans un environnement de recherche riche et interdisciplinaire. Il ou elle sera accueilli(e) à lUniversité Clermont Auvergne, au Laboratoire de Mathématiques Blaise Pascal (UMR 6620), et intégré(e) à la chaire MIAI R-GAINS. Le projet sera encadré par Arnaud Guillin (UCA, LMBP) et Manon Michel (CNRS, LMBP), et sinscrira dans une dynamique collaborative impliquant plusieurs laboratoires (LMBP, ICCF à Clermont-Ferrand, ainsi que le LIPhy à lUniversité Grenoble Alpes). Le ou la candidat(e) bénéficiera également de lécosystème du MIAI (Multidisciplinary Institute in Artificial Intelligence), qui favorise des recherches de pointe en intelligence artificielle et leurs applications, offrant ainsi un cadre stimulant à linterface entre processus stochastiques, apprentissage automatique et physique statistique.
Compétences requises
Nous recherchons un(e) candidat(e) motivé(e) ayant une formation en probabilités, en physique statistique ou en statistiques computationnelles, ainsi quun intérêt pour la modélisation générative et les processus stochastiques. Une expérience en programmation est fortement souhaitée. Pour plus de détails, contactez Manon Michel (manon.michel@uca.fr). Les candidatures doivent inclure un CV, une lettre de motivation, les relevés de notes académiques ainsi que des contacts de référence, si disponibles.Bibliographie
Webpages:Manon Michels webpage: http://manon-michel.perso.math.cnrs.fr
Arnaud Guillins webpage: http://math.univ-bpclermont.fr/~guillin
R-GAINS chair webpage: https://https://r-gains.pages.math.cnrs.fr/website/
MIAIs webpage: https://miai.univ-grenoble-alpes.fr/
References:
[1] P. Toth, D.J. Rezende, A. Jaegle. S. Racanière, A. Botev and I. Higgins. Hamiltonian Generative networks, International Conference on Learning Representations, 2020.
[2] V. Souveton, A. Guillin, J. Jasche, G. Lavaux, and M. Michel, Fixed-kinetic Neural Hamiltonian Flows for enhanced interpretability and reduced complexity, Proceedings of The 27th International Conference on Artificial Intelligence and Statistics, PMLR 238:3178-3186, 2024.
Mots clés
Intelligence artificielle générative, Normalizing flows, Modèles de diffusion, Mathématiques de l'IA, physique statistique, physique computationnelleOffre financée
Dates
Date limite de candidature 15/06/26
Durée36 mois
Date de démarrage01/10/26
Date de création24/03/26
Langues
Niveau de français requisAucun
Niveau d'anglais requisAucun
Divers
Contacts
Vous devez vous connecter pour voir ces informations.
Cliquez ici pour vous connecter ou vous inscrire (c'est gratuit !)
