CF202646978
Modèles génératifs par flots Hamiltoniens et non-réversibles
J-51
Doctorat Doctorat complet
Auvergne-Rhône-Alpes
Disciplines
Laboratoire
LABORATOIRE DE MATHEMATIQUES (LM)
Institution d'accueil
UNIVERSITE CLERMONT AUVERGNE
Ecole doctorale
Sciences Fondamentales - ED 178

Description

Le projet de doctorat s’inscrit dans le domaine des modèles génératifs, qui vise à capturer et à échantillonner des distributions de données complexes et de grande dimension, jouant ainsi un rôle central en apprentissage automatique, en inférence bayésienne et en physique computationnelle. Parmi les méthodes génératives, les Normalizing Flows (NF) se distinguent par leur capacité à apprendre une transformation d’une distribution simple vers une distribution cible via une succession de transformations inversibles, offrant des garanties intéressantes en termes de stabilité et de correction. Toutefois, ces approches classiques souffrent souvent de limitations computationnelles importantes, notamment en grande dimension, où le calcul des déterminants jacobiens devient coûteux.

Dans ce contexte, les Normalizing Hamiltonian Flows (NHF) constituent une alternative prometteuse. En s’appuyant sur des schémas d’intégration symplectique, ils permettent de construire des transformations conservant le volume tout en autorisant des architectures neuronales flexibles. Ces méthodes présentent plusieurs avantages, tels qu’une réduction des coûts de calcul, une robustesse accrue grâce à une modélisation explicite de l’énergie cinétique, ainsi qu’une meilleure interprétabilité. Des résultats récents montrent notamment que les NHF nécessitent des intégrations dynamiques plus courtes que les modèles de diffusion, ce qui renforce leur attractivité du point de vue computationnel.

Le projet vise ainsi à approfondir ces avancées en améliorant la flexibilité des NHF, tout en explorant des approches alternatives fondées sur des implémentations de flux non réversibles. L’objectif est de développer des outils génératifs à l’état de l’art, capables de rivaliser avec les modèles de diffusion, et de mieux comprendre les liens analytiques entre ces différentes approches et de quantifier leur performance. Un enjeu important consistera également à évaluer la capacité des NHF à passer à l’échelle sur des modèles complexes de physique statistique et à comparer rigoureusement leur efficacité à celle d’autres méthodes génératives.

Le doctorant ou la doctorante évoluera dans un environnement de recherche riche et interdisciplinaire. Il ou elle sera accueilli(e) à l’Université Clermont Auvergne, au Laboratoire de Mathématiques Blaise Pascal (UMR 6620), et intégré(e) à la chaire MIAI R-GAINS. Le projet sera encadré par Arnaud Guillin (UCA, LMBP) et Manon Michel (CNRS, LMBP), et s’inscrira dans une dynamique collaborative impliquant plusieurs laboratoires (LMBP, ICCF à Clermont-Ferrand, ainsi que le LIPhy à l’Université Grenoble Alpes). Le ou la candidat(e) bénéficiera également de l’écosystème du MIAI (Multidisciplinary Institute in Artificial Intelligence), qui favorise des recherches de pointe en intelligence artificielle et leurs applications, offrant ainsi un cadre stimulant à l’interface entre processus stochastiques, apprentissage automatique et physique statistique.

Compétences requises

Nous recherchons un(e) candidat(e) motivé(e) ayant une formation en probabilités, en physique statistique ou en statistiques computationnelles, ainsi qu’un intérêt pour la modélisation générative et les processus stochastiques. Une expérience en programmation est fortement souhaitée. Pour plus de détails, contactez Manon Michel (manon.michel@uca.fr). Les candidatures doivent inclure un CV, une lettre de motivation, les relevés de notes académiques ainsi que des contacts de référence, si disponibles.

Bibliographie

Webpages:

Manon Michel’s webpage: http://manon-michel.perso.math.cnrs.fr
Arnaud Guillin’s webpage: http://math.univ-bpclermont.fr/~guillin
R-GAINS chair webpage: https://https://r-gains.pages.math.cnrs.fr/website/
MIAI’s webpage: https://miai.univ-grenoble-alpes.fr/

References:
[1] P. Toth, D.J. Rezende, A. Jaegle. S. Racanière, A. Botev and I. Higgins. Hamiltonian Generative networks, International Conference on Learning Representations, 2020.
[2] V. Souveton, A. Guillin, J. Jasche, G. Lavaux, and M. Michel, Fixed-kinetic Neural Hamiltonian Flows for enhanced interpretability and reduced complexity, Proceedings of The 27th International Conference on Artificial Intelligence and Statistics, PMLR 238:3178-3186, 2024.

Mots clés

Intelligence artificielle générative, Normalizing flows, Modèles de diffusion, Mathématiques de l'IA, physique statistique, physique computationnelle

Offre financée

Dates

Date limite de candidature 15/06/26

Durée36 mois

Date de démarrage01/10/26

Date de création24/03/26

Langues

Niveau de français requisAucun

Niveau d'anglais requisAucun

Divers

Frais de scolarité annuels400 € / an

Site web

Contacts

Vous devez vous connecter pour voir ces informations.

Cliquez ici pour vous connecter ou vous inscrire (c'est gratuit !)