Les modèles génératifs profonds paramètrent des familles de distributions très flexibles, capables de representer des ensembles de données complexes, tels que des images ou du texte. Ces modèles fournissent des échantillons indépendants provenant de distributions complexes de haute dimension à un coût négligeable. En revanche, échantillonner exactement une distribution cible, comme une loi posterior Bayésienne ou la distribution de Boltzmann d’un système physique, est généralement difficile : soit en raison de la dimensionnalité, de la multimodalité, du mauvais conditionnement, soit d’une combinaison de ces facteurs. Dans cet exposé, je discuterai des opportunités et des défis liés à l’amélioration des algorithmes traditionnels d’inférence et d’échantillonnage à l’aide de l’apprentissage.