Designed and built with care, filled with creative elements

Top

Unpicking Data at the Seams: VAEs, Disentanglement and Independent Components

CSD Conference room

Disentanglement, or identifying salient statistically independent factors of the data, is of interest in many areas of machine learning and statistics, with relevance to synthetic data generation with controlled properties, robust classification of features, parsimonious encoding, and a greater understanding of the generative process underlying the data. Disentanglement arises in several generative paradigms, including Variational Autoencoders (VAEs), Generative Adversarial Networks and diffusion models. Particular progress has recently been made in understanding disentanglement in VAEs, where the choice of diagonal posterior covariance matrices is shown to promote mutual orthogonality between columns […]

Vlerë Mehmeti, raconte-moi l’uniformisation de Koebe–Mumford !

DMA Salle W

Koebe a démontré un résultat d'uniformisation pour les surfaces de Riemann compactes à travers les « groupes de Schottky ». Ce résultat a été étendu au cadre non archimédien par Mumford. J'expliquerai comment, en utilisant les « espaces de Berkovich », on peut mener une étude uniforme de tous ces objets et de leurs invariants associés.

ENS-Data Science colloquium – Luca Biferale

Salle conf IV

Luca Biferale (Università degli Studi di Roma Tor Vergata) Title:Data driven tools for Lagrangian TurbulenceAbstract: We present a stochastic method for generating and reconstructing complex signals along the trajectories of small objects passively advected by turbulent flows . Our approach makes use of generative Diffusion Models, a recently proposed data-driven machine learning technique. We show applications to 3D tracers and inertial particles in highly turbulent flows, 2D trajectories from NOAA’s Global Drifter Program and dynamics of charged particles in astrophysics. Supremacy against linear decomposition and Gaussian Regression Processes is analyzed in terms […]

Méthodes de continuité pour des systèmes champ-moyen : limites et fluctuations

Les systèmes de particules en interaction sont utilisés pour modéliser de nombreux phénomènes, allant de la physique statistique à la macro-économie. Pour des systèmes de particules en interaction champ-moyen, la limite d’échelle est connue depuis Boltzmann sous le nom de « propagation du chaos ».Pour de tels systèmes à coefficients réguliers, je présenterai une méthode particulièrement simple permettant de passer à la limite. Cette méthode (qui remonte à Tanaka, 1984) permet une représentation intuitive de ces systèmes en grande dimension, qui repose sur une analogie avec les équations différentielles ordinaires. […]

Instability and Non-uniqueness in Incompressible Flows

Jussieu -- salle 15-16-309 4 Place Jussieu, Paris, France

Over the past two decades, mathematical fluid dynamics has seen remarkable progress in an unexpected direction: non-uniqueness of solutions to the fundamental PDEs of incompressible flow, namely, the Euler and Navier-Stokes equations. I will explain the state-of-the-art in this direction, with a particular focus on the relationship between instability and non-uniqueness, including our proof with E. Brue and M. Colombo that Leray-Hopf solutions to the forced Navier-Stokes equations are not unique.

Russel Avdek, tell me about the complex origins of mapping class relations !

DMA Salle W

I’ll talk about relations between products of Dehn twists along simple closed curves on an oriented surface F. We view these products as elements of the boundary-relative mapping class group of F. A famous example is the `lantern relation’, discovered by D. Johnson in the 70s by drawing pictures. I’ll describe how many such relations, such as the lantern, can be discovered by viewing F as a complex 1-manifold sitting inside of a complex 2-manifold as part of a `Lefschetz fibration’. Time permitting, I’ll mention higher-dimensional generalizations and open problems.

Un exemple de turbulence faible dans l’équation de Schrödinger

Salle W

Dans cet exposé, j'introduirai une EDP bien connue, l'équation de Schrödinger en présence d'un potentiel $$i \partial_t u = -\Delta u +V(t) u$$ où $\Delta$ est le laplacien usuel, $V(t)$ est un potentiel réel lisse en temps et en espace et le domaine est le tore 2D. J'expliquerai ensuite comment cette équation permet d'exhiber un exemple élémentaire du phénomène de \textit{turbulence faible}, à savoir l'existence de solutions lisses dont les normes $H^s,\ s>0$ explosent à l'infini, bien que toutes les solutions soient globales et voient leur norme $L^2$ conservée. J'en […]

De l’ordre dans les tresses

ENS — amphi Galois 45 rue d'Ulm, Paris, France

Les tresses sont des objets que l’on rencontre dans la vie quotidienne : des entrelacements formés de plusieurs fils, brins, cheveux… Dans cet exposé, nous aborderons la théorie des groupes de tresses, qui sont fondamentaux en topologie de basse dimension. Après une introduction à leur définition et à leurs propriétés de base, nous explorerons un résultat clé : le théorème de Dehornoy, qui établit que les groupes de tresses sont ordonnables à gauche. Nous verrons pourquoi cette propriété est importante, notamment en lien avec les anneaux de groupes. Pour conclure, […]

ENS-Data Science colloquium – Jean-Rémi King

ENS Salle Dussane

Jean-Rémi King (CNRS, ENS & Meta AI) Title:AI and Neuroscience: in search of the laws of intelligenceAbstract: In just a few years, AI has transitioned from a specialized field into a transformative force for industries and society. Beyond this technical progress, the development of AI provides a new paradigm to understand the intricate workings of the human brain. To illustrate this, we will delve into a series of experiments that systematically compare deep learning algorithms with the human brain in response to images, sounds, and texts. These comparisons consistently show a partial […]

Paul Gassiat : Calcul de Malliavin et théorème d’hypoellipticité de Hörmander

DMA Salle W

Les projections aléatoires constituent une technique de réduction de dimension simple et efficace en apprentissage automatique non supervisé. Elles reposent sur l'existence de quasi-immersions pour un ensemble de points d'un espace euclidien de haute dimension vers un espace de dimension inférieure. Nous proposerons une présentation du lemme de Johnson-Lindenstrauss centrée sur la notion de variable sous-gaussienne, puis nous discuterons de la meilleure manière de construire des projections simples, et en particulier creuses.