Many problems in machine learning have to deal with wide data - manymore features than observations. Most of the features are of no use,and even the useful ones are often too sparse. For these problems L1regularization and its variants have proven to be useful for both featureselection and complexity control. This talk is a review of a number oftopics in this area, with a focus on computational aspects. This is joint work with Jerome Friedman, Rob Tibshirani, and our pastand present students.
Grandes structures combinatoires aléatoires
Notre résultat principal combine une conclusion de typeGrunwald-Wang pour les groupe arbitraires, une version effective duthéorème de Hilbert et le problème inverse de Galois (travail commun avecPierre Dèbes).
Les structures galoisiennes dont il est question ici décrivent lastructure de module sous-jacente à l'action d'un schéma en groupes(commutatif) fini et plat sur un schéma. Quand l'action est modérée(dans un sens que nous préciserons), le module obtenu est projectif.Nous montrerons comment l'utilisation des log schémas permet deréinterpréter certaines actions modérées en termes de torseurs pourla topologie log plate définie par Kato. Pour finir, nous donneronsdes applications à l'arithmétique des variétés abéliennes.