Activité de clôture – 50e anniversaire du CRM

Grandes conférences publiques du Centre de recherches mathématiques

Diaconis
Photographe: Rod Searcey Copyright : The Stanford University Department of Statistics

Titre : Addition de nombres et brassage de cartes

Résumé : Quand deux nombres sont additionnés de la façon usuelle, des « retenues » apparaissent durant le processus. Plusieurs questions naturelles se posent : comment se produisent-elles ? sont-elles probables ou rares ? si une vient de se produire, est-il plus ou moins probable qu’une autre suive? Ces questions sont très proches de la question « combien de brassages d’un paquet de cartes sont nécessaires pour vraiment le mélanger » ! J’expliquerai le lien à un niveau accessible au grand public.

(La conférence sera prononcée en anglais.)

DATE: le mercredi 27 novembre 2019
LIEU: Amphithéâtre (S1-151) du Pavillon Jean-Coutu
2940, chemin de Polytechnique, Montréal H3T 1J4

17h : allocutions de clôture du 50e du CRM
17h30 : conférence de Persi Diaconis

Entrée libre mais inscription obligatoire : Inscription

BIOGRAPHIE

Persi Diaconis est un mathématicien américain né en 1945. Son engouement pour la prestidigitation lui a fait quitter l’école tôt, mais son amour des mathématiques et, en particulier, de la théorie des probabilités l’y a ramené. Il a obtenu son doctorat à l’Université Harvard. Il détient maintenant une chaire de professeur à l’Université Stanford. Il fut lauréat du Prix MacArthur à deux reprises et des Prix Rollo Davidson et Van Wijngaarden Award. Il a été élu à la National Academy of Sciences américaine et il est fellow de l’American Mathematical Society. Il est reconnu entre autres pour ses résultats mathématiques sur des questions liées aux jeux de hasard : combien de brassages de cartes sont nécessaires ? est-ce que les pile et face d’une pièce de monnaie sont vraiment équiprobables ? On trouvera sur youtube plusieurs de ses vidéos pédagogiques.

Deep Learning for AI par Yoshua Bengio le lundi 16 avril à 11h30

Lundi 16 avril / Monday, April 16 11:30 – 12:30
Université de Montréal,
Pavillon André-Aisenstadt,
salle / room 1360

Conférence inaugurale / Opening keynote lecture
Deep Learning for AI

Yoshua Bengio (Université de Montréal) 

There has been rather impressive progress recently with brain-inspired statistical learning algorithms based on the idea of learning multiple levels of representation, also known as neural networks or deep learning. They shine in artificial intelligence tasks involving perception and generation of sensory data like images or sounds and to some extent in understanding and generating natural language. We have proposed new generative models which lead to training frameworks very different from the traditional maximum likelihood framework, and borrowing from game theory. Theoretical understanding of the success of deep learning is work in progress but relies on representation aspects as well as optimization aspects, which interact. At the heart is the ability of these learning mechanisms to capitalize on the compositional nature of the underlying data distributions, meaning that some functions can be represented exponentially more efficiently with deep distributed networks compared to approaches like standard non-parametric methods which lack both depth and distributed representations. On the optimization side, we now have evidence that local minima (due to the highly non-convex nature of the training objective) may not be as much of a problem as thought a few years ago, and that training with variants of stochastic gradient descent actually helps to quickly find better-generalizing solutions. Finally, new interesting questions and answers are arising regarding learning theory for deep networks, why even very large networks do not necessarily overfit and how the representation-forming structure of these networks may give rise to better error bounds which do not absolutely depend on the iid data hypothesis.