M1 Semestre 1 (Mathématiques, Modélisation, Apprentissage)
Probabilités avancées (MT2AM010)

Probabilités avancées (MT2AM010)

cours: 30h TD: 30h

Objectifs :

Initiation aux processus en temps discret. Compréhension de l'espérance conditionnelle. Martingales à temps discret et les théorèmes de convergence associés.

Compétences acquises :

Espérance conditionnelle, martingale en temps discret

Programme:

Définition de l'espérance conditionnelle généraleTribus, temps d'arrêtMartingales à temps discretInégalités (maximale, Doob,...).Convergence presque sûre des martingalesConvergence dans L^p

Analyse de Fourier (MT2AM020)

Analyse de Fourier (MT2AM020)

cours: 15h TD: 15h

Objectifs :

L'analyse de Fourier et ses prolongements (ondelettes, analyse harmonique, ...) jouent un rôlecentral dans beaucoup de problèmes de mathématiques appliquées (équations différentielles et équations aux dérivées partielles, analyse numérique, convolution, traitement du signal et de l'image, etc). L'objectif de ce cours est de donner des bases mathématiques solides dans ce domaine.

Compétences acquises :

Transformations de Fourier continue et discrète.Applications de la transformée de Fourier.

Programme:

* Rappels sur les séries de Fourier * Transformée de Fourier dans L1, propriétés, calculs. Liens avec la convolution. * Formule d'inversion. Impact de la régularité d'une fonction sur sa transformée de Fourier. * Transformée de Fourier dans L2: construction, propriétés, exemples. * Espace de Schwartz et transformée de Fourier. Stabilité. Propriétés de densité. * Transformée de Fourier discrète, transformée de Fourier rapide. Lien entre séries de Fourier, transformée de Fourier, et transformée de Fourier discrète. Applications.

Analyse fonctionnelle (MT2AM030)

Analyse fonctionnelle (MT2AM030)

cours: 15h TD: 15h

Programme:

Espaces de fonctions continues sur un compact (théorème d'Ascoli, théorème de Stone-Weierstrass), espaces de Hilbert (projection, base hilbertienne, adjoint), théorème de Banach-Steinhaus, dualité des espaces de Banach et de Hilbert (convergence faible, convergence faible-étoile, identification, théorème de représentation de Riesz, théorème de Lax-Milgram), applications compactes.


Programmation (MT2AM040)

Programmation (MT2AM040)

cours: 15h TP: 15h

Objectifs :

L'objectif de ce cours est de familiariser les étudiants avec la programmation et avec les logiciels de calcul scientifique.

Compétences acquises :

Connaître et maîtriser les structures basiques de la programmation (variables, scripts, boucles, récursivité) et les limites du calcul numérique. Etre capable de concevoir et de programmer des algorithmes simples dans un langage fonctionnel (par exemple Scilab, Matlab, Octave, R), afin de résoudre numériquement des problèmes de calcul scientifique et/ou de simuler des phénomènes concrets issus de différents domaines applicatifs (physique, biologie, etc.).

Programme:

Chaque séance donne lieu à l'implémentation d'algorithmes classiques d'analyse numérique. 1. Introduction2. Résolution de systèmes linéaires (Gram-Schmidt, décomposition LU)3. Traitement d'images (filtres et débruitage)4. Analyse de données (moindres carrés, K-means, RANSAC)5. Résolution d'équations non linéaires (dichotomie, Newton-Raphson)6. Simulations de phénomènes aléatoires

Optimisation (MT2AM050)

Optimisation (MT2AM050)

cours: 15h TP: 15h

Objectifs :

Ce cours est une introduction aux problèmes d'optimisation.
Le cours se focalise essentiellement sur des problèmes d'optimisation sans contrainte en dimension finie.
Après une introduction des différentes notions mathématiques nécessaires (rappels de calcul différentiel, conditions d'optimalité, convexité, etc.),
une part importante est donnée à l'exposition des différents algorithmes classiques d'optimisation,
l'étude théorique de leur convergence, ainsi que la mise en oeuvre pratique de ces algorithmes.
Le logiciel libre de calcul scientiffique Octave est utilisé en séance de Travaux Pratiques (TP).

Compétences acquises :

Calcul de gradients et matrices hessiennes de fonctionnelles.
Etude de la convexité. Notion de forte convexité.
Etude et de la convergence de divers algorithmes d'optimisation : Algorithme de descente de gradient, algorithme de Newton, algorithme de gradient conjugué.
Implémentation en Octave de ces algorithmes et étude expérimentale de la convergence.

Programme:

* Rappels et compléments de calculs différentiels : Différentielle et gradient ; Dérivation des fonctions composées ; Différentielle d?ordre deux et matrice hessienne ; Formules de Taylor
* Problèmes d?optimisation : Existence et unicité des solutions : Existence de solutions pour les fonctions coercives et continues ; Extremums locaux et dérivabilité ; Ensembles convexes ; Fonctions convexes ; Problèmes d?optimisation convexes ; Etude des fonctionnelles quadratiques
* Algorithmes de descente pour des problèmes sans contraintes : Forte convexité ; Algorithmes de recherche de pas de descente ; Algorithmes de descente de gradient ; Méthode de Newton ;
* Méthode du gradient conjugué : Convergence et implémentation

Modélisation déterministe (MT2AM060)

Modélisation déterministe (MT2AM060)

cours: 15h TD: 15h

Programme:

- EDO (Modélisation des phénomènes de naissance, mort, compétition, mutualisme, prédation. Dynamique des populations. Modèles proies-prédateurs de type Lotka-Volterra. Dynamique adaptative. Théorème de Cauchy-Lipschitz. Stabilité des points d'équilibre.)

- EDP hyperboliques : phénomènes de transport (Principes généraux et propriétés mathématiques. Équation de renouvellement.)

- EDP paraboliques : phénomènes de diffusion (Principes généraux et propriétés mathématiques. Analyse de Fourier. Systèmes de réaction-diffusion. Morphogénèse et motifs de Turing...)

- Méthodes de discrétisation (Différences finies). Simulations numériques.


Théorie de l'information (MT2AM070)

Théorie de l'information (MT2AM070)

cours: 15h TD: 15h

Objectifs :

La théorie de l'information, inventée par Shannon en 1948, est non seulement à la base de toutesles communications numériques actuelles, mais séduit aussi par sa portée mathématique, physique, et philosophique qui va bien au-delà. L'objectif de ce cours est de comprendre les concepts fondamentaux de la théorie de l'information, à commencer par la notion d'entropie.

Compétences acquises :

Notions élementaires de théorie de l'information: entropie, codage.Principes de la communication à travers un canal bruité.

Programme:

* Arbres de décision et entropie algébrique. * Entropie probabiliste. Propriétés. * Entropie conditionnelle. Information mutuelle. Distance de Kullback. * Propriété d'équirépartition asymptotique. Suites typiques. * Codage: codes réguliers, déchiffrables, complets, codes de préfixe. * Inégalité de Kraft. Premier théorème de Shannon. * Codage de Huffman, optimalité. Lien entre codage et détermination de stratégies optimales. * Taux d'entropie de sources avec mémoire. Codage Lempel-Ziv. * Communication à travers un canal bruité. Deuxième théorème de Shannon. Example du code de Hamming 7,4. ***

Anglais (MT2AM080)

Anglais (MT2AM080)



M1 Semestre 2 (Mathématiques, Modélisation, Apprentissage)
Statistiques (MT2BM010)

Statistiques (MT2BM010)

cours: 30h TD: 30h

Programme:

Modèle statistique, identifiabilité - Estimation de paramètre et comparaison
d'estimateurs - Lois empiriques et quantiles - Construction d'estimateurs par des méthodes de
substitution (moments, quantiles) et par maximum de vraisemblance - Modèles réguliers et
information de Fisher, efficacité - Intervalles de confiance - Régression linéaire multivariée -
Réduction des données, exhaustivité, complétude, familles exponentielles - Tests paramétriques,
hypothèses simples et complexes, Lemme de Neyman-Pearson, tests gaussiens.

Chaînes de Markov (MT2BM020)

Chaînes de Markov (MT2BM020)

cours: 15h TD: 15h



Séries temporelles (MT2BM030)

Séries temporelles (MT2BM030)

cours: 15h TD: 15h

Programme:

Processus du second ordre : vecteurs et processus gaussiens. - Processus
stationnaire : fonction d'autocovariance, opérateur backward, filtrage linéaire, processus AR, MA,
ARMA, prédiction linéaire, équations de Yule-Walker. - Représentation spectrale : séries de Fourier, densité spectrale, théorème d'Herglotz, filtrage et densité spectrale, existence de solutions pour les
processus ARMA. - Estimation : estimation de la moyenne et de l'autocovariance

Méthodes variationnelles et EDP (MT2BM040)

Méthodes variationnelles et EDP (MT2BM040)

cours: 15h TD: 15h

Objectifs :

Ce cours présente la nécessité de nouvelles méthodes pour résoudre les Équations aux Dérivées Partielles (EDP) : problèmes à bord, problèmes peu réguliers. Il revoit les différents espaces fonctionnels vus en Licence : espaces réguliers, espaces L^p puis introduit les dérivées faibles et les espaces de Sobolev. Ce cours étudie ensuite les domaines ouverts bornés de R^d, leur régularité et l'existence de normale extérieure afin de pouvoir effectuer des intégrations par parties en toute dimension finie. Tout ces outils permettront de résoudre des EDP elliptiques dans un sens variationnel (sens faible) grâce au résultat de Lax-Milgram. Suivant le temps restant ce cours étend ces méthodes à l'équation de la chaleur.

Compétences acquises :

Savoir résoudre des EDP au sens classique (solutions exactes par changement de variable) ; Savoir résoudre une EDP elliptique au sens faible en utilisant Lax-Milgram ; Comprendre la nécessité des espaces de Sobolev et les utiliser.

Programme:

Présentation des problèmes surgissant en EDP et motivation de nouvelles méthodes ; Rappels d'analyse fonctionnelle ; Régularité des domaines ouverts et bornés ; Intégration par partie et formule de Green ; Espaces de Sobolev et théorèmes de trace ; Résolution variationnelle des EDP à bord.

Distributions et théorie de l'échantillonnage (MT2BM050)

Distributions et théorie de l'échantillonnage (MT2BM050)

cours: 15h TD: 15h

Programme:

Fonctions tests et distributions, opérations sur les distributions (dérivation, multiplication par une fonction), distributions tempérées (transformée de Fourier, convolution), distributions à support compact, distributions périodiques (série de Fourier, formule sommatoire de Poisson), échantillonnage (théorème de Shannon-Nyquist).

Optimisation sous contrainte (MT2BM060)

Optimisation sous contrainte (MT2BM060)

cours: 15h TP: 15h

Programme:

Existence et Unicité. Cas convexe – Différentielle au sens de Gâteau. Ellipticité. –
Condition d’optimalité du premier ordre. – Projection sur un convexe fermé. Exemples. Méthode du
gradient projeté. Conditions de Karush-Kuhn-Tucker. Points réguliers. Cas de contraintes affines.
Lagrangien. Dualité. Méthode d’Uzawa. Critère de convergence.

Bases pour le traitement d'image (MT2BM070)

Bases pour le traitement d'image (MT2BM070)

cours: 15h TP: 15h

Programme:

Ce cours a pour but, à partir de problèmes inverses classiques en traitement d'images (restauration, segmentation) et en s'appuyant sur des applications bio-médicales, de présenter des techniques de mathématiques appliquées qui permettent de donner une réponse à ces problèmes :Approches linéaires (transformée de Fourier, en ondelettes),Approches géométriques (morphologie mathématique, EDP, contours actifs),Approches stochastiques (méthodes bayesiennes, champs markoviens...).Des chaînes de traitement utilisant plusieurs de ces approches successivement seront aussi présentées.

UE Projet
Projet tutoré (MT2BM080)

Projet tutoré (MT2BM080)

Objectifs :

Savoir lire un article (qui peut être en Anglais), et apprendre à en faire la synthèse écrite et à l'exposer en un temps assez court (10 mn). La compréhension repose sur une implémentation informatique.

Cap Emploi (MT2BX090)

Cap Emploi (MT2BX090)

cours: 15h



M2 Semestre 3 (Mathématiques, Modélisation, Apprentissage)
Optimisation déterministe (MT2CM010)

Optimisation déterministe (MT2CM010)

cours: 15h TD: 15h

Programme:

Rappels sur l'optimisation différentiable et la dualité lagrangienne, ADMM, algorithme de Krasnosel'skii-Mann, accélération de Nesterov, descente de sous-gradient projeté et autres méthodes basiques d'optimisation non différentiable, résolvante et opérateur proximal, algorithme du point proximal, algorithme explicite-implicite (FISTA), algorithme de Douglas-Rachford, transformée de Legendre-Fenchel, dualité de Legendre-Rockafellar, algorithme dual, algorithme primal-dual (Chambolle-Pock, PAPC).

Algorithmes stochastiques (MT2CM020)

Algorithmes stochastiques (MT2CM020)

cours: 15h TD: 15h

Programme:

La définition classique des algorithmes en fait des processus déterministes : avec les mêmes données, la même suite d'opérations sera exécutée. Il s'avère que, dans certains cas, introduire de l'aléa dans la suite d'instructions définissant un algorithme peut s'avérer bénéfique. L'algorithme obtenu est alors appelé algorithme stochastique. Dans ce cours, nous étudierons des algorithmes stochastiques essentiels : l'algorithme EM (qui n'est pas, stricto sensu, un algorithme stochastique, mais est lié, dans sa conception, à ceux-ci), la méthode de Monte Carlo, l'échantillonnage préférentiel, l'algorithme de Hasting-Metropolis et le recuit simulé. Les deux derniers algorithmes appartiennent à la catégorie des algorithmes de type Markov Chain Monte Carlo (MCMC), construits à partir d'une chaîne de Markov. Les tâches effectuées par les algorithmes étudiés dans ce cours sont : l'estimation de paramètres ou de distributions, le calcul d'intégrales ou de quantités associées à des espérances, la simulation de variables aléatoires et processus suivant des lois données et l'optimisation de fonctions.

Classification (MT2CM030)

Classification (MT2CM030)

cours: 15h TD: 15h

Objectifs :

Les méthodes de classification permettent de faire des partitions d'individus en groupes ayant un comportement similaire. Ce cours a pour objectif de présenter quelques unes des principales méthodes de classification et de les mettre en œuvre sur des exemples concrets.

Compétences acquises :

L'étude théorique de différentes méthodes de classification et leur utilisation pratique sous le logiciel R.

Programme:

Classification non supervisée (Classification ascendante hiérarchique, Centres mobiles).Classification supervisée (Méthode CART, k plus proches voisins, Méthodes de rééchantillonnage (Validation croisée)).

Apprentissage en grande dimension (MT2CM040)

Apprentissage en grande dimension (MT2CM040)

cours: 15h TD: 15h

Programme:

De nos jours, de nombreux jeux de données, que ce soit par exemple en biologie ou en image, font intervenir des centaines, milliers voir millions de variables. Les méthodes d'apprentissage et les statistiques sous-jacentes doivent être adaptées à ce phénomène, car les méthodes habituelles en petite dimension ne sont pas efficaces. Des choix doivent notamment être faits entre prédiction et sélection de variables. Les différentes méthodes abordées seront illustrées en TP.

Programme :

1. Introduction: en quoi la grande dimension ne peut pas être traitée comme la petite dimension
2. Grande dimension et abondance de données: réseaux de neurones, deep learning
3. Grande dimension et peu de données: réduction de dimension (ACP, PLS)
4. Grande dimension et peu de données: méthodes de vraisemblance pénalisée (Ridge, Lasso, modèles graphiques gaussiens)



UE Image et modélisation pour la biologie, 4 ECUE à choisir parmi
Equations de transport (MT2CM050)

Equations de transport (MT2CM050)

cours: 15h TD: 15h

Programme:

- Introduction : exemples issus de la physique et de la biologie

- Solutions classiques de l'équation de transport : méthode des caractéristiques

- Solutions faibles de l'équation de transport : chocs et détentes, solutions entropiques

- Propriétés des schémas : consistance, stabilité, convergence

- Simulations numériques (Différences finies.

Mouvement brownien et calcul stochastique (MT2CM060)

Mouvement brownien et calcul stochastique (MT2CM060)

cours: 15h TD: 15h

Programme:

Les équations différentielles sont un formalisme mathématique qui permet de
comprendre l'évolution des systèmes (physiques, chimiques, biologiques, démographiques,
économiques, informatiques,...) au cours du temps. Il apparaît dans de nombreux contextes
applicatifs que ce formalisme ne tient pas assez compte d'un certain aléa dû par exemple aux
erreurs de mesure ou à l'évolution du milieu au cours du temps. L'objet de ce cours est d'expliquer
comment y remédier en introduisant du bruit (ou, plus généralement, de l'aléa) dans les équations
différentielles. De nombreux exemples issus de la biologie, de l'économie ou de la physique illustrent
le propos. Le cours comprend une partie programmation, en R, en Scilab ou en Python (au choix).
Les élèves qui le souhaitent pourront être initiés à Python, langage facile mais puissant, très utilisé à la fois dans le monde académique et dans l'industrie.
Le plan du cours est le suivant: Variables, vecteurs et processus gaussiens. - Mouvement brownien. -
Calcul stochastique et formule d'Itô. - Equations différentielles stochastiques (introduction,
générateurs et ien avec les chaines de Markov discrètes).
Des applications à la biologie, l'économie ou la physique sont données dans chaque chapitre.

Modèles poissoniens et processus markoviens (MT2CM070)

Modèles poissoniens et processus markoviens (MT2CM070)

cours: 15h TD: 15h

Programme:

Les processus de Poisson sont des ensembles aléatoires de points dans l'espace
qui servent à l'élaboration de nombreux modèles géométriques. Nous étudierons via des exemples
les proprieties statistiques géométriques du processus booléen, modèle polyvalent qui sert pour
l'étude des milieux poreux et des tissus, et des champs shot-noise, utilisés en imagerie ou en
médecine. On évoquera également d'autres processus permettant de modéliser plus fidèlement la
répulsion ou le clustering de particules, comme lesmesures de Gibbs ou les processus
determinantaux.
Les systèmes de particules en interaction sont des 'modèles jouets' utilisés en physique statistique
ou en biologie. Ce sont des processus de Markov en temps continu, où l'évolution temporelle de
chaque particule est régie par son interaction spatiale avec les autres particules. Après l'étude des
processus markoviens de saut qui décrivent l'évolution d'une seule particule (construction,
générateurs, semi-groupes, mesures invariantes; exemples), nous introduirons les systèmes de
particules au travers de deux modèles caractéristiques, le processus d'exclusion simple (qui
modélise par exemple des flux de voitures), et le processus de contact (qui modélise des
propagations d'infections).

Statistique non paramétrique (MT2CM080)

Statistique non paramétrique (MT2CM080)

cours: 15h TD: 15h

Objectifs :

L'objectif de ce cours est de présenter aux étudiants différentes méthodes d'estimation fonctionnelle. Ces méthodes peuvent être utilisées de façon autonomes ou bien afin de permettre de choisir un modèle paramétrique plus simple et plus facile à présenter à des professionnels ou des médecins.

Programme:

Estimation d'une densité par méthode de projection (bases fonctionnelles orthonormées, construction de l'estimateur, étude du biais, de la variance, compromis par sélection de modèle, programmation) - Estimation d'une densité par méthode de noyau (noyau d'ordre quelconque, construction et étude de l'estimateur, compromis biais-variance par sélection de fenêtre, programmation). - Estimation d'une fonction de régression avec les deux méthodes : noyau et projection, étude et comparaison. - Applications en modèles de survie: estimation non paramétrique d'une densité, d'un fonction de risque instantané (hazard rate) dans le cas de modèle avec censure droite, d'une fonction de répartition en présence de censure par intervalle.

Imagerie biomédicale (MT2CM090)

Imagerie biomédicale (MT2CM090)

cours: 15h TP: 15h

Programme:

Ce cours permettra aux étudiants de découvrir l'utilisation de différentes techniques d'analyse d'images appliquées au domaine biomédical. Chaque cours présentera tout d'abord certaines méthodes d'analyse d'images (théorie, algorithme, implémentation), puis proposera aux étudiants de les utiliser dans des cas réels afin d'apprécier leur efficacité (les TPs seront réalisés en Python avec OpenCV).

Une grande partie du cours sera consacrée aux outils de morphologie mathématique (ouverture, fermeture, ligne de partage des eaux). Les méthodes d'analyse d'images abordées auront des applications en débruitage, segmentation, analyse de formes, etc.

L'ensemble permettra aux étudiants d'être capables, à l'issue du cours, de réaliser une chaîne de traitement complète d'une image. L'évaluation des étudiants sera réalisée à l'aide d'un projet à rendre avec un rapport.

Vision par ordinateur et géométrie (MT2CM100)

Vision par ordinateur et géométrie (MT2CM100)

cours: 15h TD: 15h

Programme:

Ce cours aborde différents problèmes d'analyse d'image et de vision par ordinateur. Les séances alternent entre cours et travaux pratiques (langage au choix pour la première partie, langage Python et Open CV pour la deuxième). La validation se fera par un contrôle en classe puis un mini-projet final.

La première partie du cours est centrée sur le traitement et l'analyse de vidéos numériques. Le but est de comprendre les problèmes spécifiques posés par la vidéo et d'apprendre à utiliser des outils mathématiques variés (méthodes variationnelles, edp, statistiques) dans ce contexte.

Programme :

- Estimation du flot optique ;
- Méthode de détection a contrario en vidéo ;
- Points d’intérêts et tracking dans les séquences d'images.

La deuxième partie du cours abordera différentes problématiques impliquant l'application de transformations géométriques aux images : recalages d'images, détection d'objets, reconstruction 3D.

Programme :
- Modèles de déformations : transformations rigides, affines, homographiques, élastiques. Application d'un champ de déformation sur une image discrète.
- Mesures de similarité entre points ou nuages de points, modèles d'appariement associés.
- Extraction de points d'intérêt par descripteurs locaux, et appariement des points d'intérêt : méthode SIFT. Détection d'objets dans une image basé sur la méthode SIFT et l'algorithme RANSAC.
- Quelques notions de géométrie épipolaire pour les problèmes de reconstruction tri-dimensionnelle.

Problèmes inverses (MT2CM110)

Problèmes inverses (MT2CM110)

cours: 15h TD: 15h

Programme:

L'objectif de ce cours sera d'apprendre à formuler puis à résoudre des problèmes inverses dédiés à des tâches de traitement d'images telles que le débruitage, le déflouage, l'extrapolation de spectre, etc.

Bien souvent, de tels problèmes mettent en jeu le calcul d'un minimiseur d'une fonctionnelle convexe mais non-différentiable. Le calcul numérique de tels minimiseurs est possible à l'aide d'algorithmes modernes basés sur la dualité et sur le prolongement de la notion de gradient aux fonctionnelles convexes non-différentiables.

On s'intéressera en particulier à l'algorithme de Chambolle-Pock proposé en 2011, qui offre de rigoureuses garanties mathématiques de convergence. Cet algorithme sera maintes fois mis en œuvre sur des problèmes concrets de traitement d'images.

Mots clés: maximum de vraisemblance, maximum a posteriori, moindres carrés régularisés, représentations parcimonieuses, algorithmes primaux-duaux, transformée de Legendre-Fenchel, déconvolution, tomographie.

Perception, acquisition et analyse d'images (MT2CM120)

Perception, acquisition et analyse d'images (MT2CM120)

cours: 15h TD: 15h

Programme:

L'objectif de ce cours est de familiariser les étudiants avec les images numériques, leur formation, leur modélisation et leur représentation, et certains outils d'analyse d'image et de texture. La fin du cours sera consacrée à plusieurs séances sur les méthodes de deep learning pour l'analyse d'image. Les séances alternent entre cours et TP (langages Python ou Matlab).

Programme :

1. Formation et acquisition des images numériques : optique, capteurs, échantillonnage, quantification, dynamique, bruit, liens avec la perception visuelle, couleur
2. Traitement d'images bas niveau : radiométrie, contraste, couleur, balance des blancs, transfert de couleur, imagerie HDR
3. Représentation et synthèse de textures : processus et champs aléatoires, champs gaussiens, shot noise, synthèse par patches, analyse de texture
4. Deep learning pour l'analyse et la synthèse d'images : synthèse de texture, transfert de style, vision.

M2 Semestre 4 (Mathématiques, Modélisation, Apprentissage)
STAGE M2 (MT2DM010)

STAGE M2 (MT2DM010)