F4B101A : Traitement statistique avancé de l'information


Retour
Imprimer la fiche programme
Code analytique: EDF04B101
Responsable  : Thierry CHONAVEL
Co-responsable  : Dominique PASTOR
   
Programmé en UVF4B101

Présentation :

Le traitement statistique des données est au coeur des nombreuses techniques d'extraction d'information auxquelles les STIC (sciences et techniques de l'information et de la communication) font largement appel. Dans ce cours, on rappelle et on étend les notions d'estimation, de détection et de classification abordées notamment en majeure et en mineure MTS et qui sont à la base du domaine du "machine learning".

Les critères usuels d'estimation paramétrique (maximum de vraisemblance, maximum à posteriori, minimum d'erreur quadratique moyenne) sont rappelés. Ces notions sont illustrées en particulier pour le cas gaussien. Les bornes de performances sont également présentées. Pour prendre en compte des lois de probabilité générales on introduira les lois de mélange (algorithme EM) ainsi que les approches non paramétriques. Plus tard dans le cours l'étude des modèles de mélange avec dépendance markovienne (modèles de Markov cachés) sera approfondie et les algorithmes d'estimation associés présentés.

Les problèmes d'estimation statistique complexes font souvent appel à la simulation de variables aléatoires et les principales techniques d'échantillonnage indépendants et par chaînes de Markov seront rapidement rappelés (méthodes MCMC).

L'estimation linéaire en moyenne quadratique conduit à la notion de filtrage optimal. Pour le cas stationnaire on présente le filtre de Wiener. Le filtre de Kalman permet d'envisager le cas linéaire non stationnaire. Les extensions au cas non linéaire et/ou non gaussien sont ensuite abordées (Kalman étendu, UKF, filtre particulaire).
Les techniques d'estimation adaptatives sont également abordées à travers l'étude des algorithmes LMS et RLS.

On envisage également le comportement temporel et fréquentiel de signaux aléatoires stationnaires et non stationnaires.
On complétera l'étude du cas stationnaires en considérant notamment les modèles ARMA. Pour les signaux non stationnaires, on s'intéressera à leur représentation simultanée en temps et en fréquence (transformation de Fourier à court terme, Wigner-Ville, ondelettes continues et discrètes), qui conduit à l'analyse multi-résolution du signal. L'utilisation de ces outils pour le filtrage statistique ou la compression des signaux seront envisagées.

Pour prendre des décisions à partir d'observations, les seules techniques d'estimation sont souvent insuffisantes et on fait appel à la théorie de la détection qui permet de formaliser ce type de problème et d'y apporter des solutions (détection Bayésienne, de Neaman-Pearson, test GLRT). Dans le cas de signaux dont le comportement évolue au cours du temps les techniques de détection séquentielle permettent de choisir l'instant de la prise de décision.

Le classement de signaux (textes, images, parole, objets, ...) à partir du partitionnement d'un espace de descripteurs constitue un enjeu important de l'apprentissage automatique par les machines. Cet apprentissage peut ou non être supervisé (c'est à dire construit ou non à partir d'une base d'apprentissage) et on observe une grande variété d'outils développés pour traiter ce genre de problème. Le cours présentera un panorama de ces outils, en détaillant les plus communs, et un certain nombre d'illustrations de leur emploi.

Pré-requis :

Processus aléatoires, probabilités, statistique, filtrage numérique.

Liens :

M2STI101

Volume horaire : 63h


Contenu détaillé :

intervenants
------------
DP : Dominique Pastor
FL : François Legland
FR : François Rousseau
PT : Pierre Tandeo
TC : Thierry Chonavel

Estimation
----------
- C1-C2 : Présentation du cours. Rappels et compléments d'estimation : estimateurs, bornes, MC, BLUE, MV, EM, approches bayesiennes (TC)
- PC1-PC2 : Signaux complexes multivariés (PT)
- C3 : Méthodes MCMC (TC)
- TP1 : Méthodes MCMC (PT)

Détection
---------
- C4-C5 : Détection bayesienne et non bayesienne, NP, min-max, GLR
(DP)
- TP2-TP3 (DP)
- TP4-TP5 : Détection séquentielle (DP)

Modélisation et représentation des signaux
------------------------------------------
- C6-C7 : Modèles linéaires, représentation spectrale et modèles d'état (TC)
- PC3 : Modèles ARMA (PT)
- TP6 : Estimation spectrale (PT)

- C8-C9 : Représentations des signaux non stationnaires (DP)
- TP7-TP8 : Ondelettes (DP)

- C10-C11 : Modèles Markoviens et HMC (FL)
- PC4-PC5 : Estimation dans les modèles markoviens (FL)

Filtrage optimal
----------------
- C12 : Filtrage de Wiener (TC)
- PC6 : Algorithmes LMS et RLS (TC)

- C13 : Filtrage dans les modèles d'état (TC)
- TP9 : Filtre de Kalman (PT)

- C14 : Filtrage des signaux non linéaires/non gaussiens (TC)
- TP10 : Filtrage particulaire (PT)

Classification
--------------
- C15 : classification, inférence statistique (FR)
- C16 : classification bayesienne (FR)
- TP11-TP12 (FR)
- C17: k-moyennes, modèle de mélange gaussiens, algorithme espérance-maximisation (FR)
- C18 : algorithmes supervisés, k-plus-proches-voisins,
SVM et forêts aléatoires (FR)
- TP13-TP14 (FR)


Travaux personnels encadrés :

L'UV est articulée autour de nombreux TP à réaliser majoritairement en Python.


Année 2019/2020
Dernière mise à jour le 11-JAN-19
Validation par le responsable de programme le


IMT Atlantique
Campus de Brest
Technopôle Brest-Iroise
CS 83818
29238 Brest Cedex 3
France

Tél  +33 (0)2 29 00 11 11
Fax +33 (0)2 29 00 10 00