François Malgouyres

SEMINAIRE DU 2 JUIN 2016 – 15H @ LTCI – C49

Optimisation de transformée rapide structurée en arbre convolutionnel

Je commencerai par une introduction à la réduction de dimension en traitement d’images et en résolution de problèmes inverses. Cette présentation débute par l’approximation non-linéaire puis l’échantillonnage compressé. Je poursuivrai en présentant les principes de l’apprentissage de dictionnaire et nos travaux récents sur l’optimisation de transformée rapide.

L’ORATEUR

François Malgouyres est Professeur des Universités à l’Institut de Mathématiques de Toulouse.

Rémy Abergel

SEMINAIRE DU 2 juin 2016 – 16H @ LTCI – C49

The Shannon total variation

In image processing problems, the minimization of total variation (TV) based energies requires discretization schemes, such as the commonly used finite differences approach. Unfortunately, such schemes generally lead to images which are difficult to interpolate at sub-pixel scales, which can be extremely problematic for subsequent processing. In this talk, we study a Fourier-based estimate called Shannon total variation (STV), which behaves much better in terms of sub-pixel accuracy. We will first explain how the STV regularization can be efficiently handled with modern dual algorithms, and show that replacing the classical discrete TV model by this STV variant does not raise any theoretical or numerical difficulties. We will then consider many classical TV-based restoration models, such as image denoising (Rudin, Osher and Fatemi), image deblurring and spectrum extrapolation (Guichard-Malgouyres), where the improved behavior of the Shannon total variation yields images that are easy to interpolate. Lastly, we will propose a new STV-regularized optimization problem (involving a data-fidelity term formulated in the frequency domain), which can be used to remove aliasing from an image, or given an image which is difficult to interpolate, can produce a visually similar image which can be easily interpolated. The experimental results that we provide show the interesting perspectives opened by this model in applications where the correct sampling of the data (according to the Shannon sampling theory) is carefully taken into account.

L’ORATEUR

Rémy Abergel est doctorant au MAP5, Université Paris Descartes.

Guillaume Tartavel

SÉMINAIRE DU 12 MAI 2016 – 16H @ MAP 5 – SALLE DU CONSEIL

Wasserstein Loss for Image Synthesis and Restoration

In this talk, I will present a variational approach to impose statistical constraints on images. This approach is generic and is meant to be applied to existing variational methods. I will show examples in the field of texture synthesis and image restoration.
The proposed approach aims at constraining the empirical distributions of image descriptors to be close to some input distributions by minimizing a Wasserstein loss (the optimal transport distance) between the distributions. The considered descriptors include linear wavelet-based filtering (for simple textures synthesis), non-linear sparse coding coefficients (for textures with more complicated patterns), and the image gradient (to obtain sharper contents in image restoration). In the case of texture synthesis, the input distributions are the empirical distributions computed from an exemplar of the texture. In the case of restoration, the distribution is estimated from a set of parametric distributions (namely generalized Gaussian distributions).

 

L’ORATeur

Guillaume Tartavel est ingénieur R&D chez REGAIND, start-up qui aide les photographes et les entreprises dans l’usage de leurs collections d’images.

Cécile Louchet

SÉMINAIRE DU 12 mai 2016 – 15H @ MAP 5 – Salle du conseil

Statistique fonctionnelle et quelques applications à l’image

Dans cet exposé, nous présentons une méthode de segmentation d’image hyperspectrale
utilisant des outils de statistique fonctionnelle. Une formulation variationnelle
est donnée, dans laquelle un terme de régularisation classique (a priori de Potts)
est complété par un terme d’attache aux données correspondant à une estimation
non-paramétrique des densités fonctionnelles des spectres sur chaque région.
Nous discutons les difficultés théoriques et pratiques soulevées par ce modèle
et proposons des applications de ce modèle dans des contextes différents.

Travail en cours en collaboration avec Laurent Delsol (MAPMO, université d’Orléans)

L’ORATrice

Cecile Louchet est Maître de Conférence au MAPMO, Université d’Orléans.

Gabriel Peyré

SéMINAIRE DU 7 AVRIL 2016 – 15H @ LTCI – C49

Transport optimal numérique et applications

Le transport optimal s’est maintenant imposé comme un outil fondamental pour analyser différents problèmes théoriques à l’interface entre le calcul des variations, les équations aux dérivées partielles et les probabilités. Il a cependant fallu plus de temps pour cette notion devienne également incontournable dans les applications numériques. Ceci est en grande partie du au cout du calcul liés aux problèmes d’optimisation correspondants. On commence cependant à voir émerger de nombreuses applications dans des champs aussi divers que l’astrophysique, la vision par ordinateur, l’infographie, le traitement d’image, les statistiques et l’apprentissage. Dans cet exposé, je ferai un tour d’horizon d’une classe de méthodes rapides pour l’approximation de fonctionnelles de transport optimal. Ces méthodes utilisent une régularisation entropique des problèmes variationnels considérés pour approcher la solution à l’aide d’algorithmes rapides et parallelisable. Ils permettent pour la première fois de calculer des barycentres au sens de la distance de transport d’un grand nombre de densités définis sur des gilles de millions de points. Ceci offre de nouvelles perspectives pour l’application du transport optimal en apprentissage (classification d’histogrammes d’images ou de mots) et en infographie (transfert de couleurs, de textures et de formes). Ces algorithmes permettent aussi de calculer des flots gradients pour la métrique de transport, permettant par exemple d’approximer avec un algorithme rapide le modèle de mouvement de foules proposé par Maury, Roudneff Chupin et Santambrogio. Il s’agit d’un travail en collaboration avec J.D. Benamou, G. Carlier, M. Cuturi et L. Nenna.

L’Orateur

Gabriel Peyré est Directeur de Recherche CNRS au CEREMADE, Université Paris-Dauphine. Il fait aussi partie de l’équipe-projet MOKAPLAN.

Blanche Buet

SEMINAIRE DU 7 avril 2016 – 16H @ LTCI – C49

Approximation de surfaces par des varifolds discrets

Il existe de très nombreuses façons de représenter et discrétiser une courbe ou une surface, en raison notamment des applications envisagées et des modes d’acquisitions des données (nuages de points, approximations volumiques, triangulations…). Le but de cet exposé sera de présenter un cadre commun pour l’approximation des surfaces, dans l’esprit de la théorie géométrique de la mesure, à travers la notion de varifold discret.
Ce cadre nous a notamment permis de dégager une notion de courbure moyenne discrète (à une échelle donnée) unifiée dont on présentera les propriétés de convergence et qu’on illustrera numériquement sur des nuages de points.

L’Orateur

Blanche Buet est maîtresse de conférences dans le groupe d’Analyse Harmonique du Laboratoire de Mathématiques d’Orsay (Université Paris Sud, France).

Julien Rabin

SEMINAIRE DU 10 MARS 2016 – 15H @ MAP5

Titre : Segmentation d’images et transport optimal d’histogrammes
Résumé :
Dans cet exposé, nous nous intéresserons aux problèmes de la segmentation supervisée d’image et de la co-segmentation multi-images non-supervisée. Plus particulièrement, nous étudierons des formulations variationnelles convexes de ces problèmes qui exploitent le cadre du transport optimal de masse afin de mesurer l’adéquation statistique des régions segmentées avec des a priori ou d’autres régions.
Nous démontrerons l’intérêt de ce type de mesure de similarité vis-à-vis de métriques plus conventionnelles.
Nous verrons enfin plusieurs pistes de travail afin de s’affranchir de certaines limitations (temps de calcul, contrainte de normalisation).
Il s’agit d’un travail en collaboration avec Nicolas Papadakis (CNRS, IMB), Vincent Duval (INRIA), et François-Xavier Vialard (Paris-Dauphine).
Articles et preprint associés :
• Co-segmentation d’images non-supervisée utilisant les distances de Sinkhorn, J. Rabin et N. Papadakis, GRETSI’15 (pdf on HAL)
• Convex Color Image Segmentation with Optimal Transport Distances, J. Rabin and N. Papadakis, SSVM 2015, (pdf sur HAL)
• Constrained unbalanced optimal transport barycenters, J. Rabin and V. Duval and F-X Vialard, preprint 2016, (pdf sur Arxiv)

L’Orateur

Julien Rabin est maître de conférence au laboratoire GREYC, à l’ENSICAEN .

Yann Traonmilin

SEMINAIRE DU 10 mars 2016 – 16H @ map5

Titre : Un cadre pour la reconstruction de signaux de faible complexité et son application à la parcimonie structurée
Pour estimer un signal (ex. IRM) à partir d’observations sous-déterminées, il est nécessaire de faire une hypothèse de régularité. La théorie de la reconstruction parcimonieuse donne un cadre puissant pour effectuer cette estimation. Des avancées récentes dans ce domaine montrent qu’une telle estimation est possible pour des modèles de régularité très généraux. Ces modèles permettent ainsi de modéliser beaucoup de signaux différents. Souvent, le modèle  contraint le signal à être de faible complexité : peu de coordonnées non nulles pour les vecteurs parcimonieux,  peu de valeurs singulières non nulles pour les matrices de rang faible, etc. Les méthodes d’estimation classiques peuvent s’écrire comme la minimisation d’une fonction de régularisation sujet à une attache au donnée.
La question suivante se pose alors : Étant donné le modèle de régularité, quelles fonctions de régularisation permettent l’estimation de signaux de faible complexité?

Pour répondre à cette question, on cherche des fonctions (que l’on préfèrera convexes) pour lesquelles la reconstruction peut être garantie pour un grand nombre d’opérateurs d’observation.  Dans cet exposé, on montre que pour une fonction de régularisation quelconque et un modèle de régularité arbitraire, on fournit un théorème de reconstruction uniforme ayant pour hypothèses une propriété d’isométrie restreinte explicite sur l’opérateur d’observation. Cela donne un cadre pour vérifier si une fonction est une bonne candidate pour effectuer la reconstruction de faible complexité avec un modèle donné.

Avec notre nouveau cadre théorique, on généralise, unifie et améliore les résultats existant sur la parcimonie structurée par bloc en dimension infinie. Les modèles de parcimonie par bloc jouent un rôle important dans l’étude des systèmes d’acquisition IRM, mais aussi dans des problèmes de modélisation parcimonieuse simultanée du signal et du bruit en traitement de l’image. Cette étude fait aussi apparaitre de nouvelles régularisations plus performantes sous la forme de pondération des normes de groupes. Cela nous amènera à discuter des conséquences de ces travaux pour la conception de nouvelles fonctions de régularisation adaptées à un modèle donné.

L’ORATEUR

Yann Traonmilin est actuellement en post-doc dans l’équipe  PANAMA à l’INRIA Rennes.

Stanley Durrleman

SEMINAIRE DU 11 FEVRIER 2016 – 15H @ TElecom-paristech

Titre : Apprentissage de modèles virtuels de la structure cérébrale à partir de données de neuroimagerie
 Nous présenterons des outils numériques et statistiques permettant d’apprendre des configurations typiques de l’anatomie cérébrale à partir d’images IRM d’un ensemble de sujets. Ces modèles virtuels sont consitués de maillages linéiques ou surfaciques des principales structures cérébrales. Les variations typiques de ces configurations au sein d’un groupe permettent de comprendre le substrat anatomique de pathologies neurologiques. La personalisation de ces modèles à de nouvelles données fournit au clinicien un système de diagnostic assisté par ordinateur et un outil d’aide au suivi des patients.
L’ORATEUR

Stanley Durrleman est chercheur INRIA à l’ICM, Hôpital Pitié-Salpêtrière

Maxime Daisy

SEMINAIRE DU 11 FEVRIER 2016 – 16H @ TElecom-paristech

Titre : Inpainting basé motif d’images et de vidéos appliqué aux données stéréoscopiques avec carte de profondeur
 Nous nous intéressons à l’étude et au perfectionnement d’algorithmes de traitement d’image gloutons basés motif, pour traiter le problème général de l' »inpainting »,
c-à-d la complétion automatique de données manquantes dans les images et les vidéos numériques. Après avoir dressé un état de l’art du domaine et analysé les étapes
sensibles des algorithmes gloutons existants dans la littérature, nous proposons, dans un premier temps, un ensemble de modifications améliorant de façon significative
la cohérence géométrique globale des images reconstruites par ce type d’algorithmes. Dans un deuxième temps, nous nous focalisons sur la réduction des artefacts visuels
de type « bloc » classiquement présents dans les résultats de reconstruction, en proposant un formalisme tensoriel de mélange anisotrope rapide de patchs, guidé par la
géométrie des structures locales et par la détection automatique des points de localisation des artefacts. Nous illustrons avec de nombreux exemples que l’ensemble de ces
contributions améliore significativement la qualité visuelle des résultats obtenus, tout en restant suffisamment générique pour s’adapter à tous type d’algorithmes
d’inpainting basé motif. Pour finir, nous nous concentrons sur l’application et l’adaptation de nos algorithmes de reconstruction sur des données stéréoscopiques
(images et vidéos) resynthétisées suivant de nouveaux points de vue virtuels de caméra. Nous intégrons l’information de profondeur estimée (à partir des vues stéréos originales)
dans nos méthodes d’inpainting et de mélange de patch pour proposer une solution visuellement satisfaisante au problème difficile de la désoccultation automatique de
scènes réelles resynthétisées.
L’ORATEUR

Maxime Daisy est avec le GREYC, Université de Caen.