IMB logo
[english]
[français]


Présentation

Le groupe de travail Image commun entre l'IMB, l'IMS, et le LaBRI est un évènement mensuel visant à échanger entre les participants sur les dernières avancées réalisées en traitement d'images ou sur des thématiques connexes à l'équipe Image de l'IMB et à, au thème MOTIVE de l'IMS et à l'équipe Pictura du LaBRI ou plus largement au site Bordelais.

up

Calendrier

Résumé : Hypoxia caused by microvascular changes and disturbed capillary flows could stimulate the build-up of AD-specific proteins in brain parenchyma. We compared cerebral microcirculation in a cohort of suspected possible or probable AD with that of healthy, age-matched controls using dynamic susceptibility contrast magnetic resonance imaging (DSC-MRI). Vascular flow disturbances were the quantified using a parametric model and mapped to the mid-cortical surface for group wise statistical analysis. Atrophy and white matter hyperintensities were identified with conventional MRI. We found widespread hypoperfusion in patients compared to controls and identified areas of increased capillary transit time heterogeneity (CTH), consistent with low tissue oxygen tension. Notably, CTH was negatively correlated with mini-mental state examination scores in the patient cohort. This correlation extended over large parts of the temporal, parietal and frontal cortices. These results support the hypothesis of disturbed capillary flow in AD and suggest that DSC-MRI may provide imaging biomarkers of disturbed cerebral microcirculation in AD.

Résumé : Dans cet exposé on présentera différentes approches pour la synthèse par l'exemple de textures gaussiennes. Une texture gaussienne est une image qui correspond à la réalisation d'un champ gaussien. Bien que ce modèle soit par nature limité (notamment au niveau de l'absence de contours des images), il est valable pour de nombreuses textures naturelles (bois, pierre, nuages, etc.). Dans le cadre de la synthèse d'images numériques de taille finie, on détaillera deux algorithmes basés sur la transformée de Fourier discrète, à savoir les modèles Asymptotic Discrete Spot Noise (ADSN) et Random Phase Noise (RPN). De nombreuses expériences numériques montreront l'intérêt de ces approches. On présentera ensuite un algorithme calculant un "texton orienté synthèse" permettant la synthèse rapide et parallèle d'un modèle gaussien approché défini sur le plan discret par un simple spot noise discret. Enfin on discutera de la synthèse de textures gaussiennes dans un cadre propre au computer graphics, à savoir la synthèse de bruits procéduraux. Les bruits procéduraux sont un outil fondamental en computer graphics pour la génération de textures dans des environnements virtuels. Cependant le design de textures réalistes à l'aide de bruits procéduraux est difficile. On présentera une méthode de synthèse d'un bruit procédural permettant de reproduire visuellement la version gaussienne d'une image de texture donnée en entrée. Les bruits procéduraux utilisés sont de type "Gabor noise", c'est-à-dire qu'ils sont définis comme des shot noise de noyaux de Gabor. On discutera de l'estimation des paramètres de ce modèle reposant sur un problème d'optimisation convexe de type "basis pursuit denoising" ainsi que de l'algorithme parallèle d'évaluation à la volée des textures procédurales obtenues.
 
Références :
Random Phase Textures: Theory and Synthesis, B. Galerne, Y. Gousseau and J.-M. Morel, IEEE Transactions on Image Processing, 2011
Micro-Texture Synthesis by Phase Randomization, B. Galerne, Y. Gousseau and J.-M. Morel, IPOL: Image Processing On Line, 2011 http://www.ipol.im/pub/algo/ggm_random_phase_texture_synthesis/
Gabor Noise by Example, B. Galerne, A. Lagae, S. Lefebvre, and G. Drettakis, ACM TOG 31(4) (Proceedings of ACM SIGGRAPH 2012), 2012 http://graphics.cs.kuleuven.be/publications/GLLD12GNBE/
A Texton for Fast and Flexible Gaussian Texture Synthesis, B. Galerne, A. Leclaire and L. Moisan, proceedings of EUSIPCO 2014, 2014 http://www.math-info.univ-paris5.fr/~aleclair/sot/

Abstract: In recent years, the Propositional Satisfiability Problem (SAT) has become standard for encoding real world complex constrained problems. It has significant impacts on some research fields in the Artificial Intelligence (AI) and Constraint Programming (CP) communities. Many practical applications in industries such as electronic design automation, default reasoning, diagnosis, planning, scheduling, image interpretation, circuit design, hardware and software verification have been successfully solved using SAT solutions. Generally, the most common format to represent a SAT formula is using the Conjunctive Normal Form (CNF). A CNF formula is a conjunction of clauses where each clause is a disjunction of boolean variables. A SAT formula is satisfiable if there is a truth assignment for each variable that satisfies all clauses in the formula. Solving a SAT problem is to determine whether a truth assignment satisfies a CNF formula. SAT is the first problem proved to be NP-complete [17]. There are many algorithmic methodologies to solve SAT including systematic search and stochastic local search (SLS). Systematic search is usually referred to as complete search or backtrack-style search. SLS is another popular and successful approach to solve constraint-based combinatorial problems such as SAT. This method explore the search space by randomisation and perturbation operations. Although, SLS is an incomplete search method, it is able to find the solutions effectively within limited time and resources. Moreover, some SLS solvers can solve hard SAT problems in a few minutes, which is beyond the capacity of systematic search solvers. Due to the widespread demands for efficient SLS for SAT (SLS-SAT) and many large-scale problems encoded successfully into SAT, methods to boost the performance of the SLS-SAT solvers are highly desired. Though SLS-SAT have been rigorously investigated in the recent decades, there are still various open issues that can be addressed to further boost the performance of SLS-SAT such as improving diversification phases to widely explore the search space, improving the intensification to find solutions faster, escaping local minima intelligently and controlling the diversification and intensification during the search. All these problems require trade-off between intensification and diversification. In this dissertation, we developed and proposed novel strategies to enhance SLS performance in both exploitation and exploration phases. We aimed to verify empirically the efficiency and robustness of our proposed strategies on structure and random instances. Since local search and systematic search have different effects and impacts on solving structure and random instances, optimal settings of enhancement strategies are trained separately on different instance sets. The outcomes showed that different optimal parameters of enhancement strategy reveal us setting regulation accordingly to the type of instances. Our four strategies to improve performance of SLS for SAT are listed below: - Learning strategies on variables involved in stagnation situation to efficiently prevent local search falling into traps. - Exploiting clause weights in clause selection at stagnation phases is useful for SLS to escape local minima. - Decreasing greediness in regard of scoring function in exploitation phases boosts SLS to reach solutions faster especially in structure instances. - Backtracking from local minima to identify and reverse pseudo-conflict variables is an alternative method to escape local minima. All of these enhancement strategies are tested on verification benchmarks, SAT 2011 and 2012 competition datasets. Our experimental results proved the novelty, robustness and efficiency of the proposed strategies on the wide range of instance sets. The results demonstrate that our proposed enhancement strategies have achieved significant improvements on structure and random instances. In addition, the difference effects of the enhancement strategies on structure and random instances are investigated and reported in this dissertation.

Résumé : Dans ce séminaire, je présenterai mes travaux de thèse effectués au LTCI de Telecom Paristech. La super-résolution multi-image consiste à produire une image de haute résolution d'une scène à partir de plusieurs versions de basse résolution. Le problème inverse correspondant peut être mal posé, il faut alors avoir recours à un modèle de régularité sur le contenu de la scène pour espérer produire une image de haute résolution. Seulement, les erreurs de modèlisation limitent la performance de telles méthodes. En conséquence, il est important de déterminer les conditions dans lesquelles le problème est bien posé afin d'éviter de régulariser lorsque cela est possible, et ainsi maximiser la fidélité de la super-résolution. On se posera donc les questions suivantes : Pour des bruits d'énergie finie ou de type outlier, combien d'images permettent une bonne reconstruction ? Que peut-on attendre d'une régularisation lorsque le nombre d'images est insuffisant ? Pour répondre à ces questions, nous étudions les propriétés des méthodes variationnelles de super-résolution les plus usitées. Un calcul précis et local du conditionnement permettra de traiter le cas des bruits d'énergie finie. Un lien avec la théorie de la reconstruction parcimonieuse permettra d'étudier le cas des outliers.

Abstract: This talk is about a revolutionary camera concept called "flutter shutter". Flutter shutter cameras promised to increase the image quality when photographing moving objects. The talk gives a mathematical theory and formulas that answer the questions on these recent camera designs. (The theory is also proved to be valid for the "motion invariant photography": the only other competitor of the "flutter shutter".)

Résumé : Le problème de déconvolution consiste à retrouver un signal à partir uniquement de ses basses fréquences et d'un a priori sur le type de signal recherché. Introduites en Géophysique pour la reconstruction de signaux concentrés sur quelques pics, les techniques de déconvolution avec régularisation de type $\ell^1$ ont connu leur essor à la suite notamment des travaux de Donoho d'une part et Tibshirani d'autre part.
Alors que ces méthodes reposent typiquement sur l'utilisation de grilles discrètes, Candès et Fernandez-Granda ont récemment proposé un algorithme de déconvolution qui fournit une solution au problème défini sur un domaine continu. Le signal reconstruit n'est plus un vecteur de $\mathbb{R}^N$ mais une mesure qui peut s'écrire comme une somme de masses de Dirac.
Dans cet exposé, nous étudierons les propriétés de robustesse au bruit du problème continu, et nous montrerons comment ce problème, aux propriétés assez différentes de son équivalent discret, apporte une perspective nouvelle sur le comportement du problème discret utilisé couramment pour la résolution des problèmes inverses.

Abstract: The total variation (TV) functional is explored from a spectral perspective. A TV transform is proposed which can be interpreted as a spectral domain, where elementary TV features, like disks, approach impulses. A reconstruction formula from the spectral to the spatial domain is given, allowing the design of new filters. Relations to nonlinear eigenvalue problems, sparse signals and nonlocal-TV will be discussed. An example of a texture processing application will illustrate possible benefits of this new framework.

up

Contacts

IMB logo
LaBRI logo
LaBRI logo
Pierrick Coupé - pierrick (dot) coupe (at) labri (dot) fr
Bureau 376
LaBRI - UMR 5800
Université Bordeaux
351, cours de la Libération - F-33405 TALENCE cedex
FRANCE
+33 (0)5 40 00 35 38
 
Jean Pierre Da Costa - jean-pierre (dot) dacosta (at) ims-bordeaux (dot) fr
Bureau A31B-R2 b2-35
IMS - UMR 5218
Université Bordeaux
351, cours de la Libération - F-33405 TALENCE cedex
FRANCE
+33 (0)5 40 00 26 34
 
up

Last modified: Fri Aug 23 15:52:10 Europe/Berlin 2019