UFC
CNRS


Accueil > Activités > Séminaires > Probabilités et Statistique

Archives des séminaires 2018-2019

par Boubacar Maĩnassara Yacouba - publié le , mis à jour le

Le séminaire a lieu le lundi, à 11h, en salle 316 du bâtiment de Métrologie B. Vous trouverez ci-dessous le planning du séminaire de Probabilités-Statistique pour l’année universitaire en cours.

Contacts : yacouba.boubacar_mainassara univ-fcomte.fr ou romain.biard univ-fcomte.fr.

Exposés passés :

13 juin : Hemant Tyagi
(INRIA Lille)

SPONGE : A generalized eigenproblem for clustering signed networks

Abstract : We introduce a principled and theoretically sound spectral method for k-way clustering in signed graphs, where the affinity measure between nodes takes either positive or negative values. Our approach is motivated by social balance theory, where the task of clustering aims to decompose the network into disjoint groups, such that individuals within the same group are connected by as many positive edges as possible, while individuals from different groups are connected by as many negative edges as possible. Our algorithm relies on a generalized eigenproblem formulation inspired by recent work on constrained clustering. We provide theoretical guarantees for our approach in the setting of a signed stochastic block model, by leveraging tools from matrix perturbation theory and random matrix theory. An extensive set of numerical experiments on both synthetic and real data shows that our approach compares favorably with state-of-the-art methods for signed clustering, especially for large number of clusters and sparse measurement graphs.

17 juin : Sylia Chekkal
(Université de Béjaia - LMA)

Estimation du taux de défaillance par les noyaux Generalized Birnbaum-Saunders (GBS)

Abstract : Nous nous intéressons à l’estimation non paramétrique du taux de défaillance avec la méthode du noyau. Puisque le taux de défaillance est défini sur un support positif, nous utilisons un noyau asymétrique afin d’éliminer le problème d’effet de bord, qui engendre un biais de plus en plus élevé en se rapprochant du bord. A cet effet nous proposons d’utiliser le noyau GBS associé (Birnbaum-saunders généralisé). Nous déterminons les propriétés asymptotiques de l’estimateur proposé ainsi que le paramètre de lissage optimal. La performance de l’estimateur est étudiée par simulation des données suivants des lois de fiabilité telles que : lognormale, BS, Gamma.

6 mai : Ana Ferreira

An Extreme Value Analysis on Longevity of Humans

Abstract : There has been a long discussion on whether the distribution of human longevity has a finite or infinite right support. We shall discuss some recent results on Extreme Value Theory applied to Longevity of Humans. Some basic methods of EVT will be reviewed, where discussion will be oriented towards applications on human life-span data. It turns out that the quality of the actual data is a crucial issue. The results are based on data sets from the International Database on Longevity.

Joint work with Fei Huang (Australian National University).

13-14 Mai : Davit VARRON et Clément DOMBRY

Workshop on Empirical Processes and Applications to Statistics

15 Mai : Camelia GOGA

11èmes journées MAASC : Méthodes avancées pour l’analyse de sondages complexes

16-17 Mai : Yacouba BOUBACAR MAINASSARA et Clément DOMBRY

Workshop on Time Series and Extremes

4 février : Jean-Michel Floch

De la recherche minière à la statistique une introduction à la géostatistique

Abstract : La statistique spatiale comporte trois grands domaines, associés à différents types de données : les données surfaciques (la mesure est effectuée sur des aires), les données ponctuelles (c’est la localisation des observations qui est privilégiées) et les données continues (on observe un échantillon de données potentiellement mesurables en tout point de l’espace). Ces dernières sont qualifiées souvent de géostatistiques, en référence aux travaux menés à l’Ecole des Mines de Fontainebleau, sous la direction de G.Matheron. Le Géo de géostatistqiue fait référence à Géologie. C’est en effet pour résoudre des problèmes éminemment pratiques que cette discipline a pris son essor, et qu’elle a fourni des outils mathématiques permettant de construire des formes d’inférence à partir d’une seule réalisation. L’objectif de ces séquences du séminaire est de fournir une brève introduction à cette discipline, en la resituant dans l’ensemble des méthodes qualifiées de spatiales, en présentant quelques uns des outils les plus importants : variables régionalisées, fonctions aléatoires, stationnarité intrinsèque, analyse variographique, pour terminer par la méthode spécifique d’estimation qu’est le krigeage. Il s’agit donc d’un exposé introductif et non d’un travail de recherche.

4 février : Yves Mocquard
(IRISA, Université de Rennes 1)

Analyse probabiliste de protocoles de population

Abstract : Nous nous situons dans le contexte du modèle des protocoles de population. Ce modèle, introduit en 2004 par Angluin et al., fournit les bases théoriques pour analyser les propriétés émergeant d’un système constitué d’agents anonymes interagissant deux à deux.
Dans ce cadre, nous analysons en profondeur trois protocoles : le protocole de diffusion, de moyenne avec des entiers et le protocole d’horloge.
En ce qui concerne le protocole de diffusion, notre analyse fournit une expression précise et simple de la queue de distribution du temps de diffusion.
En ce qui concerne le protocole de moyenne avec des entiers, nous démontrons que le protocole converge en un temps parallèle de O(\log n) vers un état où la différence maximale entre deux valeurs est égale à 2. Ce résultat nous permet de prouver l’optimalité en espace et en temps de nos protocoles de proportion et de comptage.
En ce qui concerne le protocole d’horloge, nous explicitons les constantes des bornes.
Ensuite, nous construisons un protocole de proportion avec détection de convergence, qui utilise nos résultats sur la diffusion, la proportion et l’horloge. Nous montrons également que ce protocole de détection de convergence peut s’appliquer à tout protocole dont on connaît explicitement une borne du temps de convergence avec probabilité élevée.

3 décembre : Wei Jiang
(Centre de mathématiques appliquées, CMAP, École Polytechnique)

Adaptive Bayesian SLOPE — High-dimensional Model Selection with Missing Values

Abstract : Model selection with high-dimensional data becomes an important issue in the last two decades. With the presence of missing data, only a few methods are available to select a model, and their performances are limited. We propose a novel approach – Adaptive Bayesian SLOPE, as an extension of sorted l1 regularization but in Bayesian framework, to perform parameter estimation and variable selection simultaneously in high-dimensional setting. This methodology in particular aims at controlling the False Discovery Rate (FDR). Meanwhile, we tackle the problem of missing data with a stochastic approximation EM algorithm. The proposed methodology is further illustrated by comprehensive simulation studies, in terms of power, FDR and bias of estimation.

26 novembre : Alina Matei
(Institut de Statistique, Université de Neuchâtel, Suisse)

Quelques contributions à l’échantillonnage spatial

Abstract : L’échantillonnage spatial utilise habituellement une discrétisation de l’espace, conduisant à l’application de l’échantillonnage classique pour des populations finies. Ainsi, une population est définie comme un ensemble fini d’unités ou d’emplacements ayant des coordonnées géographiques associées. Dans la plupart des cas, les données sont autocorrélées dans l’espace et les sites proches ont tendance à fournir des informations similaires. Par conséquent, il est souhaitable d’obtenir des unités échantillonnées sur l’ensemble de la zone d’intérêt, en utilisant ce qu’on appelle un échantillon spatial équilibré. L’idée intuitive derrière ceci est d’échantillonner toute la zone d’intérêt afin d’obtenir une certaine représentativité spatiale.
Nous montrons des solutions pour coordonner des échantillons spatiaux équilibrés. La coordination des échantillons vise à créer une dépendance probabiliste entre la sélection de deux ou plusieurs échantillons tirés dans la même population ou à partir de populations qui se chevauchent. Il existe de nombreuses applications, avec des objectifs variables. Un exemple est la mise à jour d’un échantillon dans une enquête répétée dans le temps lorsque la population change, le but étant d’estimer une différence. Les domaines d’application sont très différents comme, par exemple, l’écologie (où l’on veut estimer le changement dans l’abondance des espèces), les inventaires forestiers nationaux (où l’on veut mesurer le changement de plusieurs
paramètres, comme le volume croissant des stocks pour différentes espèces d’arbres), etc. Nous illustrons nos méthodes avec un jeu des données sur l’abondance des espèces. C’est un travail conjoint avec Anton Grafström.

19 novembre : Charles Tillier
(Télécom ParisTech)

Semi-parametric transformation boundary regression models

Abstract : Boundary regression models naturally arise in many applications for instance when analysing auctions or records but also in production frontiers and image analysis. Before fitting a regression model it is very common to transform the response variable to gain efficiency in the statistical inference. In this talk, we will consider parametric transformations that induce independence of the error distribution from the points of measurements. In such a context, if the transformation of the response is monotone, the attractive feature is that one may recover the original functional dependence in an easy manner. The main purpose of this talk is to investigate the consistency of an estimator based on a minimum distance approach in the context of nonparametric regression models with one-sided errors. In particular, we estimate the transformation parameter and give mild model assumptions under which the estimator is consistent, for both random covariates and fixed design points. The small sample behavior will be shown in a simulation study using the so-called Yeo-Johnson transformations. Work with Natalie Neumeyer and Leonie Selk (University of Hamburg).

17 septembre : Youssef Esstafa
(LMB, Univ. Bourgogne Franche-Comté)

Tests d’adéquation de modèles FARIMA faibles

Abstract : Dans ce travail, nous considérons les tests portmanteau, aussi appelés tests d’autocorrélation, pour tester l’adéquation de modèles FARIMA (pour Fractionally AutoRegressive Integrated Moving-Average) avec innovations linéaires non corrélées mais non nécessairement indépendantes (i.e. FARIMA faibles). Dans un premier temps, nous étudions la distribution asymptotique jointe de l’estimateur des moindres carrés et des autocovariances empiriques du bruit. Ceci nous permet ensuite d’obtenir les distributions asymptotiques des autocovariances et autocorrélations résiduelles. Enfin, nous déduisons le comportement asymptotique des statistiques portmanteau modifiées de Ljung-Box (ou Box-Pierce) de modèles FARIMA faibles.