Laboratoire de Mathématiques de Besançon - UMR 6623 CNRS
UFC
CNRS


Accueil > Activités > Séminaires > Probabilités et Statistique

Planning des séminaires 2016-2017

par Biard Romain - publié le , mis à jour le

Le séminaire a lieu le lundi, à 11h, en salle 316 du bâtiment de Métrologie B. Vous trouverez ci-dessous le planning du séminaire de Probabilités-Statistique pour l’année universitaire en cours.

Contacts : yacouba.boubacar_mainassara@univ-fcomte.fr ou romain.biard@univ-fcomte.fr.

Exposés à venir :

  • 12 juin : Smail Adjabi
    (Université de Béjaïa)
    Sur l’estimation non paramétrique par projection orthogonale.
Abstract : Il s’agit de présenter l’estimateur non paramétrique dans ce le cas unidimensionnel continu par la méthode des séries orthogonales
appelée aussi méthode par projection orthogonale de la fonction densité de probabilité, du mode d’une distribution et de la fonction
de répartition. Les propriétés statistiques à distance finie et asymptotiques ainsi que les vitesses de convergence de ces estimateurs
sont également présentées.
  • 22 mai : Rahma ABID
    (Université de Sfax)
    TBA.
Abstract : TBA.

Exposés passés :

Avril :

  • 13 avril : Juhyun Park
    (Department of Mathematics and Statistics, Lancaster University, U.K.) Estimation of functional sparsity in nonparametric varying coefficient models.

Abstract : Varying coefficient models are simple (concurrent) functional linear regression models for functional responses with many scalar or functional covariates. We study nonparametric estimation of coefficient functions for varying coefficient models in analysing longitudinal/functional data under a certain type of sparsity consideration. The problem of sparse estimation is well understood in the parametric setting as variable selection. Sparsity is the recurrent theme that could also encapsulate interpretability in the face of high dimensional regression. For nonparametric models, interpretability not only concerns the number of covariates involved but also the functional form of the estimates, and so the sparsity consideration is much more complex. To distinguish the types of sparsity in nonparametric models, we call the former global sparsity and the latter local sparsity, which constitute functional sparsity. Most existing methods focus on directly extending the framework of parametric sparsity for linear models to nonparametric function estimation to address one or the other, but not both. We develop a penalized estimation procedure that simultaneously addresses both types of sparsity in a unified framework. We establish asymptotic properties of estimation consistency and sparsistency of the proposed method. Our method is illustrated in simulation study and real data analysis, and is shown to outperform the existing methods in identifying both local sparsity and global sparsity.

This is a joint work with Catherine Tu and Haonan Wang from Colorado State University.

  • 10 avril : Min Wang
    (Laboratoire Paul Painlevé, Université Lille 1 ) Sur les lois stables généralisées et les lois stables libres.

Abstract : Les lois stables généralisées ont été introduites par Schneider (1987) comme solution d’une certaine équation intégro-différentielle et ont ensuite été étudiées par Pakes (2014). Je présenterai divers résultats sur ces lois liés à la divisibilité infinie et répondant aux questions ouvertes laissées par Pakes. Les lois stables libres ont été étudiées par Bercovici, Pata et Biane (2000) dans le contexte des matrices aléatoires. Nous présentons une analyse fine de ces lois, en insistant sur le cas de la demi-droite et les propriétés d’infinie-divisibilité classique via les convolutions Gamma généralisées.

Mars :

  • 27 mars : Hacène Djellout
    (Laboratoire de Mathématiques, Université Blaise Pascal - Clermont II ) Estimation of the realized (co-)volatility vector : Large deviations approach

Abstract : Realized statistics based on high frequency returns have become very popular in financial economics.In recent years, different non-parametric
estimators of the variation of a log-price process have appeared. Among them are the realized quadratic (co-)variation which is perhaps the most well known example, providing a consistent estimator of the integrated (co-)volatility when the logarithmic price process is continuous. In this paper, we propose to study the large deviation
properties of realized (co-)volatility. Our main motivation is to improve upon the existing limit theorems such as the weak law of large numbers or the central limit theorem which have been proved in different contexts. Our large deviations results can be used to evaluate and approximate tail probabilities of realized (co-)volatility. As an application we provide the large deviations for the standard dependence measures between the two assets returns such as the realized regression coefficients or the
realized correlation. Our study should contribute to the recent trend of research
on the (co-)variance estimation problems, which are quite often discussed in high-frequency financial data analysis.

  • 20 mars : Lise Bellanger
    (Laboratoire de Mathématiques Jean Leray, Université de Nantes) Exploration Statistique en santé : Un test d’association génétique pour la détection de regroupements de variants rares liés à une pathologie.

Abstract : Dans cette présentation, je commencerai par dresser un panorama des problématiques sur lesquelles je travaille dans les domaines de l’environnement & l’écologie, la santé et l’archéologie. Puis, je présenterai mes travaux en cours dans le domaine de la santé et leurs perspectives. Les études d’association génétiques de type cas-témoins visent à tester l’association entre un (des) variant(s) génétique(s) et une maladie donnée. Les études d’association génome-entier ont permis l’identification de nombreux variants fréquents impliqués dans des pathologies complexes. Cependant ceux-ci n’expliquent qu’une faible part de l’héritabilité des maladies. Il est depuis peu possible, grâce au développement des technologies de séquençage de nouvelle génération, d’étudier les variants rares susceptibles de présenter des effets plus forts que ceux détecter à partir des variants fréquents. C’est pourquoi ce domaine de recherche est en plein essor. Les tests statistiques adaptés aux variants rares présentent de nouveaux défis par rapport à ceux construits pour l’analyse des variantes fréquents, car les variants rares doivent être testés par groupes pour conserver une bonne puissance. De nombreux tests d’association ont déjà été développés ; mais aucun n’est uniformément plus puissant. De plus, peu d’entre eux intègrent l’information sur les positions génétiques. Or il a été montré que des mutations peuvent êtres concentrées dans des domaines fonctionnels des gènes. Le test par permutations développé, DoEstRare, permet d’explorer et d’identifier des regroupements de mutations rares pathogènes sur un gène donné. Il compare à la fois la densité des mutations et la fréquence moyenne des mutations entre les cas et les témoins. Une comparaison avec les tests existants, par simulations et sur des données réelles, a été menée pour s’assurer des bonnes propriétés du test construit. Ces travaux sont le fruit d’une collaboration avec différents organismes dont l’institut du thorax (Inserm UMR 1087 / CNRS UMR 6291, CHU de Nantes) au travers le projet région VACARME et la thèse d’Elodie Persyn que je co-encadre.

  • 15 mars : Subrata Chakraborty
    (Dibrugarh University, India) A New Generalization of Geometric Distribution : its Properties and Applications.

Abstract : TBA.

  • 13 mars : Aline Moufleh
    (Laboratoire de Mathématiques de Besançon, Université de Franche-Comté) Détection de la tendance en extrême héteroscédastique.

Abstract : La théorie des valeurs extrêmes univariée classique étudie la queue de la distribution d’une série d’observations indépendamment et identiquement distribuées. Dans notre travail, on s’intéresse au cas où les observations sont indépendantes mais non identiquement distribuées. Cette variation dans la distribution est quantifiée en utilisant une fonction dite ‘’Skedasis function’’ qui représente la fréquence des extrêmes. On présentera plusieurs modèles paramétriques de cette fonction (log-linéaire, linéaire, log-linéaire discret) ainsi que les résultats de consistance et de normalité asymptotique du paramètre représentant la tendance. Enfin, on vérifiera les résultats par une simulation.

  • 13 mars : Pascal Moyal
    (Laboratoire de Mathématiques Appliquées de Compiègne, Université de Technologie de Compiègne) Stabilité du modèle d’appariement aléatoire général.

Abstract : Nous considérons un modèle d’appariement d’entités générées aléatoirement, pour lequel les paires possibles sont fixées par un graphe de compatibilité. Ce modèle généralise celui d’appariement biparti de Kaldentey, Kaplan et Weiss à un graphe non-nécessairement biparti. La stabilité du système est étudiée suivant les propriétés topologiques du graphes d’appariement. Nous proposons une classe de graphes pour lesquels la zone de stabilité ne dépend pas de la politique d’appariement choisie (i.e. l’ordre de priorité en cas de choix multiple), et une réciproque partielle. En outre, nous montrons sous certaines conditions l’existence d’une forme produit particulière pour sa représentation Markovienne. Des connexions de ces résultats avec la théorie classique d’appariement dans les graphes (et dans les grands graphes aléatoires) seront aussi proposées. (travaux joints avec Jean Mairesse, Ana Busic et Ohad Perry).

Février :

  • 13 février : Sylvain Rubenthaler
    (Laboratoire J. A. Dieudonné, Université Nice Sophia Antipolis) Stabilité du filtre optimal en temps continu (au-delà du filtre de Bene\vs)

Abstract : Nous nous intéressons au filtre optimal dans un cas où les observations ont lieu en temps continu. Nous aimerions montrer que le filtre est stable par rapport à sa condition initiale. Dans un premier temps, nous réduisons le problème à un problème en temps discret. Puis nous appliquons des techniques de troncation (comme dans Oudjane & Rubenthaler (2005)). La nature des observations fait qu’il faut aussi utiliser de nouvelles techniques. À la fin, le taux d’oubli est exponentiel et le résultat pourra être réutilisé pour estimer l’erreur dans le cas d’une approximation numérique.

  • 6 février : Pierre-Yves LOUIS
    (Laboratoire de Mathématiques et Applications , Université de Poitiers) Systèmes de processus de renforcement en interaction champ moyen

Abstract : Nous nous intéressons à des systèmes de processus où l’interaction est de type champ moyen à travers un mécanisme de renforcement. Différents régimes de renforcement sont considérés. Un phénomène de synchronisation vers une limite commune en temps, aléatoire ou déterministe, est démontré. Nous étudions également les fluctuations et établissons des théorèmes centraux limite fonctionnels. Cet exposé se fonde principalement sur des travaux en collaboration avec I. Crimaldi, P. Dai Pra et I. Minelli (arXiv 1602.06217v2).

Janvier :

  • 30 janvier : Pierre Étoré
    (Grenoble INP) Equations Différentielles Stochastiques unidimensionnelles inhomogènes en temps faisant intervenir le temps local du processus inconnu, et opérateurs paraboliques associés

Abstract : Dans ce travail on cherche tout d’abord à étendre les résultats de J.F. Le Gall (1984) sur les Equations Différentielles Stochastiques avec Temps Local (EDSTL), au cas où tous les coefficients qui apparaissent dans l’EDSTL dépendent du temps. Nous obtenons des résultats d’existence et d’unicité pour les solutions de l’EDSTL dans ce contexte inhomogène en temps. Dans un second temps nous nous penchons sur la question des opérateurs paraboliques naturellement associés au processus $X$ solution de l’EDSTL étudiée. Nous prouvons une formule de Feynman-Kac liant $X$ et la solution $u(t,x)$ d’un problème d’EDP parabolique avec condition de transmission. En fait nous devons prouver nous-même l’existence d’une telle solution $u(t,x)$. En effet le résultat n’est pas fourni directement par le papier fondateur du O.A. Ladyzhenskaya et al. (1966), où ce type de problème est étudié sous une forme purement divergence. Enfin on cherche à identifier le générateur du processus de Feller constitué par le processus temps-espace associé à $X$. Les extensions possibles et les aspects simulation sont brièvement discutés en fin d’exposé. Ceci est un travail en commun avec Miguel Martinez de l’Université Marne-la-Vallé-Paris-Est.

  • 23 janvier : Salim BOUZEBDA
    (Université de Technologie Compiègne) On the Strong Approximation of the Empirical Copula Processes and the multivariate P-P Plot Processes.

Abstract : A venir

  • 16 janvier : Amanda Fernandez-Fontelo
    (Departament de Matemàtiques, Universitat Autònoma de Barcelona, Bellaterra, Spain) New models for time series of counts applied to real-data issues

Abstract : Since the introduction of the Integer-Valued AutoRegressive (INAR) models by McKenzie (1985a), many works on developing or generalizing these models have been presented in the literature during the past years. For instance, while some authors have proposed new versions of the classical INAR model manipulating the distribution of the innovations (Jazi et al., 2012a and Jazi et al., 2012b), others have been more innovative considering random parameters (Zheng et al., 2007) or introducing new thinning operators (Weiß, 2008). In this talk different advanced works dealing with extensions of these models are discussed. On the one hand, the so-called HINAR model is presented being an INAR model which assumes time-varying parameters considering patterns of trend and/or seasonalities, and also the innovations distributed as a Hermite of order 2. Its most important properties and different ways of forecasting are also commented. Finally, the most remarkable results of the application are presented. The HINAR model is used in a project destined to build a syndromic surveillance system based on the mortality registered at cattle farm level in different Spanish regions. In fact, these mortalities are taken through the number of recorded died cattle bodies (carcasses) per week which constitutes an official and mandatory data to be registered by the corresponding insurances. Some of these time series are properly modelled by the HINAR processes since they have low values with many zeroes. Further details about this work can be found in Fernández-Fontelo, et al. (2016b). On the other hand, the talk is also focused on a new model of time series of counts able to adapt and quantify the phenomenon of under-reported data. The literature is plenty of works dealing with under-reported information since it appears in many research fields such as economy, epidemiology, public health …. Accordingly, we propose a model based on the INAR(1) process which takes into account the under-reportation of the data through its frequency ($\omega$) and intensity ($q$). In particular, the way we allow the process to be under-reported is by considering an underlying process called $X_t$ which follows an INAR(1) structure, and also an observed process called $Y_t$ which can be under-reported in the sense that $Y_t=X_t$ with probability $1-\omega$ or $Y_t=q\circ X_t$ with probability $\omega$. Two different methods for estimating parameters are introduced : the first one is a naïve method based on the auto-correlation function of the observed process $Y_t$, while the second one is the maximum likelihood method computing the likelihood function of the model by means of the forward probabilities. Besides, the Viterbi algorithm is used to reconstruct the hidden process, and the model are validated through their residuals and the normal-pseudo-residual segments (Zucchini, W. and MacDonald, I.L., 2009). The model is applied to different examples of epidemiology which are severely under-reported. More details about this work can be found in Fernández-Fontelo et al. (2016a).

  • 9 janvier : Yousri SLAOUI
    (Laboratoire de Mathématiques et Applications de Poitiers, Université de Poitiers-Futuroscope) Sélection de paramètre de lissage des estimateurs récursifs, problème de déconvolution, censure des données, grandes déviations et déviations modérées

Abstract : Dans le cadre des big-data, nous sommes très souvent amenés à traiter un ensemble volumineux de données. Dans la première partie, nous utilisons des algorithmes stochastiques, afin de construire des estimateurs récursifs. L’intérêt majeur de ces approches récursives est qu’elles permettent une mise à jour rapide des estimateurs lorsque les données sont observées de manière séquentielle sans être obligé de stoker en mémoire toutes les observations passées. Dans la deuxième partie, nous proposons une automatisation du paramètre de lissage en utilisant la méthode d’injection qui consiste à utiliser un critère de type erreur quadratique et de proposer par la suite des estimateurs non paramétrique des quantités inconnues. Dans la troisième partie, nous considérons le problème de déconvolution, ainsi, nous proposons des estimateurs récursifs dans un cadre général avant de considérer des cas particuliers d’erreurs afin de pouvoir automatiser le paramètre de lissage. Dans la quatrième partie, nous établissons des principe de grandes déviations et des principes de déviations modérées pour certains estimateurs proposé précédemment. Dans la cinquième partie, nous proposons un algorithme Stochastique EM qui fait appel à un échantillonneur de Gibbs pour faire face au problème de la censure des données dans un modèle linéaire mixte. Dans la dernière partie, nous proposons un algorithme EM qui fait face aux génotypes manquants et aux erreurs de génotypage dans un cadre familial.

Décembre :

  • 6 décembre : Johann Cuenin
    (LMB, Université de Franche-Comté) Sur les modèles Tweedie multivariés

Abstract : Après avoir fait un rappel sur les généralités concernant les familles exponentielles naturelles et les lois Tweedie univariées qui en sont un exemple particulier, nous montrerons comment étendre ces lois au cas multivarié. Une première construction permettra de définir des vecteurs aléatoires Tweedie paramétrés pas un vecteur de moyenne et une matrice de dispersion. Nous montrerons que les corrélations entre les lois marginales peuvent être contrôlées et varient entre -1 et 1. Nous verrons aussi que ces vecteurs ont quelques propriétés communes avec les vecteurs gaussiens. Nous en donnerons une représentation matricielle qui permettra d’en simuler des observations. La seconde construction permettra d’introduire les modèles Tweedie multiples consititués d’une variable Tweedie dont l’observation sera la dispersion des autres marges, toutes de lois Tweedie elles aussi. Nous donnerons la variance généralisée de ces lois et montrerons que cette dernière peut-être estimée efficacement. Enfin, nous verrons que, modulo certaines restrictions, nous pourrons donner une caractérisation par la fonction de variance généralisée des familles exponentielles naturelles générées par ces lois.

  • 5 décembre : Julian Tugaut
    (Télécom Saint Etienne, Université Jean Monnet) Temps de sortie d’une diffusion auto-stabilisante

Abstract : Dans cet exposé, on présentera rapidement quelques résultats de la théorie de Freidlin et Wentzell puis on donnera une loi de type Kramers satisfaite par la diffusion de McKean-Vlasov lorsque le potentiel de confinement est uniformément strictement convexe. On présentera brièvement deux preuves précédentes de ce résultat avant de donner une troisième preuve plus simple, plus intuitive et moins technique.

Novembre :

  • 28 novembre : Emmanuel Lépinette
    (Ceremade, Paris-Dauphine University) Conditionnement d’ensembles aléatoires mesurables avec application en finance

Abstract : En présence de coûts de transactions mais aussi en présence d’un carnet d’ordre, comme observé dans la pratique, il est naturel de définir un modèle de marché financier de manière géométrique. Le concept fondamental est celui d’ensemble (aléatoire) de solvabilité intimement lié à la notion de valeur de liquidation. Motivé par des problèmes d’estimations de prix, de caractérisation d’absence d’opportunité d’arbitrage ou encore les mesures de risque multi-variées, on introduit et étudie différents types de conditionnement d’ensembles aléatoires, concepts qui apparaissent naturellement dans les modèles financiers géométriques.

  • 21 novembre : Johann Cuenin
    (LMB, Université de Franche-Comté) Sur les modèles Tweedie multivariés

Abstract : Après avoir fait un rappel sur les généralités concernant les familles exponentielles naturelles et les lois Tweedie univariées qui en sont un exemple particulier, nous montrerons comment étendre ces lois au cas multivarié. Une première construction permettra de définir des vecteurs aléatoires Tweedie paramétrés pas un vecteur de moyenne et une matrice de dispersion. Nous montrerons que les corrélations entre les lois marginales peuvent être contrôlées et varient entre -1 et 1. Nous verrons aussi que ces vecteurs ont quelques propriétés communes avec les vecteurs gaussiens. Nous en donnerons une représentation matricielle qui permettra d’en simuler des observations. La seconde construction permettra d’introduire les modèles Tweedie multiples consititués d’une variable Tweedie dont l’observation sera la dispersion des autres marges, toutes de lois Tweedie elles aussi. Nous donnerons la variance généralisée de ces lois et montrerons que cette dernière peut-être estimée efficacement. Enfin, nous verrons que, modulo certaines restrictions, nous pourrons donner une caractérisation par la fonction de variance généralisée des familles exponentielles naturelles générées par ces lois.

Octobre :

  • 3 octobre : Othman Kadmiri
    (LMB, Univ. Franche-Comté) Estimation des modèles GARCH multiparités asymétriques en puissance

Abstract : Nous étudions les propriétés asymptotiques du quasi-maximum de vraisemblance (QMV) des paramètres d’un modèle GARCH multivarié asymétrique en puissance, lorsque la puissance de la transformation est connue ou doit être estimée. Nous illustrons les résultats par simulations, puis sur des données réelles.

  • 24 octobre : Mitra FOULADIRAD
    (Institut Charles Delaunay, Université de Technologie Troyes) Processus stochastiques pour la fiabilité et maintenance

Abstract : A venir.

Septembre :

  • 5 septembre : Julyan Arbel
    (Bocconi University and Collegio Carlo Alberto) Bayesian nonparametric inference for discovery probabilities : credible intervals and large sample asymptotics

Abstract : Given a sample of size $n$ from a population of individuals belonging to different species with unknown proportions, a popular problem of practical interest consists in making inference on the probability $D_{n}(l)$ that the $(n+1)$-th draw coincides with a species with frequency $l$ in the sample, for any $l=0,1,\ldots,n$. This paper contributes to the methodology of Bayesian nonparametric inference for $D_{n}(l)$. Specifically, under the general framework of Gibbs-type priors we show how to derive credible intervals for a Bayesian nonparametric estimation of $D_{n}(l)$, and we investigate the large $n$ asymptotic behaviour of such an estimator. Of particular interest are special cases of our results obtained under the specification of the two parameter Poisson—Dirichlet prior and the normalized generalized Gamma prior, which are two of the most commonly used Gibbs-type priors. With respect to these two prior specifications, the proposed results are illustrated through a simulation study and a benchmark Expressed Sequence Tags dataset. To the best our knowledge, this illustration provides the first comparative study between the two parameter Poisson—Dirichlet prior and the normalized generalized Gamma prior in the context of Bayesian nonparemetric inference for $D_{n}(l)$

  • 12 septembre : Stéphane Chrétien
    (National Physical Laboratory, Londres) Placement de capteur dans les reseaux electriques et relaxation SDP

Abstract : Le problème de choix de placement de capteur dans les réseaux est un problème difficile car les observations sont quadratiques et la théorie classique du design of experiment n’est plus pertinente. Nous proposons une nouvelles approche basée sur la relaxation SDP du problème d’estimation et la théorie asymptotique de Self et Liang aboutissant a un problème de maximisation de la plus petite valeur propre conique d’une matrice paramatree.

  • 19 septembre : Célestin C. Kokonendji
    (LMB, Univ. Franche-Comté) Multivariate dispersion index for count models and data analyses

Abstract : The Fisher index of dispersion is very widely used to measure the departure of any univariate count distribution, from the equidispersed Poisson model. The multivariate approach has not been well defined and discussed in the literature so far. In this talk we propose an appropriate definition of multivariate Fisher index through the generalized dispersion index. Which is a scalar quantity, defined as a ratio of two quadratic forms of the mean vector and the covariance matrix. A relative extension for a given reference count distribution shows that the multivariate uncorrelated Poisson distribution is the natural reference for this measure. Other properties and illustrative examples will be provided. Examples of application on count datasets will be pointed out under several scenarios. It will be therefore shown that this index is a very good summary on the positive real scale of multivariate count dispersion measures. Some concluding remarks will be made, and including challenging problems. From a joint work with Pere Puig, University Autonoma of Barcelona.

  • 26 septembre : Clément Dombry
    (LMB, Univ. Franche-Comté) Full likelihood inference for multivariate extreme value distributions

Abstract : Full likelihood inference methods for max-stable distributions suffer from the curse of dimension since the number of terms in the full likelihood in dimension $d$ is equal to the Bell number $B_d$. For instance, $B_{10}\approx 1,16\, 105$ and $B_{20}\approx 5,17\, 10^{23}$. A direct maximisation of the likelihood is hence extremely challenging and one often uses pairwise or composite likelihood instead. The purpose of this talk is to present two on-going projects dealing with an EM approach for maximising the full likelihood and a Bayesian methodology. We introduce an additional random variable, called hitting scenario, defined as a random partition associated with the occurrence times of the maxima. Treating the hitting scenario as a missing observation, the completed likelihood becomes simpler and we can apply a EM strategy to maximise the full likelihood or a Monte-Carlo Markov Chain approach to estimate the posterior distribution. Preliminary numerical studies based on the logistic model will be presented during the talk. This talk is based on a joint work with M.Genton, R.Huser and M.Ribatet for the EM approach, S.Egenlke and M.Oesting for the Bayesian approach.

Agenda

  • Lundi 22 mai 11:00-12:00 - Rahma ABID - Université de Sfax, Tunisie

    Séminaire PS : TBA

    Résumé : TBA

    Lieu : Salle 316 - LMB - 16 route de gray, UFR ST


  • Lundi 12 juin 11:00-12:00 - Smail Adjabi - Université de Béjaïa

    Séminaire PS : Sur l’estimation non paramétrique par projection orthogonale

    Résumé : Il s’agit de présenter l’estimateur non paramétrique dans ce le cas unidimensionnel continu par la méthode des séries orthogonales appelée aussi méthode par projection orthogonale de la fonction densité de probabilité, du mode d’une distribution et de la fonction de répartition. Les propriétés statistiques à distance finie et asymptotiques ainsi que les vitesses de convergence de ces estimateurs
    sont également présentées.

    Lieu : Salle 316 - LMB


iCal