WORKSHOP

Computational methods for unifying multiple statistical analyses (Fusion)
Unification algorithmique d’analyses statistiques multiples

24 – 28 October 2022

INTRANET FOR ORGANIZERS

Scientific Committee 
Comité scientifique 

Rémi Bardenet (CNRS, ENS Paris-Saclay & Université de Lille)
David Dunson (Duke University)
Kerrie Mengersen (Queensland University of Technology)
Murray Pollock (University of Newcastle)
Christian Robert (Université Paris-Dauphine & University of Warwick)
Judith Rousseau (University of Oxford, UK)

Organizing Committee
Comité d’organisation

Rémi Bardenet (CNRS, ENS Paris-Saclay & Université de Lille)
Kerrie Mengersen (Queensland University of Technology)
Pierre Pudlo (Aix-Marseille Université)
Christian Robert (Université Paris-Dauphine & University of Warwick)

When considering the statistical analysis of realistic data models, the issue of inference on the parameters of interest of such models often face the difficulty of handling a multiplicity and variety of sources. This may be due to multiple experiments run under different conditions as, e.g., in astronomy or medicine (meta-analysis), or to confidentiality or privacy reasons that prohibit the simultaneous analysis of different datasets, or yet to the sheer size of the data, which makes a single processing of the entire sample impossible or extremely time-consuming. Such a surprisingly challenging problem arises in many settings (for instance, expert elicitation, multi-view learning, distributed ’big data’ problems, etc.), but at this date no general enough solution can befound. Monte Carlo solutions are either approximate (scalable MCMC, fusion MCMC, variational Bayes) or inapplicable to realistic settings.
   This workshop proposes to understand and compare existing solutions for unifying distributed and partial analyses and inferences on shared parameters from multiple sources, into a single coherent inference. We also look forward interactions between different communities, sensitivities, and expertises, to explore further possibilities in validating these methods, assess their practical impact and develop quantitative assessments of their error rate. There is considerable scope to tailor the theory to particular application settings (such as the big data setting), construct efficient parallelised schemes, understand the approximation and computational efficiencies of other such unification paradigms, and explore new theoretical and methodological directions

Lorsqu’on considère l’analyse statistique de modèles réalistes de données, l’inférence sur les paramètres d’intérêt de tels modèles se heurte souvent à la difficulté de traiter une multiplicité et une variété de sources de données. Cela peut être en raison de multiples expériences menées dans des conditions différentes comme, par exemple, en astronomie ou en médecine
(méta-analyse), ou à des raisons de confidentialité qui interdisent l’analyse simultanée de différents ensembles de données, ou encore à la taille des données. Ces possibles raisons rendent un traitement unique de l’ échantillon dans sa totalité impossible ou extrêmement long. Un tel problème est étonnamment difficile à régler et il se pose dans de nombreux contextes (par exemple, élicitation par des experts, multi-vues apprentissage, problèmes de “big data” distribués, etc.), mais à ce jour, aucune solution suffisamment générale n’a pu être trouvée. Les solutions de type Monte Carlo sont soit approximatives (MCMC évolutif, fusion, Bayes variationnel) ou inapplicables à des paramètres réalistes.
   Ce workshop propose de comprendre et de comparer les solutions exis-tantes pour unifier les analyses et inférences distribuées et partielles sur des paramètres partagés à partir de sources multiples, en une seule inférence cohérente. Nous espérons aussi beaucoup des interactions entre différentes communautés, comme celles proches du machine learning, différentes sensibilités et différentes expertises, pour explorer d’autres possibilités afin de valider ces méthodes, évaluer leurs pratiques impact et développer des évaluations quantitatives de leur taux d’erreur. Il y a en effet beaucoup de possibilités d’adapter la théorie à des applications particulières (comme le BigData), construire des schémas de parallélisation efficaces, comprendre le degré d’approximation et l’efficacité algorithmique d’autres paradigmes d’unification, et explorer de nouvelles directions théoriques et méthodologiques.

SPEAKERS 

Elena Bortolato (University of Padova)    Confidence distributions and fusion inference for intractable likelihoods
Trevor Campbell (University of British Columbia)     Ergodic variational flows
Chris Carmona (University of Oxford)      Generalised Bayes methods for Modular Bayesian evidence combination
Nicolas Chopin (ENSAE, Institut Polytechnique de Paris)     An introduction to Sequential Monte Carlo
Adrien Corenflos (Aalto University)    Auxiliary Kalman samplers for parallel inference in latent dynamical models
Kamélia Daudel (University of Oxford)     Challenges and opportunities in scalable Alpha-divergence
Daniele Durante (Bocconi University of Milan)     The role of skewed distributions in Bayesian inference: conjugacy, scalable approximations and asymptotics
Alain Durmus (ENS Paris-Saclay)     Boost your favorite MCMC: the Kick-Kac Teleportation algorithm
Florence Forbes (Inria Grenoble Rhône-Alpes)   An online Minorization-Maximization algorithm
David Frazier (University of Monash)     Guaranteed Robustness via Semi-Modular Posterior Inference
Mathieu Gerber (University of Bristol)      A Global Stochastic Optimization Particle Filter Algorithm
Robert Goudie (University of Cambridge)     Joining Bayesian submodels with Markov melding
Sebastiano Grazzi (University of Warwick)    Applications of PDMPs with boundaries
Pierre Jacob (ESSEC Business School, Paris)     Debiasing techniques for MCMC
Jack Jewson (Pompeu Fabra University)      On the Stability of General Bayesian Inference
Kengo Kamatani (ISM Tokyo)   Non-reversible guided Metropolis kernel
Manon Michel (CNRS Université Clermont-Auvergne)    Computational complexity reduction by factorization in MCMC
Lorenzo Pacchiardi (University of Oxford)   Sampling Likelihood-Free posteriors with Stochastic Gradient MCMC
Murray Pollock (Newcastle University)    Introduction to layered BM, and its uses and the BM package
Lionel Riou-Durand (University of Warwick)     Adaptive Tuning for Metropolis Adjusted Langevin Trajectories
Gareth Roberts (University of Warwick)     Bayesian Fusion
Leah South (Queensland University of Technology)      Post-Processing MCMC with Stein-Based Control Variates
Matthew Sutton (Queensland University of Technology)      Reversible jump PDMPs and Federated Learning
Dootika Vats (Indian Institute of Technology Kanpur)     Output Analysis for Parallel MCMC
Sinan Yıldırım (Sabancı University)     Statistic Selection and MCMC for Differentially Private Bayesian Estimation
Giacomo Zanella (Bocconi University)   Complexity of Gibbs Samplers through Bayesian Asymptotics

SPONSORS