Organizing Committee
Comité d'organisation
Rémi Bardenet (CNRS, Université de Lille)
Kerrie Mengersen (Queensland University of Technology)
Pierre Pudlo (Aix-Marseille Université)
Christian Robert (Université Paris-Dauphine)
Comité d'organisation
Rémi Bardenet (CNRS, Université de Lille)
Kerrie Mengersen (Queensland University of Technology)
Pierre Pudlo (Aix-Marseille Université)
Christian Robert (Université Paris-Dauphine)
IMPORTANT WARNING: Scam / Phishing / SMiShing ! Note that ill-intentioned people may be trying to contact some of participants by email or phone to get money and personal details, by pretending to be part of the staff of our conference center (CIRM). CIRM and the organizers will NEVER contact you by phone on this issue and will NEVER ask you to pay for accommodation/ board / possible registration fee in advance. Any due payment will be taken onsite at CIRM during your stay.
Description
When considering the statistical analysis of realistic data models, the issue of inference on the parameters of interest of such models often face the difficulty of handling a multiplicity and variety of sources. This may be due to multiple experiments run under different conditions as, e.g., in astronomy or medicine (meta-analysis), or to confidentiality or privacy reasons that prohibit the simultaneous analysis of different datasets, or yet to the sheer size of the data, which makes a single processing of the entire sample impossible or extremely time-consuming. Such a surprisingly challenging problem arises in many settings (for instance, expert elicitation, multi-view learning, distributed ’big data’ problems, etc.), but at this date no general enough solution can befound. Monte Carlo solutions are either approximate (scalable MCMC, fusion MCMC, variational Bayes) or inapplicable to realistic settings.
This workshop proposes to understand and compare existing solutions for unifying distributed and partial analyses and inferences on shared parameters from multiple sources, into a single coherent inference. We also look forward interactions between different communities, sensitivities, and expertises, to explore further possibilities in validating these methods, assess their practical impact and develop quantitative assessments of their error rate. There is considerable scope to tailor the theory to particular application settings (such as the big data setting), construct efficient parallelised schemes, understand the approximation and computational efficiencies of other such unification paradigms, and explore new theoretical and methodological directions |
Lorsqu’on considère l’analyse statistique de modèles réalistes de données, l’inférence sur les paramètres d’intérêt de tels modèles se heurte souvent à la difficulté de traiter une multiplicité et une variété de sources de données. Cela peut être en raison de multiples expériences menées dans des condi-tions différentes comme, par exemple, en astronomie ou en médecine
(méta-analyse), ou à des raisons de confidentialité qui interdisent l’analyse simultanée de différents ensembles de données, ou encore à la taille des données. Ces possibles raisons rendent un traitement unique de l’ échantillon dans sa totalité impossible ou extrêmement long. Un tel problème est étonnamment difficile à régler et il se pose dans de nombreux contextes (par exemple, élicitation par des experts, multi-vues apprentissage, problèmes de “big data” distribués, etc.), mais à ce jour, aucune solution suffisamment générale n’a pu être trouvée. Les solutions de type Monte Carlo sont soit approximatives (MCMC évolutif, fusion, Bayes variationnel) ou inapplicables à des paramètres réalistes. Ce workshop propose de comprendre et de comparer les solutions exis-tantes pour unifier les analyses et inférences distribuées et partielles sur des paramètres partagés à partir de sources multiples, en une seule inférence cohérente. Nous espérons aussi beaucoup des interactions entre différentes communautés, comme celles proches du machine learning, différentes sensibilités et différentes expertises, pour explorer d’autres possibilités afin de valider ces méthodes, évaluer leurs pratiques impact et développer des évaluations quantitatives de leur taux d’erreur. Il y a en effet beaucoup de possibilités d’adapter la théorie à des applications particulières (comme le BigData), construire des schémas de parallélisation efficaces, comprendre le degré d’approximation et l’efficacité algorithmique d’autres paradigmes d’unification, et explorer de nouvelles directions théoriques et méthodologiques. |
Speakers
Applications:
Rob Goudie (University of Cambridge)
Louis Aslett (Durham University)
Sinan Yldrm (Sabanci University)
Alex Bucholz (Amazon, Berlin)
Sylvia Richardson (University of Cambridge)
Daniela De Angelis (Universirty of Cambridge)
Chris Holmes (University of Oxford)
Ruth King (University of Edinburgh)
Petra Kuhnert (CSIRO)
Edgar Santos-Fernandez (Queensland University of Technology)
Methodology / Theory:
Tamara Broderick (Massachusetts Institute of Technlogy)
Trevor Campbell (University of British Columbia)
Jim Berger (Duke University)
Honghsheng Dai (University of Essex)
Gareth Roberts (University of Warwick)
Deborshee Sen (Duke University)
Anthony Lee (University of Bristol)
Ryan Chan (Alan Turing Institute)
Martin Wainwright (University of California, Berkeley)
Lester Mackey (Stanford University)
Willie Neiswanger (Stanford University)
Pierre Jacob (Harvard University)
Michael Jordan (University of California, Berkeley)
Gary King (Harvard University)
Meimei Liu (Virginia Tech)
Alisa Kirichenko (University of Oxford)
Arnaud Doucet (University of Oxford)
Machine Learning:
Michael Jordan (University of California, Berkeley)
Marc Suchard (University of California, Los Angeles)
Max Welling (University of Amsterdam)
Lawrence Murray (Uber AI)
Yee WhyeTeh (University of Oxford)
Maxim Rabinovich (University of California, Berkeley)
Didier Prade (CNRS, Université de Toulouse)
Thierry Denoeux (Université de Technologie de Compiègne)
Applications:
Rob Goudie (University of Cambridge)
Louis Aslett (Durham University)
Sinan Yldrm (Sabanci University)
Alex Bucholz (Amazon, Berlin)
Sylvia Richardson (University of Cambridge)
Daniela De Angelis (Universirty of Cambridge)
Chris Holmes (University of Oxford)
Ruth King (University of Edinburgh)
Petra Kuhnert (CSIRO)
Edgar Santos-Fernandez (Queensland University of Technology)
Methodology / Theory:
Tamara Broderick (Massachusetts Institute of Technlogy)
Trevor Campbell (University of British Columbia)
Jim Berger (Duke University)
Honghsheng Dai (University of Essex)
Gareth Roberts (University of Warwick)
Deborshee Sen (Duke University)
Anthony Lee (University of Bristol)
Ryan Chan (Alan Turing Institute)
Martin Wainwright (University of California, Berkeley)
Lester Mackey (Stanford University)
Willie Neiswanger (Stanford University)
Pierre Jacob (Harvard University)
Michael Jordan (University of California, Berkeley)
Gary King (Harvard University)
Meimei Liu (Virginia Tech)
Alisa Kirichenko (University of Oxford)
Arnaud Doucet (University of Oxford)
Machine Learning:
Michael Jordan (University of California, Berkeley)
Marc Suchard (University of California, Los Angeles)
Max Welling (University of Amsterdam)
Lawrence Murray (Uber AI)
Yee WhyeTeh (University of Oxford)
Maxim Rabinovich (University of California, Berkeley)
Didier Prade (CNRS, Université de Toulouse)
Thierry Denoeux (Université de Technologie de Compiègne)
SPONSORS