Atelier réunissant astrophysiciens et statisticiens
8-9 déc. 2011 Grenoble (France)

Thématiques invitées

Ce premier atelier s'articule autour de six thématiques choisies d’après notre connaissance des développements astrostatistiques en France. Bien entendu, ce choix n’est clairement pas exhaustif et toutes les participations sont encouragées.

Analyse Statistique des donnees cosmologiques
Fondamentale pour la cosmologie, la statistique y est sans doute la plus développée en astrophysique.
Les modèles d’Univers sont contraints par des méthodes bayésiennes, la détection de la non-gaussianité
dans les fluctuations primordiales de densité est essentielle pour tester la physique des premiers ins-
tants inaccessibles de l’Univers, ou la cartographie de la matière noire est effectuée à partir des lentilles
gravitationnelles dites faibles.

Data Mining, Réduction de dimensionnalité et Images hyperspectrales, hypercubes
Le flux gigantesque de données issues des observations astrophysiques modifie assez radicalement
la manière d’extraire l’information. Non seulement le nombre d’objets en catalogue est énorme, mais
surtout la qualité et la quantité d’informations obtenues sont à la fois précieuses pour la physique et un
défi pour la compréhension. Des approches statistiques et informatiques adaptées s’imposent désormais.

Classification multivariée
La classification en astrophysique repose encore presque exclusivement sur des méthodes assez tra-
ditionnelles basées sur quelques critères observationnels. Les analyses de partitionnements multivariées
commencent à peine à être utilisées mais nous sommes encore loin d’une classification générale d’objets
complexes comme les galaxies. Un facteur incontournable de l’astrophysique est l’évolution, de sorte que
la systématique phylogénétique et la bioinformatique proposent des approches qui s’avèrent fructueuses.

Analyse spectrale et Séries temporelles
L’extraction des caractéristiques pertinentes dans un spectre couvrant les ondes les plus courtes
(gamma, X) jusqu’aux ondes radio (centimétriques, métriques), avec des résolutions de quelques mil-
liers dans les domaines visibles et infrarouges, demande là encore des méthodes statistiques. La variabi-
lité d’objets comme les étoiles ou de phénomènes comme l’influence d’une planète sur la vitesse radiale
d’une étoile, est un domaine où la statistique est depuis assez longtemps indispensable.

Parcimonie
Cette rubrique, sans doute encore peu développée en astrophysique mais prometteuse, regroupe les
représentations parcimonieuses (ondelettes, curvelets, etc), les problèmes inverses avec contrainte de
parcimonie (l0-l1 norm minimisation), le compressed sensing, etc.

Model-fitting
L’ajustement de modèles est une activité fondamentale en physique, et l’astrophysique conjugue la
nécessité de comprendre des phénomènes complexes avec des modélisations issues de lois physiques
analytiques. Par exemple, la cartographie extrêmement précise des étoiles de notre Galaxie nous permet
de reconstituer la structure galactique en trois dimensions grâce à des modèles cinématiques. Il est éga-
lement possible de tester de modifications de la gravitation newtionienne (MOND) ou cartographier la
distribution de la matière noire. De plus en plus cependant, les simulations numériques sont nécessaires
pour mener les modélisations à un niveau de complexité réaliste, de sorte que le l’ajustement de modèles
aujourd’hui devient une comparaison entre plusieurs populations, les unes issues des observations, les
autres des simulations.
Personnes connectées : 1