Le rôle important joué par les panaches descendants dans les simulations numériques m'a conduit avec T. Roudier (OMP-Bagnères) à examiner de plus près les observations de la surface solaire afin de détecter la signature de tels structures en particulier dans les observations de l'évolution de la granulation solaire; de fil en aiguille, cette recherche m'a amené à réexaminer en détail la façon dont étaient obtenus les champs de vitesse horizontaux à la surface du soleil car les statistiques de ces champs produisaient invariablement des gaussiennes ne laissant jamais paraître (de manière significative) la moindre signature de la turbulence, pourtant très forte, contrôlant la dynamique des granules. J'ai donc disséqué les algorithmes qu'utilisait T. Roudier (et avec lui, la communauté solaire américaine) pour voir comment était construit le champ de vitesse. Deux algorithmes étaient à disposition : la Local Correlation Tracking (LCT) de L. November et le Feature Tracking de L. Strous. La comparaison de ces algorithmes sur des données solaires dans la phase de préparation de la mission SOHO avait conduit Simon et al. (1995) a titré Warning: local correlation tracking may be dangerous to your (scientific) health, suite aux résultats très discordants qu'ils avaient obtenus.
Après un examen attentif de cette question (apparemment en suspens depuis 1995) et quelques tests sur des images artificielles, il m'est apparu que les algorithmes utilisés généraient des erreurs systématiques car ils ne contrôlaient pas la reconstruction du champ de vitesse en tant que fonction 7#7. En effet, les granules n'échantillonnent pas de manière régulière le champ de vue et donnent des points de mesure aléaoirement distribués. A partir de ces points, il faut reconstruire 8#8 en apportant le moins d'information possible, tâche délicate et escamotée par les algorithmes mentionnés ci-dessus. C'est de là que proviennent entre 20% et 30% d'erreurs systématiques voir beaucoup plus quand on considère les dérivées du champ (divergence ou rotationel). Ces résultats nous ont permis de suspecter que la mésogranulation ne soit en fait qu'un artefact dû aux algorithmes utilisés puisque sa détection se faisait essentiellement à travers les mesures de divergence. Tous ces résultats sont développés dans [19].
En fait le problème sous-jacent est un problème bien connu, mais délicat, du traitement du signal: comment, à partir d'un ensemble de données mesurées avec une certaine précision, retrouver un champ continu en ajoutant un minimum d'information et en contrôlant l'erreur commise ? Des solutions existent avec l'utilisation de bases d'ondelettes; avec l'aide de nos collègues du traitement du signal (S. Roques) nous allons mettre au point un algorithme où les erreurs systématiques seront contrôlées.