Colloque « Espace et éducation »

Acquérir des données spatiales : quels types de données et de capteurs en réponse à quels types de besoins ?

Michel Avignon, sous-directeur Charges utiles scientifiques et imagerie, Cnes

À ce jour, 5 000 satellites ont déjà été lancés. Parmi ceux encore en service aujourd'hui, une soixantaine est équipée d'une centaine de capteurs différents ; ces satellites sont entièrement dédiés à l'observation de la Terre. Ce nombre aura doublé, voire triplé, d'ici 2015 compte tenu de l'importance de l'observation de notre planète et des métamorphoses de son climat. Dans le même temps, d'autres satellites sont consacrés à l'astronomie, à l'étude du Soleil et du Système solaire. Tous réalisent l'une des deux grandes fonctions de l'activité spatiale qui est de collecter et d'analyser des signaux naturels pour augmenter notre connaissance de l'Univers et de la Terre, l'autre étant l'échange de signaux artificiels créés par l'homme, au service des télécommunications et de la navigation. Étant donné le thème général de la journée, développement durable et observation de la Terre, nous privilégierons volontairement les exemples dans le domaine de l'environnement terrestre, au détriment des satellites d'étude de l'Univers, hors la Terre. L'exposé porte sur le lien possible entre l'objectif (l'étude de la Terre, qualifiée ici de besoin) et la définition des objets spatiaux (du capteur au système de traitement des données).

Données spatiales

La télédétection : de l'observable à l'utilisateur

En caricaturant, on pourrait dire que les données spatiales n'existent pas. Elles ne sont que la rencontre de phénomènes à observer (les observables) et d'utilisateurs, via un satellite (l'observateur). C'est ce dernier qui collecte puis transmet ses observations qualifiées alors de données spatiales. Comme son nom l'indique, ce système de télédétection se pratique à distance. C'est pourquoi il requiert des vecteurs d'information intermédiaires. L'ensemble des observables considérés par le secteur spatial sont de même nature que les observables de notre quotidien.

Quelques observables à la portée de tous

L'observable le plus simple est le bleu du ciel ; on peut de plus repérer sa polarisation, en visant avec un polariseur à 90 degrés du Soleil. Couleur et polarisation s'expliquent par les lois physiques de la diffusion de Rayleigh, jointes à la connaissance du milieu diffusant. Un autre observable dans le même domaine est le rouge du soleil couchant. Il est provoqué par des particules microniques ou aérosols qui diffusent la lumière selon la loi de Mie. La présence de ces particules est due à des phénomènes géophysiques : l'éruption explosive du volcan Pinatubo en 1991 avait enrichi l'atmosphère en poussières, rendant exceptionnelle l'intensité des couchers de soleil pendant près de 2 ans. Cela nous conduit à penser que de tels phénomènes peuvent modifier le climat de la Terre, à l'instar de l'éruption volcanique qui a entraîné une période de refroidissement climatique en 1810.

La température du ciel nocturne peut aussi être considérée comme un observable. Le rapport entre la fraîcheur nocturne et la clarté du ciel - il fera plus froid par ciel clair - s'explique par les lois d'absorption du rayonnement infrarouge terrestre par la vapeur d'eau. Cet effet de serre rend notre planète habitable en régulant sa température.

L'état de surface d'une étendue d'eau (lac, mer), provoqué par l'interaction du vent avec la surface, nous renseigne sur l'activité des océans : vagues liées au vent soufflant sur la zone, houle due aux vents lointains…

Les informations relatives à l'observation des étoiles permettent, quant à elles, outre la connaissance astronomique, de mesurer et de comprendre comment la Terre tourne sur son axe. Les irrégularités de la rotation nous instruisent sur l'intérieur du globe terrestre.

Tous ces exemples reposent sur des observations à distance transmises par des vecteurs de l'information tel le rayonnement électromagnétique et, plus particulièrement, la lumière visible, la lumière infrarouge et les ondes radioélectriques.

Les vecteurs d'information

On les classe en quatre grandes familles : les champs de potentiel, les particules, les ondes gravitationnelles et les ondes électromagnétiques.

Les différents champs de potentiel
Le champ de gravitation et le champ magnétique qui décroissent rapidement, nous permettent d'accéder à des informations "proches", concernant l'intérieur des corps tels la Terre et les planètes.

Les particules
Les électrons, protons et ions créent des ceintures de radiation. Les rayons cosmiques sont constitués de particules très énergétiques. Récemment, une mission Genesis a récupéré des particules d'origine solaire. Les repérer nécessite une instrumentation particulière (certaines de ces particules, les neutrinos, traversent de très grandes quantités de matière, mais l'espace n'est pas adapté à leur observation).

Les ondes gravitationnelles
Vecteur le plus exotique, elles n'ont jamais été observées directement. Y parvenir nous permettrait d'accéder à des phénomènes extrêmement violents de l'Univers, tels les effondrements d'étoiles.

Les ondes électromagnétiques
C'est incontestablement le vecteur le plus utilisé. Si notre atmosphère ne laisse passer que les rayonnements visibles, infrarouges (partiellement) et radio, il existe aussi d'autres types d'ondes, telles les ondes gamma, X ou ultraviolettes qui seront observables depuis l'espace. Les ondes électromagnétiques se propagent à une vitesse très rapide, mais finie (300 000 km/s), et nous permettent ainsi de voyager dans le temps (c'est ainsi que nous connaissons les états antérieurs de l'Univers). Les ondes électromagnétiques sont une superposition d'ondes élémentaires, caractérisées par leur longueur d'onde, leur intensité et leur polarisation. On mesurera le spectre du rayonnement (répartition des intensités des ondes selon leur longueur d'onde), son état de polarisation et ses variations temporelles. Selon que l'on regarde le rayonnement naturel d'un objet ou le rayonnement renvoyé par cet objet que l'on a artificiellement éclairé, on parle d'instrumentation passive ou active.

Quelle est l'origine physique des rayonnements électromagnétiques ?
Le rayonnement thermique, ou rayonnement de corps noir, est un processus d'émission omniprésent. Selon la loi de Planck, le spectre du corps noir se caractérise uniquement par la température du corps émetteur. Il garde la même forme quelle que soit cette température, mais la longueur d'onde maximale émise varie selon la température du corps. Ainsi, un corps très chaud émettra un rayonnement avec une longueur d'onde maximale courte et énergétique (domaines gamma, X, UV), alors qu'un corps froid émettra surtout à basse longueur d'onde (infrarouge, submillimétrique).

Ce rayonnement théorique est différent du rayonnement réel des corps observés. Celui-ci est en réalité le produit du rayonnement de corps noir, par une quantité appelée émissivité. Celle-ci dépend de la longueur d'onde et est toujours inférieure ou égale à l'unité. Elle varie selon les propriétés physico-chimiques du corps, ainsi que selon son état de surface.

L'émissivité fournit de l'information sur les raies spectrales caractéristiques des corps émetteurs. Ces raies sont liées aux transitions énergétiques au sein de la matière, et on les interprète grâce à la mécanique quantique.


Luminance fonction de © Cnes.

Les informations obtenues seront variées : identification des composants d'un milieu donné, vitesse relative de l'objet émetteur via l'effet Doppler qui déplace les raies spectrales…Ainsi, les domaines d'application seront-ils universels : vitesse d'éloignement des galaxies, composition des étoiles, observation de la Terre…

Concernant ce dernier domaine, les progrès permis dans l'étude de l'atmosphère sont spectaculaires. Le spectre atmosphérique est très riche et trouve son origine dans les nombreuses espèces de molécules qui composent l'atmosphère. On cherche à mesurer à très haute résolution spectrale à la fois la lumière solaire réfléchie, et l'émission propre en infrarouge thermique de l'atmosphère. L'information acquise porte sur la vapeur d'eau atmosphérique, le gaz carbonique, l'ozone et tous les constituants minoritaires. Il en résulte une amélioration de la fiabilité de prévisions météorologiques, des connaissances sur l'évolution de l'effet de serre et du climat et, à terme, des possibilités de surveillance des pollutions.

Le point de vue spatial pour acquérir les données : les différentes orbites

Les orbites basses et héliosynchrones
Ces orbites, situées à quelques centaines de kilomètres de la Terre, permettent d'acquérir des données à haute résolution spatiale et radiométrique, mais de façon non permanente car le satellite défile sur la Terre. Des compromis sont effectués : satellite à faible champ de vue et à très haute résolution (au mètre près, voire mieux), mais les passages sur un point donné sont peu fréquents ; ou à l'inverse, satellite à grande fauchée (on appelle fauchée la largeur de l'image), à résolution moyenne, mais autorisant des passages fréquents sur une même zone.

L'orbite héliosynchrone est un cas particulier d'orbite basse : le plan de l'orbite tourne à la même vitesse que le mouvement apparent du Soleil autour de la Terre dans l'année ; il en résulte un éclairement identique au cours de l'année des zones observées.

L'orbite géostationnaire
Située beaucoup plus haut, à 36 000 kilomètres, elle permet aux satellites de tourner à la même vitesse que la Terre, dans sa rotation diurne, et ainsi de pouvoir étudier les phénomènes à variation rapide, essentiellement météorologiques. À terme, même les pollutions atmosphériques locales pourraient être accessibles.


Image végétation, résolution 1 km,
champ 2 000 km. © Cnes.

Les orbites aux points de Lagrange Soleil-Terre
En ces points situés à 1, 5 million de kilomètres de la Terre, les attractions de la Terre et du Soleil s'équilibrent. Les conditions d'environnement (thermique, lumière parasite) sont très calmes et favorables aux observations astronomiques les plus fines, mais le transfert orbital et les communications sont rendus plus difficiles par la distance.


Les besoins

Répondre à quels types de besoins ?

La notion de "besoin" est une notion ambiguë : qui le formule ? Jusqu'à quel niveau d'exigence ?

L'observation spatiale constitue un changement de méthode expérimentale. Elle est un outil très global, synthétique, mais plus difficile à étalonner ; c'est un bouleversement pour l'expérimentateur, qui s'éloigne ainsi de l'objet d'étude. D'où des résistances à l'origine : l'outil apporte des solutions à des questions non posées ! Ensuite, la situation s'inverse : les exigences de l'utilisateur deviennent trop fortes par rapport à la maturité des techniques. Les logiques de passage du besoin à la réalisation technique sont complexes.

Prenons un exemple relativement simple : l'astronomie. L'atmosphère occulte entièrement ou partiellement les émissions gamma, X, UV, infrarouges en provenance du ciel. Le besoin est donc d'abord de détecter la présence éventuelle de ces émissions : d'où la première génération de capteurs, simples détecteurs. Après la confirmation de la présence de ces émissions supposées, la deuxième génération de capteurs a pour mission de cartographier le ciel. Les générations ultérieures viseront à augmenter sensibilité et résolution des mesures.

La situation est bien plus complexe pour l'étude de l'environnement terrestre. Voici une formulation de haut niveau, exprimée par Gérard Mégie, directeur de l'Institut Pierre- Simon-Laplace et président du CNRS, qui est l'auteur d'un bel exemple de formulation de besoin dans son ouvrage Ozone, l'équilibre rompu, aux Presses du CNRS : "Pour avoir placé le système couplé atmosphère-océan-biosphère dans une position hors d'équilibre du fait de la croissance rapide de ses activités industrielles et agricoles, l'homme se trouve aujourd'hui obligé d'anticiper d'autant plus largement les conséquences de ses actes qu'il n'a pas pu ou su le faire dans le passé. Altération de la couche d'ozone, modifications climatiques dues à l'augmentation de l'effet de serre, augmentation des propriétés oxydantes et acides de la troposphère, sont les aspects principaux de ces problèmes d'environnement à l'échelle globale. Il faut maintenant essayer d'en évaluer les conséquences sur les équilibres de l'environnement terrestre, et par là même sur la forme de vie que nous connaissons aujourd'hui. Il s'agit de déterminer si l'équilibre actuel est stable ou instable…Dans le second cas, une seule question importe : savoir si l'homme fait ou non partie du nouvel équilibre que trouvera probablement, à l'échéance de plusieurs décennies ou de plusieurs siècles, l'environnement terrestre."

Comment décliner un besoin aussi vaste en termes scientifiques, puis techniques ?

Décliner le besoin : l'exemple de l'environnement terrestre

Le système Terre peut se décomposer en plusieurs compartiments : la terre solide (ou interne), les terres émergées, les océans, l'atmosphère, la biosphère et la cryosphère, en interaction entre eux et avec le Soleil.

L'équilibre du système se mesure selon différents bilans, reliés entre eux et qui régissent les échanges : bilan radiatif, cycles de l'eau et du carbone, chimie atmosphérique…

Premier exemple : le bilan radiatif
Le Soleil émet un flux de 342 watts par mètre au niveau de la terre. Une partie de ce rayonnement est directement réfléchie, une autre partie réchauffe la Terre qui réémet cette chaleur sous forme de rayonnement infrarouge : ainsi s'établit l'équilibre thermique de la Terre. Mais les termes réfléchis et réémis sont moins bien connus que le flux entrant : quel est le rôle des aérosols, qui à la fois renvoient la lumière solaire et la piègent par effet de serre ? Quel est le rôle des gaz à effet de serre, dont on sait que l'activité de l'homme modifie profondément la concentration ? Par ailleurs, comment s'effectue la redistribution de cette énergie sur la Terre, de l'équateur vers les pôles, par le biais des circulations atmosphérique et océanique ?

Ces questions sont d'importance. Depuis le début de l'ère industrielle, le gaz carbonique augmente l'effet de serre pour un équivalent de 2, 5 watts par mètre carré.
La connaissance des sources et des puits de carbone est au cœur de l'application du protocole de Kyoto. Songeons qu'un seul aller-retour Paris - New York par avion,
pour une personne, est équivalent pour l'augmentation de l'effet de serre, à 3 ans de consommation électrique d'un Français moyen ! Le méthane, lié aux rizières et aux bovins, a également sa part (méconnue) dans le réchauffement climatique.

Comment mesurer ce bilan radiatif ?

La première méthode, directe, est une mesure globale du flux entrant et sortant. C'est une réponse directe à la question posée, mais qui reste très délicate car elle dépend de l'étalonnage précis des capteurs et ce à long terme.

D'où la seconde méthode qui vient la compléter : une méthode analytique visant à la connaissance de tous les termes intervenant dans le bilan (contenu en aérosols, concentrations en gaz, etc.). On voit sur cet exemple que la multiplication des observables est indispensable à la bonne résolution du problème posé.

Deuxième exemple : la circulation océanique
L'océan mondial est d'une extrême importance pour notre climat, puisqu'il assure à lui seul la moitié du transport de chaleur de l'équateur vers les pôles. Le rôle des couplages océan-atmosphère dans la météorologie et le climat apparaît bien dans des phénomènes du type El Niño qui affectent tout le Pacifique sud.

La circulation océanique se modélise assez simplement, par les lois de l'équilibre géostrophique (semblables à celles qui régissent la circulation atmosphérique : les différences de pression atmosphériques mettent en mouvement les masses d'air, l'équilibre s'établit par le biais de la force de Coriolis due à la rotation terrestre). Ici, le rôle de la pression atmosphérique est joué par de petites différences de hauteur dans le niveau des mers, l'eau est mise en mouvement et c'est encore la force de Coriolis qui assure l'équilibre. Des variations de hauteur de quelques centimètres sur une zone d'une dizaine de kilomètres carrés représentent plusieurs gigatonnes d'eau. Il s'agira donc de mesurer ces hauteurs : pour cela, on mesurera la hauteur de la mer par rapport au satellite. La connaissance précise de la position du satellite par rapport à la Terre permettra ensuite de ramener cette hauteur à un référentiel terrestre, ce qui est indispensable pour effectuer le calcul des courants. On voit donc comment doit être constituée une charge utile de mesure de la circulation océanique :

  • un altimètre pour mesurer la distance niveau des mers - satellite ;
  • un ou plusieurs systèmes d'orbitographie précise pour déterminer la position du satellite ;
  • enfin, des instruments (il s'agit de radiomètres) pour déterminer des termes correctifs liés aux fluctuations des temps de propagation des ondes dans l'atmosphère.

Synthèse des mesures à effectuer

On illustrera cette réflexion sur ce qu'est le "besoin" et sa traduction en termes techniques par une liste, très incomplète, des mesures que les scientifiques demandent de réaliser :

  • pour l'atmosphère : la température selon l'altitude, la composition chimique avec concentration de tous les constituants, le contenu en aérosols, la vitesse des vents, la pression atmosphérique, le contenu en eau sous toutes ses formes (vapeur, nuages, précipitations) ;
  • pour l'océan : la hauteur dynamique, la température de surface, la salinité, la hauteur et le spectre des vagues, le vent de surface, la concentration des eaux de surface en phytoplanctons et sédiments ;
  • pour la cryosphère : étendue, âge et nature des glaces ;
  • pour la biosphère : humidité des sols, état de la végétation.

Comment intégrer et utiliser toutes les mesures possibles ?

Il faut d'abord documenter chaque type de bilan (radiatif, carbone, eau, ozone…) de la manière la plus précise possible, en multipliant les observables (voir la liste de mesures précédentes). Puis, il faut intégrer les mesures par des modèles de plus en plus globaux.

D'où l'enchaînement suivant :

  • premier niveau : mesures spatiales, étalonnages, mesures in situ ;
  • deuxième niveau : modèles spécifiques, tels circulation océanique, bilan radiatif, cycle de l'eau ;
  • troisième niveau : modèles climatiques globaux. C'est de ces modèles globaux que l'on tire les tendances à long terme et, espérons-le, les décisions humaines qui permettraient une rétroaction sur le fonctionnement du système Terre.

En conclusion, nous insisterons sur le triptyque essentiel : mesures spatiales - étalonnages et données in situ - modèles.

Les capteurs et les systèmes de traitement des données

Une chaîne instrumentale type

Les capteurs sont tous structurés de la même façon. Plusieurs fonctions s'enchaînent, de manière toujours identique (on peut comparer à un appareil photographique numérique).

La première fonction est la collecte et focalisation de l'énergie (l'optique de l'appareil photographique). Viennent ensuite le tri et l'organisation de l'énergie : formation d'une image ou d'un spectre selon la longueur d'onde. Ensuite a lieu la détection : transformation de la lumière en signal électrique (photodétecteur de l'appareil photo). Ce signal électrique est numérisé, comprimé, enregistré (mémoire de l'appareil). Il est enfin transmis au sol, par voie électromagnétique (de même les photos peuvent être transmises par téléphone).

Capteurs radiofréquences pour l'observation de la Terre et de l'environnement

Un radar fonctionne par l'envoi d'une impulsion radio qui rencontre une cible, le sol par exemple, et revient pour analyse temporelle fine dans l'instrument. Les longueurs d'onde radio étant des dizaines de milliers de fois plus grandes que les longueurs d'onde optique, les résolutions obtenues en radar seraient sans traitement des dizaines de milliers de fois plus mauvaises qu'en optique. Toute la difficulté va donc consister à imaginer des traitements pour améliorer les performances. Dans le "radar à synthèse d'ouverture", un traitement du signal utilisant les différences d'effet Doppler au sein du lobe de l'antenne du radar permet d'obtenir une haute résolution spatiale. L'antenne vise latéralement, par rapport à l'orbite du satellite. Elle intercepte la Terre sous un angle assez grand. Quand elle passe sur un point, ce même point est vu par le satellite à des instants différents, avec une vitesse relative, donc un effet Doppler différent. C'est par l'intermédiaire de calculs au sol que l'on pourra utiliser ces différences pour obtenir une bonne résolution. Dans le radar à synthèse d'ouverture utilisé en "mode interférométrique", on regarde les différences de phase entre deux images prises à des instants différents. On met ainsi en évidence des modifications très faibles dans le paysage, telles que celles induites par un tremblement de terre ou par l'activité volcanique. Les "radars pour l'environnement" sont des radars spécifiques permettant des mesures originales. Le diffusiomètre vent fournit vitesse et direction du vent sur les surfaces océaniques, par mesure des rides et petites vagues créées à la surface de l'eau par le vent. Il existe des radars pour la mesure de la pluie, des nuages.
Les "radars altimètres" donnent la hauteur de surfaces suffisamment régulières, telles les surfaces océaniques ou glaciaires. Les radiomètres sont des capteurs passifs, mesurant la température de brillance des scènes, c'est-à-dire la température de la scène multipliée par son émissivité. On en déduit des informations telles que la température, l'humidité des sols, la concentration et l'état de la végétation, la salinité de la mer, la vitesse du vent sur la mer, la couverture en glace et neige, et, pour l'atmosphère, des sondages atmosphériques.

Des capteurs d'un autre type : champ de gravité

Il est possible d'exploiter d'autres vecteurs d'information que les ondes électromagnétiques. Ainsi, le champ de gravité est significatif des hétérogénéités de répartition des masses dans la terre (ou dans tout corps céleste). Il se décompose en une somme infinie de fonctions (harmoniques sphériques). Les premiers termes sont sensibles aux anomalies de grande longueur d'onde (à l'échelle de la Terre : noyau interne, manteau). Les termes du degré élevé sont sensibles aux anomalies de courte longueur d'onde (montagnes sous-marines, hydrologie). Le géoïde (équipotentielle du champ de gravité, niveau 0 de référence pour les altitudes terrestres, qui correspondrait à une mer au repos) est indispensable à la connaissance de la circulation océanique générale.

Il n'y a pas de capteur spatial qui permette de mesurer directement le champ de gravité : ce sont les irrégularités dans le mouvement même du satellite qui permettent de le mesurer, le satellite devenant lui-même le capteur. Un satellite de géodésie est sur une orbite très basse, au plus près de la Terre ; il est également possible d'effectuer des mesures différentielles, plus sensibles, entre les positions de deux satellites très proches.

Des capteurs d'un nouveau type : capteurs répartis, vol en formation

La taille des coiffes des lanceurs étant limitée à environ 6 mètres de diamètre, il y a une limite à la résolution accessible par un capteur embarqué sur un seul satellite (résolution d'un capteur = l/d). Cette contrainte pose problème aux scientifiques souhaitant disposer d'une haute résolution, comme les astronomes. La solution est de répartir le capteur concerné sur plusieurs satellites avant de les positionner les uns par rapport aux autres et de mélanger les informations. On simule un capteur de taille équivalente à l'espacement des satellites. Les astronomes projettent ainsi d'obtenir des images des planètes extrasolaires. Pour l'observation de la Terre, une "roue interférométrique" permettrait de réaliser un radar à très haute résolution.

Le traitement des données

Les données collectées par le satellite sont transmises par télémesure à des stations de réception. À partir de là commence tout un cheminement de la donnée jusqu'à l'utilisateur. On peut discerner deux grandes phases dans ce cheminement.

Première phase
Elle reste très proche du satellite : elle se produit dans un "centre de prétraitement", spécifique de chaque satellite. Le niveau 0 pour la donnée correspond à la donnée brute reçue en station de réception, sans correction. Au niveau 1, la donnée est déspatialisée, c'est-à-dire corrigée des défauts dus au capteur et au satellite. Le niveau 2 correspond à une vraie signification physique : la donnée est radiométriquement étalonnée, par usage de données externes, et localisée précisément sur un repère terrestre ou une carte.

Deuxième phase
Elle se produit dans un "centre thématique" dans lequel ce n'est plus le satellite qui donne l'unité, mais la finalité visée, l'utilisateur. On appelle niveau 3 une donnée géophysique : là apparaît un vrai observable géophysique élémentaire, tel qu'il a été décrit au début de cette conférence. Au niveau 4, sont effectuées des moyennes temporelles et spatiales, en mélangeant éventuellement des données de plusieurs satellites (par exemple, des cartes mensuelles d'état de la mer, etc.). Scientifiques utilisateurs et services opérationnels interviendront plutôt à ces niveaux très élevés de traitement. Quelques exemples de centres thématiques : circulation océanique
(Mercator), aérosols (Icare), chimie atmosphérique (Éther), paramètres biophysiques des surfaces terrestres (Pastel).

L'effort entrepris fournit-il des résultats ?

Considérons deux exemples : l'ozone et l'effet de serre.

Le problème de l'ozone
La chimie de l'ozone repose sur une centaine d'équations chimiques différentes, ce qui suppose l'utilisation et l'interprétation d'un grand nombre de données et de capteurs. La démonstration de la réalité de la menace sur la couche d'ozone, illustrée de façon assez catastrophique par la découverte d'un trou au-dessus de l'Antarctique, a été telle qu'il a été possible de convaincre non seulement la communauté scientifique, mais aussi la communauté politique et économique. Le protocole de Montréal, signé en 1987, a été mis en œuvre. On constate aujourd'hui la stabilisation de la couche d'ozone et, partant, l'impact de ce protocole. Les mesures ont donc servi à initier des actions se concrétisant par des résultats positifs.

L'effet de serre
La situation sur l'effet de serre est plus complexe. Le problème comporte des incertitudes scientifiques importantes. En 1988, les Nations unies ont mis en place le groupe d'experts intergouvernemental sur l'évolution du climat, qui a fortement contribué à la prise de conscience du problème et à l'organisation des travaux, modélisations et campagnes de mesures in situ et spatiales. Ces travaux ont abouti en 1997 au protocole de Kyoto. Malheureusement, la prudence des scientifiques a été exploitée par des groupes de pression économique, tels ceux liés à l'industrie pétrolière, pour retarder l'application du protocole. Aujourd'hui, on observe une réduction très forte des incertitudes scientifiques : corrélation de la croissance du CO2 et de l'élévation de la température moyenne du globe, mesure effective de l'élévation du niveau moyen des mers liée au réchauffement, progrès dans les modèles climatiques, etc. La question est de savoir quel sera l'impact de ces résultats sur les décisions politiques.

Conclusion

L'espace a été présenté ici comme un moyen de connaissance de notre monde et de problèmes actuels, concernant l'habitabilité de notre Terre et l'avenir de l'humanité. L'outil spatial effectue des observations et des mesures que chacun peut relier à une expérience directe : des exemples simples, accessibles même dans une cour d'école, peuvent faire comprendre ce que voit le satellite. Et ces observations sont mises au service de questions au cœur de nos sociétés et de nos responsabilités de citoyens. Elles permettent une approche rationnelle et quantifiée de la problématique de l'environnement terrestre.

Cette approche s'oppose à celle de l'espace appréhendé par sa place dans l'imaginaire des hommes et des sociétés, davantage médiatisée et plutôt fondée sur l'esprit de conquête (conquête de "nouvelles frontières") et de compétition entre puissances : il ne s'agit pas de nier la légitimité de cette autre vision, simplement de montrer qu'elle n'épuise pas toute la réalité de l'aventure spatiale. La discipline privilégiée dans l'exposé a été la physique. Mais il est facile de voir que les exemples donnés peuvent concerner d'autres disciplines éducatives : économie, science de la Vie et de la Terre, géographie, philosophie des sciences, mathématiques…

Échanges avec la salle

De la salle : Vous avez parlé, au début de votre exposé, d'une distance limite de 300 000 années après le big-bang. Pourquoi ce nombre-là plutôt qu'un autre ?

Michel Avignon : Si l'on réalise un modèle de pigment, il est possible d'obtenir une échelle de temps à partir d'un événement singulier. Si l'on remonte dans le temps en extrapolant ainsi, on parvient à un instant zéro, avec une création de phénomènes nucléaires et une phase d'équilibre en matière de lumière. De la même façon, certains photons ne sortent du Soleil qu'au moment où ils en atteignent la surface. Cette phase opaque se termine, dans l'échelle théorique, à l'instant t + 300 000 ans.

De la salle : Le thème de la délocalisation est très présent dans l'actualité. C'est la raison pour laquelle il se produit une véritable recherche des secteurs dans lesquels l'Europe est en pointe et se développe. Où en est l'état de l'industrialisation des capteurs et du domaine spatial ?

Michel Avignon : Il s'agit d'un domaine dans lequel nous sommes en bonne position, dans la mesure où la plupart des capteurs qui vous ont été présentés sont le fruit d'une participation européenne, comme dans le cas des capteurs à très haute résolution optique. Nous sommes très en avance au niveau des détecteurs et la France héberge une entreprise spécialisée dans la fabrication de gigantesques miroirs nécessaires à l'observation spatiale. Nous maîtrisons aussi la stabilité des satellites
et les outils radar.


Actes du séminaire national - Les sciences de la vie et de la Terre au XXIème siècle : enjeux et implications 15 et 16 décembre 2004

Mis à jour le 15 avril 2011
Partager cet article
fermer suivant précédent