Lu pour vous

01 تموز/ يوليو 2008
شارك:

Calculs et pauses-café—L’histoire du CEPMMT

Le Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) a célébré son trentième anniversaire en 2005. Pour souligner l’événement, Austin Woods a été convié à en rédiger l’histoire. Il était parfaitement bien placé pour le faire. Entré dans cette institution en 1978, il y a assumé les fonctions de secrétaire du Conseil dès 1984. Rapporter des faits récents, même s’il s’agit de réussites, peut s’avérer délicat, voire embarrassant. Le tout premier Directeur du Centre, Aksel Wiin-Nielsen, pensait d’ailleurs qu’il fallait attendre que «les personnes concernées aient quitté ce monde». Woods n’a heureusement pas suivi ce conseil. Dans la préface, il précise que son livre n’est pas un historique officiel du Centre mais présente simplement ses propres réflexions et souvenirs à ce sujet.

L’idée d’une coopération européenne dans le domaine de la météorologie est venue, selon Woods, de l’École de Bergen, fondée par Vilhelm Bjerknes, dans les années 20. Carl-Gustaf Rossby, l’un de ses membres, faisait remarquer en 1951 que les relations entre les météorologistes du sud et de l’extrême nord de l’Europe étaient loin d’être aussi étroites qu’elles le devraient. Sa tentative de créer un centre européen n’a pas abouti mais un «institut météorologique international» a été ouvert plus tard à Stockholm. Lorsque l’idée sera reprise vers la fin des années 60, l’institut était considéré comme un modèle à suivre. À l’époque, les météorologistes d’Europe de l’Ouest qui désiraient travailler avec des collègues européens trouvaient plus simple de se rendre aux États-Unis ou en Union soviétique pour le faire. Le nouveau centre ne devait cependant pas être un établissement universitaire, ni un bureau de prévision météorologique.

Joe Smagorinsky et Kikuro Miyakoda, du Laboratoire de dynamique des fluides géophysiques (GFDL) de Princeton, ont généreusement offert leur modèle et logiciel au Centre. Cette aide concrète a été décisive. Lorsque Tony Hollingsworth s’est rendu au Laboratoire en 1975, Miyakoda lui a déclaré que ce projet était extrêmement important pour le GFDL, mais aussi pour la prévision numérique du temps. S’il réussissait, de nouvelles avenues s’ouvriraient pour la météorologie. S’il échouait, les progrès seraient beaucoup plus lents.

Au CEPMMT, les idées originales étaient acceptées, on les encourageait même, ce qui créait une atmosphère pleine d’énergie, de passion et de diversité, ce que Woods appelle une tension créative. Le restaurant du Centre a toujours joué un grand rôle dans l’innovation scientifique. Un chercheur bloqué dans son travail, envahi par la déception ou le découragement, pouvait en parler devant un café ou un déjeuner et, souvent, trouver de nouvelles idées ou d’autres façons de résoudre son problème. Les effectifs ont toujours été limités. De 150 au départ, ils s’établissaient à 230 en 2005 (incluant les consultants), dans le souci de préserver une ambiance décontractée, de stimuler l’enthousiasme et de favoriser les contacts entre les experts de pays différents.

Il est essentiel que la recherche ait des applications pratiques. Tous les éléments du système ont concouru à affiner les prévisions, mais souvent de façon isolée. La performance des modèles se dégradait parfois après avoir apporté une amélioration ailleurs, en raison d’erreurs de compensation. Les nouvelles versions étaient lancées sans savoir vraiment si elles seraient plus efficaces. Cette façon d’aller de l’avant suivait les préceptes de Fred Bushby, pour lequel un nouveau modèle ne devait pas rendre les prévisions moins bonnes, mais permettre d’éventuels progrès.

L’échange de chercheurs avec les États Membres a été déterminant, souligne Woods. L’emploi d’un modèle adjoint dans les analyses variationnelles à quatre dimensions, qui permet d’exploiter les données de luminance énergétique brutes, sans traitement, a été mis au point avec la France (même si l’idée en revient au scientifique russe Kontarev, pendant son séjour au CEPMMT en 1979-1980). La place centrale occupée aujourd’hui par le Centre en matière d’analyse est très éloignée des premières conceptions de certains États Membres, selon lesquels l’établissement ne devait pas établir son propre système mais rassembler les analyses quotidiennes provenant d’autres centres météorologiques !

On s’étonne d’apprendre que le CEPMMT n’a décidé qu’en 1986 d’entendre par «moyen terme» les prévisions allant au-delà de quelques jours, alors que les conditions initiales étaient encore «terriblement importantes». Cette définition était censée exclure les prévisions à échéance saisonnière, question controversée à l’époque dans certains milieux. On craignait de déroger à la notion de «fonction unique» du Centre. Quand les prévisions saisonnières ont débuté malgré tout en 1998, c’est en prétextant que les températures de la mer en surface étaient des «conditions initiales».

Certains anciens collègues du CEPMMT attendent encore que l’on publie l’histoire du Centre avec un grand H. Je leur suggère plutôt d’écrire leurs mémoires. Comme le déclare Anton Eliassen dans la préface, les personnes qui ont été associées à cette grande institution européenne en sont fières. Nous avons la chance que nombre d’entre elles soient encore de ce monde et l’ouvrage de Woods devrait les inciter à noter ou à enregistrer leurs propres souvenirs.

Anders Persson


back to top


Climate Change in Prehistory
The End of the Reign of Chaos

William J. Burroughs.
Cambridge University Press (2005).
ISBN 0-521-82409-5.
xii + 356 p.
Prix: 19,99£/30$ é.-U.

cover

Voici un livre qui immédiatement accroche le lecteur car bien achevé techniquement et avec des idées qui stimulent l’imagination. Sa lecture est aisée car il suit un plan chronologique:

  • Le climat des derniers 100 000 ans
  • La vie à l’âge de Glace
  • Les conséquences sur l’évolution de la vie de l’âge de Glace
  • La sortie de l’âge de Glace
  • Les enregistrements historiques
  • Notre héritage climatique
  • Le futur de l´humanité

Les parties à propos du changement climatique sont très bien faites car l’auteur fait montre de ses connaissances en climatologie. Il a bénéficié de liens forts avec les équipes scientifiques britanniques dont le Met Office et le Climatic Research Unit, largement impliquées dans ce thème du changement climatique, chaque jour plus important.

Toutefois, ce n’est pas encore un livre de plus sur un thème rabattu. L’auteur ouvre des perspectives intéressantes sur les relations entre hommes et animaux au temps de l’âge de Glace comme sur la quasi-disparition de l’humanité et ses conséquences lors de l’explosion du super volcan Toba il y a quelque 71 000 années. De plus, le livre accorde une large place aux avancées en biologie avec l’importance en préhistoire des études de l’ADN humain. De bonnes études de cas sont utilisées afin de montrer que des épisodes climatiques extrêmes peuvent être corrélés à l’émergence de nouvelles pandémies dans les «âges des Ténèbres» modernes comme lors de la peste bubonique de Justinien en 543 et de la peste noire de 1348.

En histoire des sciences, le livre met justement en avant le rôle de Louis Agassiz au XIXe siècle qui inventa le terme de l’âge de Glace et qui mena les études pionnières. Ensuite W. J. Burroughs met l’accent sur les avancées autorisées par les nouveaux indicateurs, comme les enregistrements du changement climatique dans les glaces des calottes depuis les années 50, sans négliger les spéléothèmes, les apports de la faune entomologique piégée entre autres dans l’ambre, du pollen et des archives sédimentaires, etc. Cette première partie de l’ouvrage «Le climat des derniers 100 000 ans» est excellente.

Les points faibles sont peu nombreux et ils concernent d’abord l’importance surévaluée du chamanisme dans la préhistoire qui ignore un fort courant actuel chez les archéologues qui refuse d’étendre le rôle des shamans au monde entier notamment dans l’art pariétal. Quelquefois, l’auteur donne le sentiment de synthétiser seulement l’interprétation dominante au tout début du XXIe siècle à savoir celle de Clottes et Lewis-Williams qui se développa après la découverte de la grotte Chauvet. Un autre point discutable et trop simpliste est l’interprétation que l’ensemble des changements politiques et sociétaux en Amérique du Sud durant l’Holocène ne soit causé pour l’essentiel qu’aux impacts des épisodes extrêmes de El Niño.

également, les dernières avancées à propos des Néandertaliens ne sont pas présentées ni anticipées car l´auteur part de l´hypothèse que c’était un être peu intelligent et incomparable avec H. sapiens. C’est surprenant, car l’homme de l’âge de Glace dans le livre de W. J. Burroughs s’est bien le Néandertalien qui vécut durant 65 % de la période des 100 000 dernières années et avec une aire de distribution qui s’est grandement étendue en Asie centrale et en Sibérie selon l’équipe internationale de Svante Pääbo.

Une des hypothèses les plus fécondes de l’auteur est qu’il a disparu vers 35 000 BP à cause de sa susceptibilité aux épidémies amenées par H. sapiens. Ce dernier, venant du sud et de l’est vers 40-45 000 BP, était issu du monde tropical (Afrique puis Asie) où le cortège des maladies est plus important qu’aux moyennes et hautes latitudes et, par conséquent, la possibilité chez H. sapiens du développement d’une meilleure immunité acquise. Il est à relever que W.J. Burroughs ne prend pas en considération les facteurs climatiques quant à l’extinction de H. neanderthalis mais qu’il admet aussi d’autres facteurs limitants dont sa supposée inhabilité à communiquer et parler et la faiblesse de son savoir-faire technique notamment dans l’industrie des silex. Cependant la colonisation de l’Europe par H. sapiens aurait été aidée par des conditions climatiques plus favorables vers 39 000 BP faisant suite à l’épisode de grandes froidures Heinrich 4.

De plus, la diversité génétique des Néandertaliens devrait être examinée avec des restes plus récents que ceux déjà fort anciens puisque datant de 100 000 ans qui furent étudiés par Orlando et al. Toutefois, l´hypothèse la plus admise est que leur effondrement démographique qui les conduisit à l’extinction serait lié à l’érosion de leur diversité génétique. Aujourd´hui, Krause et al. ne considèrent plus sérieusement leur impossibilité à communiquer et à parler comme un paradigme (voir les recherches sur le gène FOXP2 commun à tous les Homo).

Toutefois, récemment, d’autres chercheurs dirigés par Eugène Morin avancent qu’une cause majeure de la disparition des Néandertaliens fut leur métissage avec H. sapiens durant une longue période de détérioration du climat vers 40-35 000 BP enregistrée indirectement dans la grotte de Saint-Césaire en France. Il est à noter que c’est en contradiction avec l’absence de forçage climatique sur l´évolution humaine développée notamment par W. J. Burroughs. Pour sa part, Morin voit une phase de froidures extrêmes qui a eu des conséquences dramatiques sur la densité de faune connue par le dénombrement dans la grotte de Saint-Césaire des ossements des herbivores, tel le renne qui constituait la principale source de l’alimentation humaine. Une famine extrêmement longue aurait facilité le passage de H. neanderthalis à H. sapiens au début du Haut Paléolithique.

Quelques lecteurs devront se faire violence et accepter chez W. J. Burroughs son déterminisme climatique presque mécaniste. Ainsi la variation impressionnante du niveau de la Mer Noire à 8 000 BP serait la source du mythe du Déluge biblique partagé avec d’autres religions du Proche-Orient. Il est plus admissible que les civilisations égyptiennes aient fluctué au gré des périodes des hautes eaux et basses eaux du Nil. Il reste que la force des impulsions culturelles et donc religieuses est négligée dans l’ouvrage et le point de vue de l’auteur est bien souligné par le sous-titre du livre soit «La fin du règne du chaos».

W.J. Burroughs reprend ici un paradigme du XIXe siècle à savoir que l’urbanisation et l’agriculture sont les pierres miliaires du progrès des sociétés humaines à
l’Holocène marquant la rupture avec l’âge de Glace, lui pourtant si blanc, et néanmoins assimilé curieusement aux «âges des Ténèbres» de la préhistoire.

à l’inverse, la partie concernant le futur est plus convaincante. L’auteur réfute l’idée, largement diffusée au XXe siècle que la Nature puisse être dominée et contrôlée par les êtres humains avec leurs outils issus du progrès technique. Il est à relever que, malgré l’accent mis sur le réchauffement actuel causé par les activités humaines, W. J. Burroughs ne néglige pas des périodes critiques du dernier millénaire comme l’Optimum Climatique Médiéval et le Petit âge de Glace.

En conclusion, sur le plan technique, le livre se prend bien en main, possède une maquette à la fois simple et attirante où chaque chapitre est introduit par des citations poétiques et religieuses. L’ouvrage est clair et assez illustré bien que la distribution des diagrammes ne soit pas homogène. Il est vendu à un prix très attractif et il constitue une excellente introduction pour les étudiants et les non-spécialistes à l’étude des impacts sur les sociétés humaines du changement climatique avant de se plonger dans des travaux plus approfondis. En laissant de côté mes critiques quelque peu pointilleuses, c’est un livre à mettre sur son étagère à portée de main afin de le saisir fréquemment pour stimuler les idées et animer les discussions.

Références

Clottes, J. et D. Lewis-Williams, 2001: Les chansons de la préhistoire. La Maison des Roches.

Krause, J. et al., 2007: The derived FOXP2 variant of modern humans was shared with Neandertals. Current Biology, 17, 1-5.

Orlando, L. et al., 2006: Revisiting Neandertal diversity with a 100 000 year old mtDNA sequence. Current Biology, 16(11), R400-R402.

Morin, E., 2008: Evidence for declines in human population densities during the early Upper Paleolithic in western Europe. Proceedings of the National Academy of Sciences, 105(1), 48-53.

Alain Gioda


back to top


Waves in Oceanic and Coastal Waters

Leo H. Holthuijsen. Cambridge University Press (2007).
ISBN 0-521-86028-8.
xvi + 387 p.
Prix: 45£/80$ é.-U.

cover

Toute personne que la question des vagues de vent intéresse à quelque titre que ce soit se doit de posséder cet ouvrage. Exceptionnellement bien structuré de la première à la dernière page, et richement illustré, il réunit l’ensemble des connaissances de base nécessaires à la compréhension des concepts clefs du phénomène des vagues générées par le vent. Un autre chroniqueur avait déjà souligné que ce livre est un «must», tant pour les étudiants que pour les professeurs. Les explications et les indispensables calculs sont clairs et bien illustrés. La documentation complémentaire fournie par le site Web associé à l’ouvrage est une véritable mine d’information pour tout spécialiste appelé à faire un exposé relatif aux vagues océaniques.

Le chapitre 1 commence par un bref exposé du problème et se poursuit par une présentation des thèmes traités dans les chapitres suivants. L’approche adoptée par l’auteur consiste à étudier tout d’abord les techniques d’observation des vagues, puis à examiner la façon dont ce phénomène est traité sur le plan statistique, et enfin à analyser la modélisation de cas abstraits simples avant de passer à celle de situations réelles en pleine mer et de la réalité plus complexe des zones côtières.

Au chapitre 2, afin de bien faire comprendre ce qu’on entend par vagues océaniques, l’auteur recense judicieusement les techniques d’observation de base—depuis les instruments in situ jusqu’à la télédétection.

Le chapitre 3 est consacré à l’exposé du concept de variance de la densité spectrale—le concept le plus important de cet ouvrage. Agréablement présenté, cet exposé commence par une simple description de base des vagues, en termes de hauteur et de période, pour ensuite aborder la question plus complexe de variance de la densité spectrale bidimensionnelle du niveau de la mer. Il illustre avec soin l’hypothèse de base de stationnarité statistique et de distribution Gaussienne du niveau de la mer, de même que le concept et les limites du modèle de phase/amplitude aléatoire. Les figures 3.9 et 3.10 sont un exemple parfait de la clarté et de la pertinence des représentations graphiques que l’auteur s’est attaché à fournir pour compléter ses propos.

à ce stade de sa lecture, le lecteur aura déjà compris que la description de l’état de la mer en fonction des vagues de vent repose largement sur l’approche statistique. Le chapitre 4 présente donc opportunément toutes les distributions statistiques pertinentes généralement adoptées pour établir des statistiques à court et à long terme relatives au champ de vagues. C’est dans le contexte des statistiques à court terme que l’auteur expose avec précision en quoi consiste un deuxième concept essentiel—à savoir l’estimation de la hauteur significative d’une vague en fonction du spectre. Il n’est pas inutile de rappeler au lecteur que l’estimation de la hauteur significative d’une vague repose sur la valeur moyenne du tiers supérieur de la hauteur de vague, valeur calculée en comparant les estimations et les données issues des observations in situ. D’autres statistiques, portant par exemple sur la hauteur maximale d’une vague individuelle ou encore sur la longueur moyenne d’un groupe de vagues, peuvent également être déduites de la variance de densité spectrale. La fin du chapitre 4 porte sur les statistiques à long terme. Celles-ci sont brièvement abordées, mais les hypothèses de base qui les sous-tendent sont expliquées en se fondant sur la théorie des valeurs extrêmes. L’auteur présente aussi les trois méthodes les plus couramment utilisées pour obtenir les valeurs extrêmes à long terme de la hauteur significative des vagues.

Au chapitre 5, la théorie linéaire des ondes de gravité de surface est exposée sous sa forme la plus simple, sans adjonction superflue de calculs—qui figurent cependant dans l’appendice qui complète l’ouvrage. Cette théorie permet de corroborer les calculs relatifs aux caractéristiques physiques des vagues de vent. Elle ne prend en compte que les situations les plus simples. La théorie linéaire ignore l’effet du vent et de la dissipation et d’autres types d’effets non linéaires qui sont traités plus loin. Ce chapitre est néanmoins très instructif, car il fournit d’intéressants aperçus sur les mouvements orbitaux induits par les vagues, sur les fluctuations de la pression induite par les vagues, ainsi que sur l’énergie et la propagation des vagues. Afin de parachever ce tableau exhaustif de la question, l’auteur expose aussi brièvement en fin de chapitre les théories non linéaires classiques relatives aux vagues.

C’est au chapitre 6 qu’est abordé pour la première fois le développement idéalisé des vagues océaniques. On a en effet découvert que, dans l’absolu, le spectre de fréquence unidimensionnel présente une forme universelle. Il s’agit là d’un concept essentiel qu’il convient de présenter. Il revêt aussi une certaine importance sur le plan historique, car il a joué un rôle déterminant dans l’évolution des recherches relatives aux vagues. Les spécialistes considèrent en outre qu’il demeure aujourd’hui encore tout à fait pertinent. Pour pouvoir analyser des cas plus proches de la réalité, l’équation du bilan de l’énergie spectrale est dérivée—choix judicieux puisqu’il s’agit du troisième concept le plus important de l’ouvrage. Celui-ci porte sur l’évolution dans le temps du spectre des vagues, dont les paramètres sont le mode de propagation, de formation et de dissipation des vagues, ainsi que l’interaction vague-vague. Le reste du chapitre contient de belles illustrations sur ces derniers phénomènes et sur la manière dont ceux-ci se conjuguent pour former le spectre. L’illustration choisie pour expliquer la quadruple interaction vague-vague est particulièrement évocatrice.

Afin de pouvoir rendre compte de la réalité plus complexe des eaux côtières, ce chapitre élargit enfin la théorie linéaire présentée au chapitre 5. Le chapitre 7 passe en revue les phénomènes de vagues généraux qui peuvent être rencontrés lorsque la profondeur des eaux et/ou les courants influent sur l’évolution des vagues. La description conceptuelle des processus tels que la diminution de fonds, la réfraction, la réflexion et la diffraction est à la fois claire et judicieusement illustrée. Les notions plus difficiles à saisir, telles que la tension de radiation ou encore le transfert de quantité de mouvements induit par les vagues sont, elles aussi, bien clarifiées.

Le chapitre 8 constitue la quintessence de cet ouvrage. Après avoir analysé la modélisation des eaux océaniques (chapitre 6), l’auteur aborde en effet la question plus complexe de la modélisation des eaux côtières. La propagation est plus complexe lorsque la profondeur de l’eau est variable et/ou en présence de courants. Il convient de modifier l’approche de la formation des vagues, de leur dissipation et de l’interaction vague-vague non linéaire lorsque ces phénomènes se produisent en eaux peu profondes. De même, il convient, dans certains cas, de prendre aussi en compte les phénomènes de frottement contre les fonds et de déferlement des vagues, ainsi que la triple interaction vague-vague. Le tableau 8.1 résume bien la situation en matière de modélisation. L’équation de l’évolution du spectre de la vague n’est cependant qu’une simple extension de l’équation de bilan énergétique applicable aux eaux profondes. En présence de courants ambiants, on la remplace simplement par l’équation de l’évolution de la densité d’action.

Le chapitre 9 décrit brièvement le modèle SWAN applicable aux concepts et aux formulations présentées dans les chapitres précédents. Il mentionne les principales techniques (et astuces) nécessaires pour résoudre les équations qui y sont exposées. Il souligne que SWAN est applicable aux configurations complexes. Mais il ne s’agit que d’un bref résumé, que l’on pourrait considérer comme une simple introduction au modèle SWAN

Jean Bidlot


back to top


Precipitation—Theory, precipitation and distribution

Ian Strangeways. Cambridge University Press (2007).
IBSN 0-521-85117-3.
x + 290 p.
Prix: 73£/130$ é.-U.

cover

Cet ouvrage commence par une invitation à un voyage dans le temps. Plutôt que d’aborder d’emblée la question des précipitations sous l’angle scientifique, l’auteur opte pour une approche chronologique. Il expose donc tout d’abord un large éventail de théories relatives à la pluie et à la neige élaborées par le passé, depuis l’Antiquité jusqu’à l’ère scientifique moderne des XVIIIe et XIXe siècles, en passant par la période des Lumières et de la Renaissance.

C’est ainsi que l’on découvre qu’Aristote avait conclu il y a 2 000 ans que «toute humidité évaporée pendant la journée, et qui ne s’élève pas très haut, retombe quand elle est refroidie par la nuit et s’appelle la rosée». Aristote n’est pas considéré comme un «bon scientifique» car il ne croyait ni à la méthode expérimentale ni à l’observation (la vérité devant être révélée par la discussion et la logique). Il était parvenu à cette conclusion sans rien connaître de la nature de l’air et de la vapeur d’eau, ni certainement comprendre la mécanique de l’évaporation. Ses remarques tombèrent malheureusement dans l’oubli pendant plus de 1 000 ans, et, lorsqu’elles furent redécouvertes, en 1180, personne ne prit conscience de leur pertinence. L’approche rhétorique de la découverte scientifique persista en fait jusqu’au début du XVIIe siècle, période à laquelle Francis Bacon et John Locke la rejetèrent pour adopter des méthodes empiriques d’établissement des faits scientifiques.

L’une des intéressantes questions qui hantaient les esprits du XVIIe siècle portait sur la nature exacte des nuages. On commença par conjecturer que puisqu’ils flottaient, les nuages devaient être composés de bulles d’eau. Des cartes avait bien émis l’hypothèse qu’ils pourraient en fait être composés de gouttelettes d’eau, mais son idée avait été rejetée du fait que l’eau est plus lourde que l’air. Il fallut attendre encore un siècle pour que soit reconsidérée son idée, après que l’on ait découvert que les bulles d’eau ne pouvaient se former naturellement, et que dans l’hypothèse où elles se formeraient néanmoins, la tension en surface était telle qu’elles éclateraient aussitôt.
Dans ces conditions, comment donc les nuages flottaient-ils? La question fut finalement résolue en 1850 par James Pollard Espy, un savant américain qui nota qu’en réalité les nuages composés de gouttelettes d’eau s’affaissaient en permanence vers le sol. Ils ne donnaient l’impression de flotter que tant que les courants ascendants maintenaient ces gouttelettes en suspension.

Ces deux exemples illustrent à quel point la recherche scientifique se révèle parfois lente et inefficace, ce que l’auteur déplore de façon récurrente. Souvent passées inaperçues à leur époque, certaines observations et découvertes pertinentes tombent dans l’oubli pour ne refaire surface après bien des tâtonnements que des dizaines, voire des centaines d’années plus tard.

Cet aperçu historique est malheureusement la partie la plus intéressante de l’ouvrage. Les quatre autres parties qui le composent abordent successivement les théories contemporaines relatives aux précipitations, la mesure des précipitations, la répartition mondiale des précipitations et enfin les perspectives d’avenir en ce domaine. Mais nombre de ces thèmes n’étant que survolés, le lecteur se demande s’il ne s’agirait pas là d’un cours sur la météorologie et l’environnement que l’auteur destine à des étudiants en sciences de première année.

La plupart des explications données dans ces sections sont trop hâtives pour être utiles aux chercheurs universitaires spécialistes de l’étude de l’atmosphère. Elles ne sauraient pas non plus servir aux chercheurs d’autres disciplines dès lors qu’elles ne contiennent pas suffisamment de calculs ni de données quantitatives. Dans le chapitre relatif aux processus de base, par exemple, l’explication de la tension de vapeur saturante par rapport à l’eau et à la glace (page 58 de la version anglaise) est vraiment des plus succinctes. En outre, l’auteur présente bien un diagramme de la tension de vapeur saturante par rapport à l’eau en fonction de la température, mais n’en fournit aucun concernant la glace. C’est d’autant plus regrettable que l’un des aspects intéressants des processus de précipitation dans les nuages réside justement dans le fait qu’en fonction de la température, on peut observer dans l’environnement un état de sursaturation par rapport à la glace mais de sous-saturation par rapport à l’eau—situation susceptible de générer la formation de neige mais pas de pluie. Dans le chapitre relatif à la mesure des précipitations par les satellites, on regrette une fois de plus la brièveté de l’exemple relatif à l’équation empirique décrivant la réflectivité radar (Z) (page 191 de la version anglaise). L’auteur ne donne pas la moindre explication sur la façon dont les paramètres a et b sont obtenus et définis. Un bref commentaire sur la manière dont ils ont été empiriquement calculés aurait été utile. Tel quel, cet exemple est dépourvu des clefs nécessaires à sa compréhension.

Par ailleurs, dans le chapitre relatif aux stations pluviométriques et aux données satellitaires, l’auteur indique (page 243 de la version anglaise) que le Système mondial des systèmes d’observation de la Terre (GEOSS) a été institué par l’Agence américaine de protection de l’environnement. C’est inexact. Le Groupe sur l’observation de la terre (GEO) a en fait été créé à la suite du Sommet du G8 d’Evian, France (2003) et du premier Sommet sur l’observation de la terre à Washington D.C. (2003); le GEOSS date quant à lui du deuxième Sommet sur l’observation de la Terre (EOS) qui s’est tenu en 2004 à Tokyo, Japon. C’est à cette occasion que sa portée et son objet ont été définis.

L’aspect le plus gênant de cet ouvrage est cependant que son auteur a de toute évidence un sérieux compte à régler avec l’église chrétienne. à propos des débuts du Moyen-âge, on lit en effet (page 12 de la version anglaise). «Les conditions de vie étaient vraiment déplorables, et les habitants, pour la plupart illettrés, se raccrochaient à la croyance chrétienne d’une vie meilleure au paradis».

Puis, après avoir suivi l’évolution des mesures des précipitations dans diverses régions du monde, l’auteur ajoute le commentaire suivant (page 141 de la version anglaise): «La réin-
vention de la station pluviométrique et de la mesure quantitative de la pluie en Chine et en Corée constitue probable ment le progrès le plus notable accompli en matière de météorologie et d’hydrologie durant les 1 300 ans qui ont suivi les relevés ponctuels réalisés en Palestine et en Inde. On remarquera que les progrès mentionnés ont été accomplis en Orient, l’Europe étant effet dominée par la répression religieuse où toute personne osant remettre quoi que ce soit en question était condamnée au bûcher».

En guise de baroud d’honneur, l’auteur ajoute (page 285 de la version anglaise) «Nous arrivons à la fin d’un voyage de 3 000 années qui a ouvert les esprits et donné lieu à bien des découvertes. De temps à autre, j’ai dû mentionner le retard pris dans la compréhension des phénomènes naturels en raison de l’intolérance religieuse vis-à-vis de la pensée séculière. On constate une recrudescence du fondamentalisme dans de nombreuses religions, ce qui constitue de nouveau une menace contre la science et contre la pensée libre et objective. Peut-être cette tendance résulte-t-elle du fait que la majorité des gens ne comprennent pas, ou préfèreraient ne pas devoir affronter certaines découvertes scientifiques considérées comme gênantes ou allant souvent à l’encontre les idées reçues».

L’expression d’opinions de ce type n’a strictement rien à faire dans un texte de référence à prétention scientifique. Elles sont d’autant plus malvenues que, contrairement à ce qu’exige la méthode scientifique, l’auteur ne mentionne pas une seule source vérifiable à l’appui de ses assertions. La lenteur des progrès scientifique en Occident ne serait imputable qu’à l’église chrétienne; qui les aurait freinés pendant 2 000 ans? Galilée, dont on connaît le regrettable sort que lui a valu sa théorie héliocentrique, continuait lui-même à bénéficier du soutien des Jésuites, donc d’une partie de l’église. C’est une grossière exagération que d’affirmer que l’intolérance religieuse aurait écrasé le progrès scientifique.

Concluons que ce décevant ouvrage aurait pu être un livre de référence utile. Les chapitres relatifs à la mesure des précipitations (pluie et neige) et à la détection des éclairs sont en effet approfondis et instructifs. Mais le traitement superficiel des autres sujets, conjugué au dédain affiché par l’auteur à l’égard de l’église chrétienne à laquelle il impute la lente progression de la science—ce sans apporter la moindre preuve à l’appui de ses assertions les plus extravagantes—font dévier le livre de l’essentiel et le privent donc d’une bonne partie de son utilité.

Douglas Cripe

back to top


Fundamentals of Atmospheric Modeling

Mark Z. Jacobson. Cambridge University Press (2005).
IBSN 0-521-54865-9.
xiv + 813 p.
Prix: 50,00 £

cover

Ce livre semble fort utile. En 813 pages, il couvre la chimie des gaz atmosphériques, la microphysique et la chimie des aérosols, les processus des nuages, les rayonnements, les processus à la surface de la terre et de l’eau, ainsi que les techniques numériques et informatiques permettant leur simulation. Les modèles environnementaux, qu’ils portent sur la pollution urbaine ou bien sur le climat planétaire, doivent tenir compte de ces processus à petite échelle. Ces derniers sont cependant beaucoup moins souvent traités dans les manuels que les modèles synoptiques et planétaires à grande échelle. Cet ouvrage comble donc une lacune importante, et il le fait bien, puisqu’il en est à sa seconde édition.

Je présume que l’auteur, après avoir écrit un livre de 813 pages, ne s’attend pas à ce que ses lecteurs cheminent dans le livre de la première à la dernière page (et j’espère bien que l’éditeur ne s’attend pas à la même chose de la part de son critique!). Le rôle de ce livre doit être celui d’un ouvrage de référence. Afin de vérifier qu’il remplit bien cet office, j’ai lu avec soin les chapitres intitulés «Boundary-layer and surface processes» (Processus de couche-limite et de surface) et «Vertical-coordinate conversion» (Conversions de coordonnées verticales), deux sujets sur lesquels je dispose d’un certain nombre de connaissances. Tout est là: les flux turbulents, vitesse du vent en cas de friction, longueur de rugosité, formulations globales, théorie de la similarité, longueur Monin-Obukhov, nombre de Richardson de gradient, nombre de Richardson de flux, et schémas d’énergie cinétique turbulente. Il existe également une section sur la température à la surface de la terre et l’hydratation des sols, qui différentie soigneusement entre le sol nu et celui supportant de la végétation, les surfaces des routes et des toitures, ainsi que les surfaces d’eau, de glaces marines et de neige. Il en va de même pour le chapitre sur les systèmes de coordonnées verticales. La plupart des sujets de première importance s’y trouvent: l’altitude, la pression, et les coordonnées de pression et d’altitude sigma (bien que je regrette l’absence du système de coordonnées isentropiques). Ces sujets sont discutés pour les flux non hydrostatiques, hydrostatiques, anélastiques, élastiques et de Boussinesq. J’ai également demandé à deux de mes collègues, spécialistes de chimie atmosphérique, de m’indiquer quelques sujets actuellement de pointe. L’un d’entre eux est l’amélioration de notre compréhension et de la modélisation des spectres de noyaux de condensation de nuages (NCN) atmosphériques, et de leurs liens avec les effets radiatifs/climatiques. Cela est traité dans l’ouvrage. L’autre sujet de pointe est le rôle du noir de carbone (suie) dans le forçage radiatif direct et également indirect. Il est aussi traité. Le troisième sujet de pointe est l’échange gazeux air-mer. Là aussi, le sujet est traité. Tout semble se trouver dans l’ouvrage. Globalement, l’étendue et la profondeur du livre sont impressionnantes, comme le montre l’index, qui ne couvre pas moins de 29 pages.

Laissez-moi utiliser l’échange gazeux air-mer comme exemple de la manière dont les sujets sont traités. L’index me renvoie aux pages 672-679. La page 675 indique: «La vitesse de transfert à travers un mince film d’eau à la surface de l’océan est affectée par la dissolution du gaz dans le film, la diffusion moléculaire à travers le film, ainsi que les surfactants et l’éclatement de bulles sur le film de surface. Bien que le transfert dépende de plusieurs processus physiques, les paramétrisations de k w,q avaient été dérivées jusqu’à présent seulement en termes de vitesse du vent. Une de ces paramétrisations est...». L’auteur indique alors une formule et une référence. Il continue ainsi: «Une seconde paramétrisation pour la vitesse de transfert de gaz à travers l’eau est ....» (en indiquant à nouveau une formule et une référence). Il s’agit là d’une information utile, mais on peut également se demander d’où proviennent ces formules et paramétrisations, et quelle fraction de la variation du coefficient d’échange est expliquée par la vitesse du vent. De même, les deux paramétrisations diffèrent par plus d’un facteur sur deux pour la plupart des vitesses du vent. Laquelle est la meilleure? Nous aimerions également connaître l’impact de ces incertitudes sur les prévisions, par exemple de l’absorption de gaz carbonique par les océans dans les modèles climatiques.

Des commentaires similaires peuvent s’appliquer aux autres sujets couverts par ce livre. Cet ouvrage ne s’adresse pas aux non-initiés. Les étudiants débutants auront des difficultés à en extraire des concepts et du contexte. Il est destiné aux praticiens et aux professionnels, aux chercheurs et aux étudiants de niveau avancé en météorologie et en sciences de l’atmosphère et de l’environnement, qui doivent concevoir, construire et appliquer des modèles. Pour de telles tâches, cet ouvrage est une excellente référence. Il excelle à traiter de manière étendue tous les aspects des processus atmosphériques, et il fournit des formules, exemples, algorithmes et exercices détaillés. Toute personne travaillant dans ce domaine doit avoir ce livre à portée de main afin de le consulter souvent. C’est certainement ce que je ferai.

Peter Muller