Les modèles météorologiques

Pour prévoir le temps, les spécialistes des sciences atmosphériques donnent encore de l’importance à l’observation directe du temps météorologique qu’il fait. Les techniques ont cependant bien-sûr évolué avec les années, et prévoir le temps à 5 jours ne peut pas se faire juste en levant le nez. Les scientifiques utilisent maintenant des modèles météorologiques pour prévoir le temps à plusieurs jours, voire à plusieurs semaines d’échéance. Que sont ces modèles ? Comment sont-ils utilisés ? Notre article se propose de répondre à cette question.

Tout est modèle ma brave dame, tout est modèle
 Lorsqu’on parle de modèle en science atmosphérique, on pense logiquement à des ordinateurs qui fument des heures durant sur des équations mathématiques à effrayer le commun des mortels. Pour autant, avant même de parler de modèle météo, qu’est ce qu’un modèle ? En sciences, un modèle est la représentation simplifiée d’un processus, quel qu’il soit. Par exemple, tout à chacun sait bien qu’en été le Soleil monte plus haut dans le ciel et que les jours s’allongent, ce qui pousse à la hausse les températures. L’été, il fait donc plus chaud que l’Hiver. Et bien, cela est déjà un petit modèle, qui lie les variations annuelles de la température au Soleil. Un modèle n’a pas besoin d’être formalisé par des équations mathématiques (même si souvent en physique cela aide, il faut bien le dire). Les sciences sociales construisent aussi des modèles de nos comportements, qui ne sont pas exprimés avec les mathématiques. Un statisticien célèbre, George Box, a eu un jour cette phrase heureuse : « Tous les modèles sont faux, mais certains sont utiles ». En effet, aucun modèle ne peut prétendre décrire complètement et parfaitement le processus qu’il entend décrire. Pour autant, un modèle est d’une grande aide pour comprendre ce processus, et éventuellement prévoir son évolution futur.Les modèles des sciences atmosphériques ne sont pas différents. Ils font sans doute partie des modèles les plus complexes qui existent d’un point de vue mathématique (les modèles utilisés en séismologie sont aussi pas mal dans cette optique soit dit en passant).Un autre point important est qu’il n’existe pas de différence stricte entre la « météorologie » et la « climatologie ». C’est une distinction qui est souvent faite mais qui n’a pas réellement de fondements. Les modèles qui prévoient le temps à quelques jours d’échéance tournent essentiellement avec les mêmes équations que les modèles qui tentent de prévoir le climat à 100 ans. Les différences entre un modèle dit « météo » et un modèle dit « climato » se situent dans une perspective plus pratique d’implémentation de ces équations. Cependant, comme nous le verrons plus loin, il existe de par le monde des modèles qui sont les deux à la fois. L’auteur de ces quelques lignes tient particulièrement à ce point. En effet, même si la coutume est de râler après les prévisions météorologiques (nous sommes d’accord que la météo est un bon sujet de conservation en effet), force est de constater qu’elles ne sont pas souvent complètement fausses. Si donc les prévisions d’un jour à l’autre sont à peu près valables, alors les prévisions à 100 ans, ou plus, le sont aussi.Pour voir les différences entre les modèles, nous allons parler de leurs différentes caractéristiques les plus évidentes. Ainsi, il existe plusieurs modèles météorologiques qui chacun implémentent les équations de l’atmosphère un peu différemment, orientées plus spécifiquement pour la prévision à court terme. Nous allons voir les principaux modèles actuellement disponibles, puis leurs caractéristiques.. Nous éviterons les détails très techniques, la liste des caractéristiques ne sera donc pas exhaustive mais indicative. 

Les caractéristiques

RésolutionLa principale différence est la finesse de la grille. Ici, une image vaut sans doute mieux qu’une longue explication :

https://www2.ucar.edu/climate/faq/aren-t-computer-models-used-predict-climate-really-simplistic

Pour pouvoir faire le calcul, la Terre est divisée en petites boîtes élémentaires. De plus, l’atmosphère est aussi divisée selon la verticale. Les couches de boîtes s’empilent alors les unes sur les autres pour donner de l’épaisseur.

Vue d’une Terre découpé en petits bouts. Notons ici la grille horizontale (Horizontal Grid) et la grille verticale (Vertical Grid). Source : http://en.wikipedia.org/wiki/File:AtmosphericModelSchematic.png

 Dans chaque boîte les équations de la physique sont appliquées pour calculer l’évolution de l’atmosphère. Notons que ces équations sont universelles et s’appliquent dans tous les domaines des sciences. Elles ne sont en aucun cas spécifiquement « ajustées » pour donner un résultat. Plus la résolution du modèle est élevé, c’est-à-dire plus les boîtes sont petites, plus les résultats seront précis. Pour autant, si la résolution est élevée, le nombre de boîte augmente. Puisqu’il est nécessaire de faire les calculs pour chaque boîte, cela nécessite plus de ressources avec des ordinateurs plus puissants. Étant donné que la puissance de calcul est limitée, il faut alors faire un choix pour optimiser au mieux la résolution du modèle en fonction des besoins. Pour donner un ordre d’idée, les modèles météorologiques ont une résolution horizontale de 20km à 30km environ. C’est à dire que les modèles considèrent par exemple que la météo est la même pour l’ensemble de Bruxelles. Une autre possibilité est aussi d’augmenter la résolution, mais en limitant l’étude à une région spécifique du globe. Par exemple, on peut descendre à une résolution horizontale jusqu’à 1 à 10 km pour un modèle limité à la superficie d’un pays.

Échéance de prévisionTout comme il existe une résolution spatiale, il existe également une résolution temporelle. Le modèle calcule l’évolution de l’atmosphère à des intervalles de temps réguliers, par exemple 600 secondes. Plus l’intervalle de temps sera court, meilleure sera la précision. Pour autant, le temps de calcul augmente également. Là encore, il faut arriver à un compromis entre temps de calcul et précision requise.

Couplage
Une autre différence qui cette fois-ci divise plutôt les modèles météo et climato est le couplage à d’autres modèles. Nous l’évoquons cependant pour expliciter le fonctionnement d’un modèle météo. En parlant de la résolution à l’instant, nous avons parlé de l’atmosphère seulement. Or, de toute évidence, l’Océan ou la banquise ou encore la végétation peuvent influencer l’atmosphère. Pour cela il existe deux solutions. Soit des modèles spécifiques pour chacune de ses autres composantes sont établis, et l’ensemble de ces modèles, atmosphériques compris, sont couplés. C’est le cas des modèles climatologiques. En météorologie, l’océan ou la végétation n’évolue pas assez rapidement sur l’échéance de prévision pour qu’il soit nécessaire de faire un couplage. L’état de l’océan et de la végétation est alors prescrit, c’est-à-dire que des valeurs fixes sont fournies au modèle atmosphérique.

InitialisationLes modèles doivent être initialisées. Cela signifie qu’on doit leur donner des valeurs à partir desquelles ils pourront commencer les calculs. Pour les modèles météos, ces valeurs initiales décrivent l’état de l’atmosphère au moment où les calculs sont lancés. La plupart des modèles sont initialisés à 00Z (01h00 en Hiver, 02h00 en Été) et 12Z (13h00 en Hiver, 14h00 en Été). Différentes sources de données sont utilisées. Il s’agit des données des ballons sondes, des stations météos, des satellites météos, des instrumentations embarquées à bord des avions et navires (commerciaux ou militaires), des bouées marines. Les données satellites sont particulièrement importantes car elles fournissent une couverture globale et détaillé. Nous pouvons aussi noter l’importance des données récoltées par les reconnaissances aériennes menées spécifiquement dans certains types de systèmes météorologique. Aux États-Unis, l’US Air Force mène régulièrement des missions au cœur des cyclones tropicaux pour mesurer plus précisément l’état de l’atmosphère. Ces données sont à l’évidence précieuse, puisqu’une étude a montré une amélioration significative de la précision des prévisions des trajectoires des cyclones tropicaux par exemple (de l’ordre de 10 à 15% à 48 heures d’échéances) :

Amélioration (Improvement, courbe en gras, échelle en % ) de la précision des prévisions avec et sans les données des dropsondes par les missions de reconnaissances, Rappaport et al., 2009 : http://www.nhc.noaa.gov/pdf/NHC_WAF_Advances_Challenges_200904.pdf

Si ces chiffres ne concernent que la trajectoire des cyclones tropicaux, cela peut néanmoins avoir un impact sur la prévision globale d’un modèle. L’influence des systèmes météorologiques se fait souvent sentir sur de très longues distances. Différents modèles sont ainsi couramment utilisés, que nous décrirons ici brièvement.

Les modèles de prévisions météorologique synoptiqueLes modèles « synoptiques » sont ceux qui prévoient la météo à l’horizon d’une semaine pour l’ensemble de l’Hémisphère Nord. De multiples organismes météorologiques de par le monde tentent de développer un tel type de modèle. Pour autant, vu la complexité et la puissance de calcul requise pour un tel morceau, peu sont réellement fiables. La France possède aussi un modèle de prévision particulièrement efficace, pour autant il est très difficile d’avoir accès à des données et reste largement méconnu, nous n’en parlerons pas. Notons cependant que tout comme pour le modèle anglais, le modèle atmosphérique français est tout à la fois « météorologique » (Arpège) et « climatologique » (Arpège-Climat).

GFS, Gobal Forecast SystemIl est développé par le National Center for Environnemental Prediction, une agence qui dépend du gouvernement des États-Unis. À la différence du modèle européen qui a évolué progressivement depuis le milieu des années 90, le modèle états-unien tend à évoluer plus par évolutions majeures. GFS a remplacé en 2000 un modèle archaïque, le NGM. Le modèle GFS est particulièrement connu de part le monde. En effet, c’est un modèle entièrement libre et gratuit. De plus il propose des prévisions à 384 heures, soit 16 jours. C’est le seul modèle météo à simuler sur une aussi longue échéance. La fiabilité des prévisions à cette échéance est cependant quasiment nulle…  Il est initialisé quatre fois par jour à 00Z, 06Z, 12Z, et 18Z. Il est prévu qu’il soit remplacer en 2014 par un modèle entièrement neuf, le FMI : http://fim.noaa.gov/. Les initiales signifient Flow-following, finite volume, Icosahedral horizontal grid, Model. Les données récentes sont prometteuses et montrent un potentiel d’amélioration des performances certain.

IFS, Integrated Forecast SystemLe modèle est développé par le Centre Européen de Prévision Météorologique à Moyen Terme (CEPMMT ou ECMWF en anglais) : http://www.ecmwf.int/research/ifsdocs/CY37r2/index.html Ce modèle est donc connu, abusivement, sous le nom de CEP ou ECMWF. Ceci peut porter à confusion car ECMWF produit également d’autre modèles ayant d’autres finalités, dont l’ERA-40 (ECMWF 40 years Re-Analysis). L’IFS en tant que tel date de 1994. Avant, il avait existé d’autres modèles européens, dont le premier remonte à 1985. Depuis 1994, IFS n’a cessé d’évoluer progressivement avec des correctifs supplémentaires au fil du temps. À la différence de GFS, de nombreux paramètres de l’IFS ne sont pas disponibles gratuitement. Il tend donc à être moins utilisé dans la communauté amateur, malgré des performances souvent un peu meilleures que celles de GFS. L’IFS est basé sur une grille de surface un peu plus complexe, ce qui représente sans doute un avantage certain. Il a également une résolution verticale plus fine, puisqu’il possède 137 niveaux.

Unified ModelL’Unified Model : http://www.metoffice.gov.uk/research/modelling-systems/unified-model/weather-forecasting est développé  par le Met Office, devenue maintenant la dénomination officielle de l’expression Meteorological Office. il s’agit de l’organisme météo du Royaume-Uni. Il est souvent surnommé UKMO. Ce modèle atmosphérique a la particularité d’être aussi utilisé pour monter des modèles climatologiques. Il peut être couplé, pour donner par exemple le plus récent modèle climatique du Royaume-Uni, le HadGEM1 : http://www.metoffice.gov.uk/research/modelling-systems/unified-model/climate-models/hadgem1 et le HadGEM2 : http://www.metoffice.gov.uk/research/modelling-systems/unified-model/climate-models/hadgem2 En tant que modèle météorologique, il est initialisé quatre fois par jour (à 00Z, 06Z, 12Z, 18Z) mais seules les sorties de 00Z et 12Z sont disponibles. De même que pour l’IFS, tous les paramètres ne sont pas disponibles gratuitement. D’autre part, il a la particularité de ne proposer des prévisions que jusqu’à 144 heures d’échéance, soit 6 jours.

Les modèles de prévisions météorologiques méso échelle
Il existe des modèles de plus faible résolution qui ne couvre que des régions et non tout le globe, et s’arrêtant à des échéances plus courtes (moins de 96 heures).Le plus connu est le Weather Research and Forecasting Model (WRF) : http://www.wrf-model.org/index.php Il a la particularité d’être implémentable par n’importe qui. Ainsi différentes configurations de WRF sont proposées sur Internet, les performances des uns et des autres n’étant pas nécessairement équivalentes.Les centres météorologiques nationaux utilisent également leur propre modèle. La France exploite Arôme, la Belgique Alaro, …

Alaro

Nous serons ici moins descriptifs. Alaro est consultable sur le site de l’IRM à cette adresse :

http://www.meteo.be/meteo/view/fr/123492-Modele+Alaro.html

À partir de ces données, les scientifiques de l’IRM prévoient le temps de manière précise à courte échéance.
Alaro est développé par un ensemble de pays européens.

Arôme

Après tant de lectures, nous vous proposons une petite vidéo de MétéoFrance sur ce modèle, qui couvre la France :

Vidéo provenant de ce site : http://www.cnrm.meteo.fr/spip.php?article120

Performances relatives des modèles

http://www.emc.ncep.noaa.gov/gmb/STATS_vsdb/

Ce diagramme, un peu abscon il est vrai, synthétise les performances des modèles durant le mois d’Août. En fait, c’est surtout le panel du haut qui importe. Chaque modèle est représenté par une courbe. Le modèle européen IFS en rouge, le modèle anglais UKMO en orange, le modèle états-unien GFS en noir,… Plus la courbe est proche de 1, plus le modèle est performant. L’axe horizontale donne l’échéance de la prévision (96 heures, c’est 4 jours d’échéance ; 144 heures c’est  6 ; …). Ainsi, le modèle européen reste meilleur que le modèle américain jusqu’à 8 jours d’échéances. Au delà GFS passe devant, mais à cette échéance cela ne signifie plus grand chose en fait. On remarque aussi la bonne performance du british, puisqu’UKMO se place en deuxième position, entre GFS et IFS.

http://www.emc.ncep.noaa.gov/gmb/STATS_vsdb/longterm/

Ce diagramme montre l’amélioration progressive de la performance des prévisions à 5 jours ( 120 heures d’échéances ). À nouveau, plus le modèle est proche de 1, plus il est performant. Nous remarquons que les modèles les plus importants n’ont cessé de progresser. De même, notons que les deux modèles IFS et UKMO performent un tout petit mieux que GFS.

Altweibersommer ou l’été tardif

L’automne arrive, et avec lui, le vent et la pluie. Les jours deviennent plus courts et plus frais. Pourtant, on peut encore connaître de très belles périodes de temps sec et ensoleillé durant les mois de septembre et d’octobre, voire même jusque la mi-novembre dans certains cas. Voici donc un article sur cet événement très apprécié, appelé à tort « l’été indien », qui n’existe que dans le nord de l’Amérique comme le chantait si bien Dassin. L’expression est toutefois passée un peu faussement dans notre vocabulaire, notamment dans les médias. Les langues européennes sont pourtant particulièrement riches pour exprimer ces quelques jours de temps doux et agréable qui surviennent parfois après des semaines de mauvais temps.

Le graphique ci-dessous, fait maison, vous montre cette richesse linguistique. On y retrouve des nominations venant d’Allemagne, de France, d’Angleterre… mais aussi bien de chez nous.

Altweibersommer

On peut le traduire en « été des vieilles femmes ». Il survient durant la deuxième moitié de septembre et est en réalité une déformation étymologique: le nom vient en fait de weiben, tisser, car c’est souvent à cette période que l’on distingue le mieux les toiles tissées par les araignées sous la lumière douce qui règne à ce moment-là, le soleil se trouvant déjà plus bas sur l’horizon qu’en plein été.

Une journée d’altweibersommer commence en général par une aube fraîche et humide, où les températures sont parfois inférieures à 5°C, avec parfois de la brume et des bancs de brouillard dans les vallées. En cours de matinée, les températures se réchauffent, dissipant ces brumes, le ciel est en général dégagé, parfois accompagné de quelques petits cumulus. Les températures maximales sont comprises entre 23 et 28°C en plaine, par un léger vent de sud. Statistiquement parlant, les maximales devraient donc être supérieures de 5°C par rapport à la normale du moment, mais ne pas dépasser 28°C en plaine.

L’ambiance est très agréable, la lumière du soleil automnal, ni trop faible comme celle d’hiver, ni trop forte comme celle d’été, ravive les couleurs des paysages dont la verdure commence à poindre vers le jaune. Cela est d’autant plus apprécié qu’il s’agit d’une dernière manifestation tardive de l’été, avant l’arrivée des perturbations et du temps sombre automnal.

Ce type de temps dure de un à trois jours, précédé et suivi d’un temps humide et nuageux sous un régime d’ouest. Ce phénomène est assez régulier, et se produit tous les deux à trois ans en moyenne.

Quand septembre poursuit l’été

Parfois, cette période d’altweibersommer peut être trop longue et trop chaude pour être appelée de la sorte. En septembre 2003, après un été caniculaire, une nouvelle pulsion d’air tropical a atteint le pays, faisant monter le thermomètre à 31,1°C à Zaventem le 20. Récemment, nous avons observé des températures de plus de 30°C à la mi-septembre 2016. Nous ne pouvions plus définir cette période comme altweibersommer, mais plutôt comme un véritable coup de chaleur, une continuité de l’été. Dans certains cas, c’est même tout le mois qui peut prendre de véritables caractéristiques estivales, comme en 2014 ou en 2016 par exemple.

Goldener Oktober

La langue allemande est décidément très riche pour qualifier le beau temps automnal. Voici maintenant l’octobre d’or, ou octobre doré. En termes de durée et de météo, il a un peu le même esprit que son homologue « altweibersommer » de septembre: un « Goldener Oktober » dure généralement moins de trois jours, avec des températures maximales supérieures de 5°C à la normale du moment. La différence est que la lumière est encore un peu moins forte, réellement douce et agréable. Lorsqu’un tel épisode tombe un week-end, c’est une quasi bénédiction! Le ciel est souvent dégagé, même si les éventuelles brumes du matin peuvent prendre leur temps pour se dissiper. L’après-midi, le ciel est bleu, parcouru parfois de quelques cirrus ou très discrets cumulus, le tout sous un vent faible. Les températures oscillent en plaine autour de 23-26°C au début du mois, vers 18-21°C à la fin de celui-ci.

Le 18 octobre 2014 avait tout d’un épisode d’octobre doré. Charleroi-Sud à la fin de cette journée sous un ciel bleu (auteur: Info Meteo).

Denis et Luc

Plus particulièrement, lorsqu’un épisode d’octobre doré survient autour du 9 ou du 18, on parle aussi respectivement d’été de la Saint-Denis en France et de la Saint-Luc en Angleterre. Cependant, il n’existe pas réellement de définition à propos des températures qui doivent être atteintes dans le cadre de ces périodes de beau temps.

L’été de la Toussaint

« Il fait un temps de Toussaint ». Cette expression est passée à la postérité en Belgique pour désigner un temps frais, couvert et brumeux, parfois accompagné d’un crachin épouvantable. Pourtant, ces dernières années, une triplette a fait mentir l’appellation. 2014, 2015 et dans une moindre mesure 2016 ont vu se produire une période de temps extraordinairement belle autour de la Toussaint. En 2014 et 2015, les températures au centre du pays ont même atteint 20 à 21°C, ce qui était alors inconnu dans les annales météorologiques. Le soleil avait brillé de mille feux de l’aube au crépuscule, donnant une véritable sensation d’été. En 2016, il faisait tout aussi beau, mais avec des températures un peu plus basses mais toujours bien douces pour la saison (autour de 15-16°C).

Pourtant, l’appellation « été de la Toussaint » existe bel et bien dans le langage… suédois! Mais à nouveau, il n’y a pas vraiment de définition précise de ce que doit être un « été de la Toussaint », même si on suppose que les températures doivent être au minimum de 14-15°C pour entrer dans le cadre, donc à peu près supérieures de cinq degrés au-dessus de la normale du moment.

En 2016, l’été de la Toussaint était bien à l’heure dans le calendrier, à l’instar des deux années précédentes. Les environs de Herbeumont sous une lumière fantastique le 1er novembre (auteur: Info Meteo).

Martin

Lorsque qu’une période de temps ensoleillé et doux se produit autour du 11 novembre, on entend parfois parler d’été de la Saint-Martin en France en Italie et en Belgique. Par contre, le nom est un peu trompeur, parce que « l’été » à ce moment présente des maximales autour de 12-14°C en plaine. Assez loin donc de nos températures estivales classiques observées de juin à août.

Et l’été indien?

Comme dit plus haut, cette appellation est à la base réservée à l’Amérique du Nord. Au Québec, on trouve par ailleurs une définition précise de l’été indien. Il faut ainsi que les maximales soient supérieures de 5°C à la normale du moment, et surtout que cette période de redoux soit précédée d’une autre période très froide et pendant laquelle il a (pratiquement) gelé. L’été indien se produit généralement entre le 1er ctobre et le 15 novembre.

Si on s’en tient stricto sensu à cette définition, l’été indien n’existe pratiquement pas chez nous. Toutefois, depuis le début de ce siècle, la Belgique aurait ainsi connu deux ou trois épisodes de ce type, la dernière fois remontant à l’été de la Toussaint de 2015. En effet, à la mi-octobre, le temps a été très froid pour la saison, approchant le point de gel et amenant d’ailleurs de la neige fondante jusqu’en Moyenne Belgique. La suite on la connait déjà, les températures sont alors remontées pour culminer le 1er novembre à 20-21°C au centre du pays.

Une situation météorologique commune à toutes ces appellations

Le beau temps en automne se produit lorsqu’un courant de sud ou de sud-ouest atteint la Belgique. Sur l’Atlantique, dont la température des eaux ne décroit que lentement, le refroidissement de l’air près du pôle entraîne le renforcement du Jet-stream et, en conséquence, les perturbations qui circulent en-dessous. Les premières pluies importantes atteignent ainsi l’Europe. Dans le même laps de temps, le continent européen se refroidit plus rapidement, attirant les anticyclones. C’est ce dipôle entre dépressions sur l’océan et anticyclone sur le centre de l’Europe qui génère le flux d’air doux et sec responsable de l’été des vieilles femmes. Néanmoins, l’anticyclone étant instable (d’une part bousculé par les dépressions atlantiques, d’autre part affaibli par le réchauffement de l’air dans ses environs), les perturbations finissent par le repousser et reprennent possession de l’Europe occidentale après quelques jours. La transition entre le beau temps et le mauvais temps est souvent assez classique, avec des pluies faibles à modérées. Plus rarement, elle peut être marquée par des orages (essentiellement en septembre et en octobre).

L’octobre doré du 16 octobre 2016, généré par un puissant anticyclone sur l’est de l’Europe et une dépression irlandaise.

Plus rarement, le beau temps en automne peut aussi survenir par situation de blocage High over Low comme on dit dans le jargon, lorsqu’un puissant anticyclone s’établit au nord de nos régions et que les dépressions restent bloquées sur la Méditerranée. Le flux est alors très sec, venant de l’est. Toutefois, ce type de configuration n’apporte de la chaleur que jusque la mi-octobre grosso modo. Après, l’anticyclone nordique ainsi établi a tendance à pomper l’air froid qui s’installe classiquement sur la Russie et la Scandinavie, tandis que les nuits dégagées de plus en plus longues favorisent un refroidissement nocturne de plus en plus important.

Pourquoi cette attention si forte au beau temps en automne?

Assez classiquement, l’automne est une saison peu agréable dans l’imagaire des gens. Toutefois, comme toutes les autres saisons, elle a ses hauts et ses bas. Les hauts, donc les épisodes de beau temps, sont donc particulièrement appréciés. La lumière douce, les couleurs et les températures agréables sont ainsi l’occasion des dernières activités extérieures avant l’arrivée de l’arrière saison.

L’importance de l’inversion de température dans le développement des orages

Il fait très chaud. Et en plus, l’humidité de l’air est lourde, insupportable. Vous vous dites qu’il faudrait un petit orage pour rafraîchir l’atmosphère et pouvoir passer une nuit tranquille. Les heures passent : 17h, 18h, 19h, 20h … Quelques nuages bas ou moyens se sont formés dans le ciel, mais rien de bien méchant. La température baisse à peine, et vous commencez à maudire le présentateur ou la présentatrice météo qui avait annoncé de l’orage. En réalité, les nuages que vous observez trahissent un phénomène à la fois assez connu et simple mais trop peu mentionné pour expliquer la situation que vous vivez : l’inversion de température ! Celle-ci est un des facteurs qui empêche le développement des orages et nous aimerions vous expliquer ici son importance, mais aussi montrer, à travers un cas réel, comment elle peut être vaincue.

Chacun sait que la température diminue théoriquement avec l’altitude, et ce d’environ 6° tous les 1000m. Ce n’est que vers 12-14 kilomètres qu’on arrive au sommet de la troposphère et que la température réaugmente. C’est d’ailleurs justement à cet endroit que les cumulo-nimbus sont stoppés par cette évolution positive de la température. Cependant, il arrive plus régulièrement qu’on ne le croit que l’évolution de la température soit aussi inversée dans les basses couches de l’atmosphère. Un cas classique est observé en hiver lorsque des hautes pressions plaquent l’air humide et froid au sol et forment des nuages bas. Ceux-ci rendent le temps des plaines extrêmement gris et déprimant alors que les sommets baignent dans le soleil. Et de fait, il peut faire 2° à Bruxelles, mais 10° à Elsenborn ! Un exemple a eu lieu le 9 janvier 2013 (rappelez-vous de cette sombre période où il n’y a pas eu une minute de soleil pendant de nombreux jours !) :

Un anticyclone d’hiver est bien positionné sur la France et plaque l’humidité au sol. De fait, puisque les hautes pressions sont constituées d’air chaud en altitude, le sondages de Trappes (près de Paris) est très éloquent :

Il montre clairement une baisse de la température jusqu’à environ 1000m (première flèche bleue) alors qu’elle réaugmente jusqu’à environ 1600m (flèche rouge), formant ainsi une inversion de température, phénomène couvercle qui plaquera donc l’humidité au sol, formant ces désagréables nuages bas. Mais revenons à nos orages …

Pour qu’un orage, donc un cumulo-nimbus, se forme, le profil de la température depuis le sol jusqu’à la limite de la troposphère doit enregistrer une tendance descendante, sinon l’ascension de l’air est bloquée, comme le montre ce schéma suivant :

De fait, la situation que vous avez observée, à savoir des nuages bas ou moyens qui n’ont pas pu se développer plus haut car bloqués par l’inversion de température est typiquement rencontrée dans ce schéma. Elle montre néanmoins que l’air des basses couches est humide. Un observateur attentif pourra aussi remarquer que ces nuages ont leur sommet situé plus ou moins tous à la même hauteur, trahissant la limite inférieur de l’inversion de température. Cette situation d’inversion durant les très chaudes journées d’été est plus courante qu’on ne le croit, encore une fois à cause de hautes pressions d’altitude bien constituées d’air chaud vers les couches moyennes de l’atmosphère. La preuve par le sondage de Trappes du 2 août 2013, plus chaude journée de cette année 2013 :

On voit bien que la température baisse normalement jusqu’à 1178m avant de réaugmenter jusqu’à 1300m. Il sera donc difficile pour les nuages d’avoir un développement de type cumulo-nimbus avec un profil vertical aussi peu favorable.

Les orages sont-ils donc impossibles par grosse chaleur ? Certainement pas … Comme chacun a pu le constater, des orages se développement malgré tout régulièrement quand il fait chaud, mais sont en général assez localisés. Il y a donc des facteurs qui permettent malgré tout de vaincre l’inversion de température. D’abord, le relief engendre des vents verticaux qui dépassent localement l’inversion. Ensuite, un simple front froid qui modifie la structure verticale de l’atmosphère, ou l’approche du courant Jet qui aspire les vents vers la haute atmosphère. Ou encore un puissant échauffement des basses couches de telle manière que celles-ci deviennent plus chaudes que les couches moyennes où se situent l’inversion et engendrent donc un profil vertical classique avec une température décroissante jusqu’au sommet de la tropopause. Nous aimerions brièvement vous parler d’un cinquième facteur qui est la ligne de convergence.

Dans notre bulletin du 16 juin, nous avions pu expliquer ce qu’est une ligne de convergence : c’est une limite où les vents convergent car ils y changent de direction. Elle peut se former notamment par le développement d’une petite dépression thermique (appelée dans le jargon méso-dépression) :

On peut aisément comprendre qu’une convergence des vents les oblige à s’élever brutalement à une limite bien précise, que la vitesse de l’ascension qui en résulte peut vaincre l’inversion-couvercle et produire alors des orages sur cette limite. A travers un cas bien précis, nous aimerions encore être plus explicites. Revenons presque 2 ans en arrière, le 10 septembre 2011.

Ce jour-là, il a fait chaud comme le montre cette carte :

27° sur Bruxelles ont été enregistrés. Sur la France, il fait même plus de 30°. Une ligne de convergence s’est formée depuis la Normandie, la région Centre, le Limousin, et l’Aquitaine. A l’Est de cette limite, les vents sont orientés au Sud; à l’Ouest de cette limite, ils sont orientés au Sud-Ouest.

En se rapprochant de la Belgique, on constate qu’en plus de cette ligne de convergence s’est formée une brise de mer du fait de la différence de température entre la terre et la mer :

La brise de mer est cette ligne bleu foncé parallèle à la côte alors que la ligne de convergence est la ligne en cyan. Ce parallélisme est évidemment dû à la caractéristique même de la brise de mer : elle souffle perpendiculairement à la côte et son front suit donc la limite côtière. Un élément capital ici sera la géographie locale. En effet, à hauteur de Dieppe, la côte est orientée SSO, et le front de brise de mer ne fait que suivre la ligne de convergence; mais arrivé à Calais, le front va s’adapter à la géographie locale et plus s’orienter au SO :

A hauteur de Hazebrouck, la situation est telle que les 2 limites, à savoir la ligne de convergence et le front de brise de mer se rejoignent :

A cet endroit-là se produit un élément important : nous aurons non pas une simple convergence des vents mais une double convergence des vents avec une tri-partition de leur orientation : Sud à Lille, Sud-Ouest à Amiens, Ouest à Dunkerque. Cette forte convergence permettra un soulèvement explosif de la masse d’air qui vaincra l’inversion de température très présente ce jour-là :

Dès lors, malgré ces conditions peu favorables pour ce qui est du profil vertical de la température, la géographie locale du Nord-Pas-De-Calais permettra de produire un orage de type supercellulaire largement immortalisé par notre partenaire Belgorage :

Nous avons donc là un exemple type d’une inversion bien présente vaincue par une puissante convergence en grande partie liée à la géographie du Nord de la France et de l’Ouest de la Belgique. Notons donc au passage que la présence d’une ligne de convergence dans ces parages et/ou d’un front de brise de mer ne sont donc pas dûs au hasard et que cette zone est donc assez sensible pour le développement de puissants orages de type supercellulaire. Emportés essentiellement par un vent d’altitude orienté au SO, ils frappent des régions allant de Courtrai, Est de Gand à la région anversoise, formant un couloir appelé communément « Allée des tornades belge« .

Insistons aussi sur d’autres points : ce soulèvement explosif se joue véritablement sur des détails très difficiles à prévoir : la vitesse de la convergence et l’orientation des vents. Une déviation de quelques degrés des vents ou une baisse de leur intensité peuvent annihiler toute tentative de dépassement de l’inversion. De même, une couche d’inversion plus épaisse de 50m ou une température de 0.5° plus élevée que prévu auront les mêmes conséquences. Il est évident que même les supercalculateurs météorologiques les plus puissants ne savent pas appréhender de telles situation locales, et cela explique donc bien des choses dans les « flops orageux » !

Il est aussi important de signaler que l’inversion de température est un facteur inhibitif pour le développement des orages, mais aussi stimulateur pour le développement de supercellules. En effet, si l’inversion est inexistante, toute l’énergie de la masse d’air est plus ou moins également répartie sur un territoire assez vaste, est donc déconcentrée, et ne produit donc pas a priori de puissants orages. A contrario, la présence d’une inversion bloque l’énergie au sol, mais si celle-ci est libérée, elle se concentre en un point et participe à un développement explosif tel qu’observé dans la video de Belgorage.

Nous avons donc là une réponse aux interrogations de nombreuses personnes qui ne comprennent pas pourquoi les orages n’ont pas frappé leur région : l’inversion de température a empêché les développements orageux et seuls quelques endroits du pays, placés dans des conditions locales particulières très difficiles (voire impossibles) à prévoir ont pu observer des orages, parfois violents. L’équation chaleur+humidité+changement de temps n’est donc pas toujours garante d’orages. De micro-détails peuvent tout faire capoter et c’est probablement là ce qu’il y a de plus beau (et de plus frustrant) dans les orages !

Remerciements particuliers à Belgorage pour certaines cartes.
Autres sources : Wetterzentrale et University of Wyoming 

Sur tous les fronts

Cet article fait suite à celui publié il y a quelques jours au sujet des anticyclones et des dépressions, puisqu’il s’agit de deux séries de phénomènes fortement liés. Il explique les différents mécanismes menant à la formation de ces fronts. Par front, il faut entendre une limite, plus ou moins nette, entre deux masses d’air de températures différentes. La température utilisée pour distinguer ces masses n’est pas la température que mesure nos thermomètres, mais une température fictive que l’on appelle température potentielle équivalenteOn l’obtient en imaginant une condensation totale de toute l’humidité de l’air, qui dégage de la chaleur. Cette température est donc très élevée (autour de 60°C), mais rappelons-le, elle n’est que théorique (heureusement, d’ailleurs).

Les fronts marquent des perturbations. L’image ci-dessous vous illustre la gamme d’éléments d’une perturbation complète pilotée par une dépression (cercle bleu avec un D) et à travers lesquels nous avons représenté des coupes (lignes noires). Les flèches représentent la direction du vent. Nous allons vous expliquer brièvement les différents termes.

Front chaud

Il désigne un front par lequel une masse d’air plus chaude bouscule une masse d’air plus froide située devant lui. Pour diverses raisons d’ordre dynamique que nous n’expliquerons pas ici, l’air chaud a tendance à passer par-dessus l’air froid, de telle sorte que la limite entre ces masses d’air est oblique, avec une altitude augmentant au fur et à mesure que l’on s’éloigne à l’avant du front. Ainsi, si nous réalisons une coupe horizontale à travers le front chaud en suivant la ligne A dans la première image, nous obtenons ceci:

Le front chaud s’accompagne de différents types de nuages. Un observateur sur la trajectoire du front verra progressivement le ciel se voiler de cirrus, puis de cirrostratus, puis d’altostratus et enfin, de stratus et nimbostratus porteurs de pluies longues mais régulières en hiver, passant souvent inaperçues en été. Le front chaud est souvent stable, d’où les nuages stratiformes venant d’être cités. Cependant, il existe des cas en été où le front chaud est instable: il peut ainsi donner naissance à des cumulonimbus, et donc à des orages.Front froid

Le front froid est l’inverse du front chaud: il se forme à la limite entre une masse d’air froid déboulant derrière une masse d’air plus chaud. L’air froid, toujours pour des raisons dynamiques, a tendance à vouloir passer sous l’air chaud. La limite entre ces deux masses d’air et plus abrupte, plus verticale, expliquant pourquoi les précipitations sont moins longues mais plus intenses que dans le cas d’un front chaud. Si nous réalisons, selon B, une coupe à travers un front froid, nous obtenons ceci:

Un observateur placé sur la trajectoire d’un front froid verra ainsi arriver assez brutalement des masses nuageuses cumuliformes, parfois précédées de quelques altostratus. En été, le front froid peut-être le siège d’orages, mais ceux-ci tendent le plus souvent à se former à quelques centaines de kilomètres au devant du front (nous le verrons plus loin). Front occlus

Suite à différentes propriétés dynamiques, l’air froid s’écoule plus vite dans l’air chaud que l’inverse. Il a plus de facilités à déloger de l’air plus chaud et à le forcer à s’élever. Dès lors, un front froid avance plus vite qu’un front chaud. Or, ces deux fronts font souvent partie de la même perturbation et sont liés à la même dépression née à leur jonction. Il vient un moment où le front froid finit par rejoindre le front chaud. Au sol, la transition se fait entre deux masses d’air froid, dominées en altitude par un coin d’air chaud qui se trouvait entre le front chaud et le front froid avant ce qu’on appelle l’occlusion, soit la fusion des deux fronts. Le front occlus ainsi formé est souvent accompagné de pluies continues et intenses en hiver, voir même de neige. En été, il peut se révéler être orageux. Si nous réalisons une coupe selon la ligne C, nous obtenons ceci:

Front de surface et front d’altitude

A l’instar des dépressions et des anticyclones, il existe des fronts qui ne se marquent pas sur toute la hauteur de la troposphère. Certains ne sont présents que dans les premières centaines de mètres, ou premiers kilomètres de l’atmosphère. D’autres ne touchent pas le sol: le changement de masses d’air se fait en altitude, bien que les effets (pluies, orages, neige) puissent se ressentir par tout un chacun sur le plancher des vaches. Au sol, le changement de température, et plus précisément de température potentielle équivalente, sera imperceptible dans le cas de ces fronts d’altitude. L’image ci-dessous représente une coupe, selon la ligne D, à travers un front froid d’altitude à droite, suivi par un front froid principal à gauche:

Front froid secondaire

Il sépare de l’air froid à l’avant d’un air encore plus froid à l’arrière. C’est pourquoi on ne le retrouve que dans la traîne, c’est-à-dire la zone froide d’averses et d’éclaircies s’étalant sur plusieurs centaines de kilomètres à l’arrière d’un front froid principal. Il est responsable d’averses parfois fortes mais plutôt brèves, pouvant être de neige en hiver, mais aussi d’orages locaux.

Ligne de convergence

Ce n’est pas un front à proprement parler, mais les effets sont assez proches. Il s’agit d’un axe le long duquel les vents convergent avant de s’élever. En été, on en retrouve presque toujours une ou plusieurs à l’avant d’un front froid. C’est sur de telles lignes que prennent place une grande partie des orages que nous connaissons.  Sources: Connaissances personnelles.
Toutes les illustrations ont été réalisées par Info Météo.

Dépressions et anticyclones, les maîtres du temps

Cet article reprend et explique différents termes – trop rarement expliqués – qu’il est possible d’entendre dans les bulletins météo télévisés ainsi que leurs implications. Il sera dès lors plus facile de comprendre ce que signifie toutes les appellations sur lesquelles s’interrogent les lecteurs.DépressionUne dépression est souvent comprise comme une zone où la pression est inférieure à 1015 hPa. Bien que l’on caractérise de conditions dépressionnaires de telles zones, cette définition ne correspond pas précisément à celle d’une dépression. Il s’agit d’un centre d’action présentant en son cœur une pression inférieure à celles que l’on retrouve sur ses abords. Dès lors, une valeur de 1020 hPa entourée de valeurs de 1025 hPa doit être considérée comme étant la pression au centre d’une dépression. Les dépressions sont des zones d’ascension des masses d’air. Ces dernières sont entraînées depuis le sol vers la haute troposphère. Cela est dû notamment au Jet-Stream dont le comportement instable peut forcer l’air à s’élever et ainsi abaisser la pression en surface. En réponse à cette baisse de pression, les masses d’air avoisinantes se dirigent vers la dépression dans un mouvement en spirale dans le sens contraire des aiguilles d’une montre. Ce comportement est dû à la pseudo-force de Coriolis qui dévie les masses d’air vers la droite dans l’hémisphère nord. L’air s’élevant dans ces zones, ce dernier se refroidit par détente adiabatique. Un air froid ne peut contenir qu’une plus faible quantité de vapeur d’eau qu’un air plus chaud. Au fur et à mesure du refroidissement, la proportion de vapeur d’eau dans une unité de volume d’air donnée augmente, non pas parce que la quantité d’eau augmente, mais bien à cause de la diminution de la capacité de stockage de la vapeur d’eau par cette masse d’air. Il arrive un moment où l’humidité relative, qui croissait au fur et à mesure que s’élevait l’air, atteint les 100%, et donc la saturation. C’est le point de condensation : l’air ne peut se refroidir davantage sans qu’une partie de la vapeur d’eau ne se transforme en eau liquide ou en glace. C’est ainsi que se forment les nuages, qui donneront par la suite naissance aux précipitations. Le schéma ci-dessous fait le résumé des phénomènes survenant dans une dépression 

 Il existe deux types de dépressions: – Les dépressions dynamiques, qui sont les plus larges. Sur les images satellites, elles sont repérables par l’enroulement nuageux qui se fait autour d’elles, suite à la rotation des vents et courants déjà explicitée plus haut. Dans nos régions, ces dépressions ont tendance à être en moyenne plus puissantes de novembre à mars, mois durant lesquels elles peuvent apporter de forts épisodes pluvieux mais aussi des tempêtes. Ces dépressions se forment toujours au départ du front polaire sous nos latitudes. Ce front sépare les masses d’air à tendance tropicale des masses d’air à tendance polaire. Elles interagissent souvent avec le Jet-Stream qui se localise dans les parages du front polaire, provoquant un appel d’air depuis les basses couches de la troposphère. La présence des dépressions dynamiques se note en temps normal à tous les étages de cette troposphère. – Les dépressions thermiques, plus restreintes, se forment sur les continents entre mai et septembre. Lorsque le soleil brille, il réchauffe l’air à proximité du sol, tandis que les masses d’air situées plus haut en altitude restent plus fraîches. L’air chaud de la surface se dilate, et étant plus léger que l’air environnant, s’élève. Un appel d’air se se crée ainsi dans les basses couches de l’atmosphère. Au contraire des dépressions synoptiques, les dépressions thermiques se forment sans front et ne se notent que dans les basses couches de la troposphère. Si les conditions le permettent, elles sont le siège d’orages très organisés. Elles accompagnent ainsi régulièrement les MCS qui traversent la Belgique chaque été. Aux latitudes tropicales, ce type de dépression peut apparaître au-dessus de la mer et, si elle se renforce, mener à la formation d’un cyclone tropical. À noter qu’il existe aussi des spécimens hybrides, présentant des caractéristiques propres aux deux types énoncés ci-dessus. Les dépressions ont des tailles très différentes: les plus grandes se rencontrent dans les grands systèmes à hautes latitudes où elles peuvent couvrir 1000 à 2000 km de diamètre. Les plus petites ne peuvent faire que quelques mètres de large, et se rencontrent au sein des tornades. Les dépressions ont souvent une forme plus ou moins elliptique, voire circulaire. Dans certains cas, elles peuvent être vastes et difformes, avec plusieurs noyaux dépressionnaires au sein de la même structure, on parle alors de champ dépressionnaire. Ces dépressions peuvent aussi présenter des extensions nommées thalwegAnticycloneA l’instar des dépressions, les anticyclones étaient souvent qualifiés par des pressions supérieures à 1015 hPa. Cela n’est vrai que si l’on parle de conditions anticycloniques. Un anticyclone doit être considéré comme tout pic de pression entouré de valeurs moins élevées. Ainsi, une pression de 1010 hPa entourée de valeurs de 1005 hPa doit être considérée comme la valeur de pression au centre d’un anticyclone.  Dans les anticyclones, et à l’inverse des dépressions, l’air descend depuis la haute atmosphère dans un mouvement de spirale puis, arrivé du sol, s’en éloigne toujours en tournant, mais dans le sens des aiguilles d’une montre cette fois. On associe toujours anticyclone et beau temps, mais cela n’est pas toujours le cas. Cela l’est effectivement au printemps, en été et au début de l’automne (et encore, pas toujours: nous le verrons plus loin). Rappelons qu’un air chaud peut contenir davantage d’humidité qu’un air froid. Or, l’air qui commence à descendre depuis plusieurs kilomètres d’altitude au niveau d’un anticyclone ne contient que peu d’eau. En descendant, l’air se réchauffe par compression adiabatique. À quantité d’eau constante, l’humidité relative de l’air va donc diminuer, éloignant ainsi la masse d’air du point de condensation, c’est-à-dire celui de la formation des nuages. Deuxièmement, les courants descendants s’opposent ainsi à toute élévation de l’air. Cela explique pourquoi il fait beau au sein des anticyclones à la bonne saison. Le schéma ci-dessous fait la synthèse de ce qui vient d’être dit. 

  Durant l’arrière-saison, la situation est quelque peu différente. A moyenne et haute altitude, le schéma est cependant semblable à ce qui vient d’être expliqué. Dans les premières centaines de mètres de l’atmosphère, la situation est bien différente. Durant les nuits d’hiver et sous un ciel étoilé, le sol et, par conduction, les premières couches de l’atmosphère se refroidissent fortement. Ce refroidissement vient buter contre de l’air plus doux qui descend au sein de l’anticyclone. Quoiqu’il en soit, les températures de ces deux masses d’air, bien que différentes, sont toutes les deux bien inférieures à ce que l’on peut avoir en été. Et puisqu’un air froid ne peut contenir que moins d’humidité qu’un air chaud, l’air chaud descendant va brutalement se retrouver refroidi, menant fréquemment (et ce plus souvent qu’en été) à la saturation en vapeur d’eau de l’air, donc à la condensation et à la formation de nuages. C’est ici que deux phénomènes antagonistes se produisent: d’une part, les nuages absorbent une bonne partie de la lumière solaire. Cela provoque un échauffement de ces nuages, qui permet ainsi d’entretenir l’air chaud de la moyenne altitude. A l’inverse, par dessous la couverture nuageuse, le manque de lumière ne parvient pas à réchauffer l’air. Pire encore, si un faible courant d’est ou de nord-est amène de l’air froid, la couche va rester en état d’inertie thermique. Sa température ne changera pas d’un iota tant que l’anticyclone ne se déplacera pas. C’est ainsi que nous pouvons nous retrouver avec de la grisaille et du brouillard persistant durant des jours, alors que la température reste sensiblement la même, de jour comme de nuit. Ce phénomène est connu sous le nom d’inversion thermique. Tout cela est très théorique. La réalité est un peu plus compliquée. Plus que pour une dépression, le positionnement d’un anticyclone par rapport à la région qui va subir son effet est très important. Prenons l’exemple de Bruxelles. L’image ci-dessous présente deux situations très différentes.  

  Comme pour les dépressions, il existe des anticyclones dynamiques et des anticyclones thermiques: – Les anticyclones dynamiques se forment là où prennent place des descentes de masses d’air, au niveau de la branche descendante de la cellule dite de Hadley. Les cellules de l’atmosphère feront l’objet d’un prochain article, retenez juste que l’anticyclone dynamique prend place sur la branche descendante de cette cellule. Leur présence se note en temps normal à tous les étages de l’atmosphère. Ce sont les anticyclones les plus courants dans nos régions. Le fameux anticyclone des Açores, hyper déterminant sur notre temps ouest-européen, en est un. – Les anticyclones thermiques ne se notent que dans les basses couches de la troposphère. Ils résultent du compactage d’un air très froid, plus dense que l’air environnant, près du sol. Cela provoque une surpression locale. Ces anticyclones sont très fréquents dans les régions arctiques et antarctiques couvertes de glace, mais il arrive d’en observer dans nos régions durant les grandes vagues de froid d’hiver. Comme pour les dépressions, il existent des anticyclones hybrides. Certaines hautes pressions polaires ont une origine à la fois dynamique et thermique. La taille des anticyclones est très variable. Ils peuvent s’étendre sur plus de 3000 km de long, ou au contraire être de taille très réduite, quelques kilomètres, comme cela s’observe sous les pluies violentes des orages. A l’instar des dépressions, ils peuvent présenter des extensions appelées dorsales ou crêtes anticycloniques. Une jonction entre deux anticyclones porte le nom de col anticycloniqueMarais barométriqueLe marais barométrique désigne une zone au sein de laquelle les pressions ne varient que très peu sur de grandes distances. Il se rencontre souvent en été et par temps chaud sur les continents, et ce compris en Europe. Les pressions présentées au sein de ces marais se trouvent très souvent dans une fourchette allant de 1010 à 1020 hPa. Si ces pressions sont supérieures à 1015 hPa, on parle de marais anticyclonique. Si elles sont inférieures, on parle de marais dépressionnaire. C’est souvent dans ce deuxième type de marais que l’on va retrouver le temps lourd, chaud et orageux qui survient parfois avant le passage d’un front orageux. Anticyclones et dépressions d’altitude

Si nous avons utilisé la formulation « en temps normal » pour désigner l’extension verticale des systèmes dynamiques au sein de la troposphère, c’est bien parce qu’il existe des spécimens qui ne présentent pas cette caractéristique. Ce sont des systèmes dits d’altitude. Pour être simple, tous les termes que vous venez de voir peuvent être transposés en altitude, à l’exception toutefois des systèmes thermiques qui se trouvent toujours près du sol. Dès lors, il est possible d’avoir une dépression d’altitude, une dorsale d’altitude… Ces systèmes ne se marquent pas au niveau du sol. Il arrive certaines situations où un système au sol est relayé en altitude par son opposé. Ainsi, les anticyclones thermiques des pôles sont situés sous une énorme dépression d’altitude nommée le vortex polaire (système hybride, à la fois dynamique et thermique). A l’inverse, des dépressions de surface (et très souvent une dépression thermique) peut être relayée en altitude par un anticyclone. C’est le cas des cyclones tropicaux par exemple.

Une considération importante est à mettre en exergue. Sous nos latitudes et à altitude égale, un anticyclone sera rempli d’air plus chaud que son environnement, tandis qu’une dépression contiendra de l’air plus froid. Il existe cependant des dépressions à cœur chaud, mais elles sont plus rares, c’est pourquoi nous ne nous attarderons pas dessus dans cet article.

Goutte froide et bulle chaude sont deux termes utilisés pour employer successivement une dépression d’altitude fermée et un anticyclone d’altitude fermé. Leur circulation se coupe complètement de la zone à partir de laquelle ils prennent naissance. Ils peuvent cependant prendre naissance d’eux-mêmes, à l’écart de la zone de circulation générale. Ces deux systèmes ne sont guère appréciés des météorologues car ils ont leur mouvement propre, ont une grande inertie et leur prévision est difficile. Le schéma ci-dessous vous présente la formation d’une goutte froide par isolement à partir du vortex polaire (air froid), au sein de masses plus anticycloniques (air chaud). Plus d’infos sur les gouttes froides: ICI

La vergence ouest des systèmes dynamiques avec l’altitude
Une dernière grande caractéristique des dépressions et anticyclones dynamiques est le fait que l’édifice n’est pas absolument vertical. On constate qu’il est de plus en plus décalé vers l’ouest avec l’altitude. En d’autres termes et par rapport à la circulation générale d’ouest en est de l’hémisphère nord par exemple, la section d’altitude des systèmes aura toujours un temps de retard par rapport à la section des basses couches de l’atmosphère.

Le rôle prépondérant du Jet-StreamLe courant Jet joue un rôle majeur dans la formation et le comportement de tous les systèmes venant d’être cités. Ses ondulations peuvent entraîner la création de dorsales anticycloniques vers les hautes latitudes, et au contraire, favoriser la descente de thalwegs vers les basses latitudes, allant jusqu’à isoler des gouttes froides ou des bulles chaudes. Il est aussi capable de renforcer les dépressions, les transformant ainsi en de puissantes tempêtes.Toutes les illustrations ont été réalisées par Info Météo.

Comprendre la notion d’extrêmes

Avec le réchauffement climatique vient tout naturellement la notion d’extrême. Comment les écarts à la moyenne climatologique sont-ils évalués ? Comment le réchauffement climatique affecte-t-il les extrêmes ? Existe-t-il déjà une tendance en ce qui concerne la survenue des événements extrêmes ? Autant de question auxquelles cet article tentera de répondre.

Aléas, vulnérabilité, risque

L’un des arguments des négateurs du réchauffement climatique ou de sa gravité est de dire que les gens vivent bien à Miami ou sous n’importe quel autre climat chaud. Donc, le réchauffement climatique n’est pas préjudiciable. L’affirmation est erroné à partir du « donc ». En effet, elle n’est pas généralisable aussi facilement. Certes oui, les humains vivent sous des climats très variés. Pour autant, l’être humain s’est adapté spécifiquement à chacun des climats où il s’est implanté par un ensemble d’infrastructures. Et donc les équipements à Bruxelles ne sont pas les mêmes que les équipements à Miami ou même à Marseille. Dans la gestion des risques naturels, le concept de base est simple. Le risque émerge de la conjonction d’un événement rare, nommé l’aléa ; et des enjeux humains, la vulnérabilité. Prenons par exemple un tremblement de terre. Le séisme sera considéré comme un aléa. Pour autant, s’il se produit dans une région qui n’est pas peuplée, il n’y a aucun risque, parce que qu’il n’y a pas d’enjeux humains considérés vulnérables. De même, si une centrale nucléaire, vulnérable, est installée dans une région non sismique, il n’y pas de risque. C’est lorsque l’aléa rencontre la vulnérabilité qu’apparaît le risque.  

Dans les différentes régions du monde, la vulnérabilité des enjeux humains est donc minimisée en fonction des aléas locaux. Ou plus simplement, Bruxelles n’est pas équipé pour endurer un séisme de magnitude 8.0 ou une canicule à 45°C pendant 5 jours.La réponse commune est alors qu’il suffira de s’adapter au réchauffement climatique. Si l’adaptation sera en effet, par la force des choses, une solution, il n’en reste pas moins qu’elle coûte cher, bien plus cher que lutter contre les émissions de gaz à effet de serre, et n’est pas toujours satisfaisante. D’autant que l’agriculture est un secteur particulièrement vulnérable, et qui supporte mal les excès du climat.Dans ce billet, nous allons donc nous attacher à expliquer un peu comment est défini l’aléa climatique et son évolution avec le changement climatique.

Événement extrême, événement anodin ? Classiquement, et trivialement, l’aléa météorologique est caractérisé par l’intensité d’un phénomène, comme une température excessivement chaude ou froide pour la saison, qui ne se produit qu’une fois tous les « pas souvent ». Il existe plusieurs seuils, les plus courants sont une fois tous les 30 ans ou moins ; une fois tous les 50 ans ou moins, voire une fois tous les 100 ans ou moins. Notons que l’aléa sismique est défini de manière analogue puisqu’il est défini par rapport à la probabilité d’atteindre une certaine intensité sismique, sur un laps de temps de 50 ans ou 100 ans.L’Institut Royal de Météorologie par exemple définit un phénomène exceptionnel comme étant égalé ou dépassé tout les 30 ans. Et un phénomène très exceptionnel comme étant égalé ou dépassé tout les 100 ans.Ce que nous venons de définir ici est la fréquence d’apparition. Si nous prenons l’inverse de la fréquence, nous trouvons la probabilité. Ainsi, un phénomène exceptionnel au sens de l’IRM, a une probabilité de survenue de 3.3% une année donnée. Et un phénomène très exceptionnel, une probabilité de 1%.Regardons un exemple pour mieux comprendre. Prenons la température moyenne du mois de Juillet depuis 1833 à Uccle. Les mois de Juillet ont une température moyenne (tenant compte des minimas nocturnes et des maximas diurnes) de 16°C à 18°C, et les extrêmes vont de 13.4°C en 1841 (un vrai mois pourri pour le coup…) à 23°C en 2006. Nous pouvons représenter le nombre de fois qu’apparaît dans la série des 181 mois de Juillet, un certain seuil de température.

L’attribut alt de cette image est vide, son nom de fichier est 1.jpg.
Nombre des mois de Juillet avec une température donnée

  Le graphique précédent se lit ainsi : Il n’y a aucun mois de Juillet qui a une température de 13°C ou moins, 2 mois de Juillet qui ont eu une température de 13.5°C ou moins (1841 avec 13.4°C et 1919 avec 13.5°C), et ainsi de suite jusqu’au seuil 23°C, la valeur la plus forte atteinte en Belgique.On remarque que les points bleus suivent approximativement une courbe en cloche. C’est une caractéristique qui se retrouve dans de nombreux phénomènes physiques et biologiques. Ainsi, on peut tracer le modèle théorique de distribution des températures, qui est nommé « loi normale ». C’est la courbe en rouge. On remarque que la plupart des mois de Juillet sont groupés autour de la moyenne, entre 16°C et 18°C, et il y a très peu de mois de Juillet loin de cette moyenne.Nous pouvons faire de même pour d’autres mois, par exemple le mois de Mars. En Mars, la valeur la plus faible est de -1.6°C en 1844. La valeur la plus élevée est de 9.5°C en 1956 et 1990. 

Nombre des mois de Mars avec une température donnée

De même, on remarque que la plupart des valeurs sont groupés près de la moyenne, et qu’il apparaît quelques valeurs extrêmes.Pour autant, les valeurs de Mars et de Juillet semblent difficilement comparable au premier abord. Si 9°C est une valeur déjà très chaude pour Mars, avoir 9°C en Juillet est impensable.La courbe pour le mois de Mars apparaît ainsi plus large que la courbe pour le mois de Juillet. On dit que la variance en Mars est plus élevée. Ou plus simplement, que le climat est plus variable en Mars qu’en Juillet. De même, la courbe est centrée autour de 6°C, un bon 10°C en dessous de la valeur moyenne de Juillet. En effet, en Mars il fait plus froid qu’en Juillet…   Nous pouvons bien-sûr établir des seuils qui sont franchis une fois tous les « pas souvent » pour chaque série. C’est ce que fait l’IRM par exemple, comme nous le disions. Ainsi, sur l’ancienne période de référence de l’IRM Note 1, un mois de Mars très anormalement chaud a une température de 7.6°C ou plus, et un mois de Mars très exceptionnellement chaud de 8.6°C ou plus. Il en est de même pour Juillet. Un mois très anormalement chaud aura une température d’au moins 18.4°C, et un mois très exceptionnellement chaud aura une température d’au moins 19.7°C. Cette approche est cependant limitée car elle n’est pas assez générale pour des études systématiques. Pour généraliser la comparaison des valeurs du mois de Janvier et du mois de Juillet, on va exprimer la position de chacune des valeurs par rapport à la courbe en cloche de référence pour chaque mois. On dit qu’on va « normaliser » les valeurs. Il est alors introduit la notion de sigma. Une valeur normalisée est exprimée en sigma (en anglais on parle aussi de Standard Deviation, d’où l’abréviation SD). On peut montrer que les valeurs sont sans unité et prennent des valeurs de -3 sigmas à 3 sigmas Note 2.

.Plus spécifiquement, la majorité des valeurs se trouve entre -1 sigma et +1 sigma. On peut montrer qu’environ 68% des valeurs est entre -1 sigma et 1 sigma. Entre -2 sigmas et 2 sigma, se trouve pratiquement toutes les valeurs, soit environ 95%. Au delà de 1.5 sigmas ou 2 sigmas, on considère généralement qu’on a affaire à un événement extrême. Enfin, toutes les valeurs sont censés se trouver entre -3 sigmas et 3 sigmas. Une valeur en dehors de cet intervalle ne se produit que tous les 400 ans ou moins.Nous pouvons alors comparer les valeurs des mois de Mars et des mois de Juillet :

Déviation standardisé de la température moyenne mensuelle de Mars et Juillet
Évolution de température standardisé pour Mars et Juillet de 1833 à 2013 

Nous voyons ainsi que le mois de Mars 1845, avec un écart négatif de 3.5 sigmas, n’a pas d’équivalent en Juillet, où le plus fort écart est -2.2 sigmas en 1841. Pour le divertissement, on peut se dire que si un mois de Juillet avait pu tomber à -3.5 sigmas, la température aurait été de 11.2°C. Un peu frais… Cela reste cependant purement théorique évidemment, et il n’existe pas nécessairement de situation météorologique à même de générer un tel extrême. De même dans l’autre sens, le mois de Juillet 2006 présente une déviation de 3.7 sigmas. Pour les mois de Mars, la plus forte déviation est +2.1 sigmas en 1991. Il est de plus notable que les événements frais se sont fait particulièrement rare, le seuil de -1 sigma n’étant pratiquement plus franchi. Cela permet aussi de comparer à des données d’ailleurs dans le monde. Par exemple, Moscou a une série de températures très ancienne, qui remonte à 1820. Moscou a un climat continental, c’est-à-dire qu’il est sujet à des variations de températures bien plus importantes qu’en Belgique. C’est particulièrement visible en hiver, avec par exemple le plus froid Janvier à -21.6°C et le plus chaud Janvier à -1.6°C. Cela est valable aussi en Été, puisque le plus chaud Juillet est à 26.1°C, et le plus fois Juillet à 14.6°C. Une belle différence… Là encore, les données ne sont donc pas directement comparables. En normalisant les données de Moscou, nous pouvons surmonter cette difficulté. Il apparaît alors par exemple que, en Juillet 2010, la Russie a connu une canicule sans précédent. Si on considère l’écart en sigma de Juillet 2010 à Moscou, nous arrivons à une valeur extraordinaire de +4 sigmas.C’est à partir de cette normalisation que les scientifiques peuvent étudier des phénomènes qui ne sont pas directement comparables.Cette image de Wikipedia résume cela :

La courbe en cloche classique. Source : http://en.wikipedia.org/wiki/File:Standard_deviation_diagram.svg

Il s’agit de la loi normale centrée réduite. Ou dit autrement, la courbe de référence. Lorsque des données ont été normalisées, elles peuvent se projetter sur cette courbe. Pour n’importe quel ensemble de données, on peut normaliser chacune de ses valeurs. Notons cependant que pour autant, un modèle avec une courbe en cloche n’est pas toujours pertinent. Il existe d’autres modèles statistiques qui peuvent être plus adaptés suivant les situations. De même, la notion de sigma et de courbe en cloche n’est nullement spécifique à la climatologie. C’est une méthode qui se retrouve dans nombre de disciplines scientifiques et plus particulièrement la biologie.

Tendance récente des extrêmesDe multiples articles scientifiques ont depuis quelques années montré que les événements extrêmes devenaient de plus en plus fréquents. Cette animation montre la distribution des températures exprimés en sigma à la surface de la Terre entière depuis 1951. Petite particularité, la zone grise est comprise entre -0.43 sigma et + 0.43 sigma. On peut voir qu’au fil du temps, la courbe en cloche glisse vers des valeurs plus élevées.


 Source : http://svs.gsfc.nasa.gov/vis/a000000/a003900/a003975/L’animation est en fait une adaptation d’une étude de J. Hansen et M. Sato : http://arxiv.org/ftp/arxiv/papers/1204/1204.1286.pdf qui analyse un ensemble de statistiques au sujet de l’évolution des températures.Une approche classique est de calculer la fraction de la superficie de la Terre affecté par des températures dépassant un certain seuil, souvent 2 et 3 sigmas. L’étude de J. Hansen et M. Sato donne ainsi des courbes qui montrent à quel point l’occurrence de températures extrêmes devient récurrente :

Pourcentage des terres émergées concernaient par un événement chaud (plus de 0.43 sigma, en orangé), un événement très chaud (plus de 2 sigmas, en rouge) et extrêmement chaud (plus de 3 sigmas, en bordeaux). Source : http://arxiv.org/ftp/arxiv/papers/1204/1204.1286.pdf

Pour comparer, une autre étude de D. Coumou et A. Robinson qui vient de sortir donne ces valeurs :

Source : http://iopscience.iop.org/1748-9326/8/3/034018/pdf/1748-9326_8_3_034018.pdf

Les deux courbes ne sont pas exactement comparable. L’étude de J. Hansen et M. Sato regardent le pourcentage des terres émergés concernés par un événement extrême en Été seulement. Alors que l’étude de D. Coumou et A. Robinson regarde ce pourcentage pour tout les mois et l’ensemble de la terre. Pour autant, les courbes sont sensiblement les mêmes, et confirment que les extrêmes chauds deviennent courant.

Deux conclusions de l’étude de J. Hansen et M. Sato nous semblent importantes, et nous terminerons notre propos avec ces deux points.D’une part, la moyenne se décale vers des valeurs plus élevées, ce qui est tout à fait logique dans un contexte de réchauffement. Pour autant, la courbe tend également à s’élargir. La variance des températures augmentent ainsi avec le temps. Ou, dit à peine autrement, le climat est de plus en plus variable. Cela signifie plus clairement que des événements extrêmement froids restent possibles même dans un contexte de réchauffement. Fait illustré par exemple par l’Hiver 2009/2010 qui a été glacial pour une bonne partie de l’Hémisphère Nord. C’est un des paradoxe du réchauffement. Cela peut sembler totalement contre intuitif, mais le réchauffement peut aussi provoquer des vagues de froid. Mais dans l’ensemble, la dérive vers des températures de plus en plus chaudes est évidente.
D’autre part, la conclusion de l’étude met sans ambiguïté en évidence le lien entre cette multiplication des extrêmes et le réchauffement climatique. Lorsqu’une canicule ou une sécheresse se produit, il est souvent dit qu’un événement unique n’est pas attribuable à l’évolution plus générale du climat, et que les causes de l’événement sont météorologiques. L’étude précise cependant cette affirmation. Ce n’est pas l’occurrence d’un événement extrême qui est régi par la météo, mais sa survenu en un lieu particulier de la planète.
Ainsi, il n’y a par exemple pas de doutes à avoir sur le fait que la période des 12 mois allant de Juillet 2006 à Juin 2007, où les températures ont enchaîné les records, soit en partie la cause du réchauffement. De même pour la canicule hors norme qu’a connu la Russie en 2010, ou les USA en 2012.Nous le disions au début de ce développement, le risque est lié à la rencontre entre des extrêmes ( l’aléa ) et des enjeux ( vulnérabilité ). Si les extrêmes deviennent plus fréquents, tant dans le chaud que dans le froid, l’adaptation de nos sociétés au changement climatique s’annonce particulièrement délicat.

1. L’IRM utilise dans ses communications la nouvelle période de référence 1981 – 2010, mais garde accessible son ancienne période de référence 1833 – 1980 sur Internet. Nous retenons ici l’ancienne période de référence pour la réponse très prosaïque qu’un phénomène très exceptionnel est un événement qui se produit tout les 100 ans ou moins. Définir un tel phénomène sur une période de seulement 30 ans (de 1981 à 2010 en l’occurrence) est délicat, et nous préférons exploiter pleinement l’avantage que nous avons à avoir une série de données couvrant plus de 180 ans. 

2. D’un point de vue mathématique, normaliser des valeurs est en fait aisé. Considérons un jeu de données, par exemple la températures des 181 mois de Juillet, depuis 1833 donc. Il suffit de retirer à chaque donnée individuellement la moyenne de la série, et de diviser le tout par l’écart type de la série. Pour les mois de Juillet depuis 1833, la moyenne est de 16,92°C et l’écart type de 1,63°C. Le mois de Juillet 2013 a terminé à 20,2°C et donc sa valeur normalisé est de 2.02 sigmas.

Le Heat Burst ou Rafale de Chaleur

 de infometeo

Mise en contexte avec un exemple fiction

Imaginez-vous, en fin de soirée. Après une chaude et lourde journée d’été, vous avez décidé de sortir vous promener durant une bonne heure, afin de profiter d’une atmosphère redevenue un peu plus supportable. Bon observateur que vous êtes, vous avez pris soin de regarder la température affichée par le thermomètre accroché au mur de votre maison: 23°C. Bien agréable pour une bonne balade! Vous voici donc parti, déambulant dans votre village. Vous marchez le long de la route en profitant du calme. Néanmoins, vous remarquez quelques éclairs espacés à plusieurs kilomètres de vous. Pas étonnant, vu le temps légèrement lourd qui subsiste. Vous levez les yeux au ciel: manifestement, il s’est couvert. Une ou deux gouttes commencent à tomber. Vous décidez dès lors de rebrousser chemin. Même petit, un orage est potentiellement dangereux, vous le savez bien. Alors que vous vous pressez sur le chemin de votre maison, vous remarquez que des rafales de plus en plus insistantes secouent les arbres. Votre interrogation se change en stupeur lorsque vous vous rendez compte qu’en deux ou trois minutes, ces rafales deviennent violentes, puis carrément tempétueuses. Vous voyez une branche maîtresse d’un arbre tomber un peu plus loin devant vous. Vous hâtez le pas, surpris par cette tempête soudaine que la météo n’avait pas annoncé. Vous avez chaud, de plus en plus chaud. Le vent ne parvient pas à vous rafraîchir. L’air est devenu atrocement étouffant. Arrivé chez vous, vous regardez votre thermomètre. Votre stupéfaction ne fait que s’agrandir lorsque vous constatez que celui-ci affiche 38°C. Vous faites un rapide calcul: la température de l’air s’est élevée de 15°C en moins de dix minutes. Dans le même temps, vous consultez votre hygromètre (appareil mesurant l’humidité relative de l’air): l’aiguille s’est complètement effondrée vers des valeurs indiquant une sécheresse importante de l’air. Durant une demi-heure, vous regardez par la fenêtre cette tempête d’air chaud souffler sur votre quartier, toujours sans rien comprendre. Vous n’arrivez pas à vous faire une idée de la cause de ce déchaînement de violence. Alors que vous êtes en pleine réflexion, vous constatez que le vent faiblit rapidement. Vous décidez de sortir pour constater d’éventuels dégâts. La fraîcheur de l’air vous interpelle. Une troisième fois, vous consultez votre thermomètre: 22°C. La hausse spectaculaire des températures a été suivie par un retour tout aussi brutal à la normale.

 
Les effets du Heat BurstCette situation, peu de gens l’ont vécue, mais elle marque par sa brutalité. Le phénomène responsable de cette tempête chaude, somme toute assez rare, porte le nom de Heat Burst, que l’on pourrait traduire par coup de chaleur ou rafale de chaleur en français. Il entraîne ainsi, et de manière simultanée:1) un brusque réchauffement de l’air à basse altitude. La montée des températures peut être très variable, allant de quelques degrés à 20 ou 30°C dans des cas extrêmes. Cela peut mener à des températures inouïes. Bien que ces fournaises n’aient jamais été validées scientifiquement, certains témoignages semblent indiquer que les Heat Burst sont capables de générer les températures les plus chaudes observées sur Terre! Cela reste néanmoins extrêmement rare. Plus souvent, le Heat Burst se contente d’élever les températures d’une dizaine ou d’une quinzaine de degrés, amenant celles-ci entre 30 et 40°C. Quelques exemples vous seront détaillés plus loin dans cet article.2) un abaissement de l’humidité relative de l’air, et donc du point de rosée*. En d’autres termes, cela signifie que l’air s’assèche par perte de sa teneur en vapeur d’eau par unité de volume. Cet assèchement peut être d’importance variable, et est plus ou moins directement proportionnel à l’ampleur de l’élévation des températures. Les Heat Bursts les plus extrêmes amènent l’humidité de l’air à des valeurs habituellement rencontrées dans les déserts.3) une diminution de la pression. Cela est facilement compréhensible dans la mesure où un air chaud est moins dense qu’un air plus frais.4) une modification du régime des vents en surface, et surtout une augmentation de leur force. Le Heat Burst provoque habituellement des rafales de 80 à 110 km/h, mais certains évènements extrêmes ont engendré des vents destructeurs soufflants jusqu’à 160 km/h.Ces effets peuvent avoir une durée variable: de quelques minutes à trois ou quatre heures. Une fois ce laps de temps passé, le Heat Burst prend fin et les paramètres évoqués ci-dessus retrouvent les valeurs normales qu’ils avaient avant la survenue de ce phénomène. L’image ci-dessous montre l’évolution des deux premiers paramètres (température et point de rosée) lors de la survenue d’un Heat Burst dans le Dakota du Sud (Etats-Unis) le 3 août 2008.

heatburst-sioux-falls.jpg

Source: wunderground.comLe phénomène débute ici de manière très abrupte peu après 4h00 du matin. La violente hausse des températures (ici exprimées en Fahrenheit) fait passer le mercure de 22,7°C à 37,2°C en l’espace d’une dizaine de minutes. En même temps, la température du point de rosée tombe de 20 à 10°C. Durant la survenue de ces évènements, des rafales de 80 à 100 km/h furent enregistrées. Cela illustre bien la brutalité du Heat Burst.Quelques exemples de Heat Bursts22-23 mai 1996 en Oklahoma (USA): élévation de la température de 31 à 39°C en 25 minutes et rafales de vent jusqu’à 150 km/h.16 juillet 2006 dans le Minnesota (USA): la température monte jusqu’à 40°C avec des vents de 100 km/h.25 mai 2008 dans le Kansas (USA): en une demi-heure, la température passe de 22 à 33°C. De fortes rafales de vent se produisent.29 avril 2012 en Seine-et-Marne (France): en quelques minutes, la température s’élève de 14 à 25°C, tandis que de brutales bourrasques atteignent 90 à 115 km/h, provoquant quelques dégâts. De 0h30 à 0h40, l’humidité relative de l’air passe de 65 à 16%.Plus loin dans le temps, des reports font état de heat bursts d’ampleur surréaliste:11 juillet 1909 en Oklahoma: à 3h00 du matin, la température s’élève spectaculairement jusqu’à 57°C. Les cultures auraient été desséchées instantanément.6 juillet 1949 près de Lisbonne: en deux minutes, la température passe de 38 à 66°C.15 juin 1960 au Texas: un brutal coup de chaleur torride fait passer la température de 21 à 60°C. Des rafales jusqu’à 160 km/h surviennent dans les environs de Waco.Juin 1967 à Abadan (Iran): sans doute le Heat Burst le plus inouï avec un pic à 87°C ! La presse locale rapporte que des dizaines de personnes auraient été tuées sur le coup et que l’asphalte des routes se serait ramolli sous l’effet de la chaleur.10 juin 1977 à Antalya (Turquie): la température bondit à 67°C.Cependant, ces cinq évènements spectaculaires doivent être considérés avec circonspection. Aucune étude scientifique n’est parvenue à démontrer la véracité des faits. Nous ne pouvons dès lors ni les valider, ni les réfuter. Au plus devons-nous admettre qu’il s’est produit cinq heat bursts d’ampleur peu commune dans ces régions.La violence des changements encourus ne peut s’expliquer par des modifications brutales de la masse d’air en place. La cause est donc extérieure. Autrement dit, ce phénomène a lieu parce que la masse d’air dans laquelle se trouvait la zone impactée avant le Heat Burst est brutalement remplacée par une autre masse d’air plus chaude et plus sèche. Cette masse doit bien provenir quelque part. Et puisqu’elle semble surgir de nulle part sans crier gare, c’est en altitude qu’il faut aller voir pour comprendre les mécanismes de la genèse de ces phénomènes.Un phénomène qui ne se produit pas dans n’importe quelles circonstancesEn plus d’être brutal et parfois spectaculaire, ce phénomène est sournois. Rien n’annonce sa survenue. Néanmoins, et avant que ce phénomène puisse être expliqué, il a été constaté qu’il ne survenait qu’en présence d’une combinaison de plusieurs conditions:– Les Heat Bursts surviennent souvent la nuit, de préférence au printemps ou en été. Ils peuvent se produire partout dans le monde, mais sont un peu plus fréquents en Amérique du Nord, là où les conditions menant à leur naissance sont plus souvent rencontrées.– La présence d’orages de grande étendue (MCS) ou plus localisés et puissants (supercellule) en phase de déclin brutal, lorsque les fortes précipitations qui les accompagnent diminuent d’intensité pour enfin ne plus parvenir au sol (bien qu’elles continuent à exister – faiblement toutefois – en altitude). Il est parfois dit que l’affaiblissement de ces orages est tellement rapide qu’ils « s’effondrent » véritablement.– Bien que ce ne soit pas systématique, les bases nuageuses doivent être élevées par rapport au sol. Le Heat Burst peut aussi survenir sous les enclumes des cumulonimbus, qui se trouvent généralement à plus de 10 km d’altitude.– La présence d’une couche d’air sec.– La présence d’une inversion de températures. Il s’agit d’une strate de l’atmosphère où l’air se réchauffe en montant, alors qu’en temps normal, il est censé se refroidir. – L’air est souvent stable près du sol (mais ce n’est pas vraiment un facteur explicatif).

pluie-heat-burst-1.jpg

Image radar des précipitations montrant une partie en déclin d’un MCS et sous laquelle est survenu un Heat Burst le 23 mai 1996 en Oklahoma. Source: NOAA.Une origine mystérieuse, mais finalement compriseLe phénomène commence lorsque les précipitations deviennent à ce point faibles suite à la dissipation de l’orage qu’elles ne peuvent plus atteindre le sol. La présence de la couche d’air sec y est pour quelque chose. Les précipitations qui s’y retrouvent, après avoir chuté du nuage orageux, s’évaporent assez rapidement. L’évaporation nécessite une consommation de chaleur dite latente (servant au passage eau –> vapeur), provoquant un brutal refroidissement de la masse d’air environnante. Cette étape est assez similaire à celle initiant la formation des downbursts: l’air refroidi est plus dense que l’air plus doux du voisinage, et descend donc en direction du sol.Cependant, et là se trouve toute la différence avec les downbursts, il n’y a plus aucune précipitation dans le courant d’air descendant. Cela a toute son importance: une des lois de la physique veut que lorsqu’un gaz est comprimé, il tend à chauffer. Si vous avez déjà fait l’expérience de boucher, avec votre doigt, l’embout d’une pompe à vélo pour empêcher l’air comprimé de sortir, vous aurez constaté qu’il est chaud. C’est exactement ce qu’il se passe avec ce courant d’air descendant: la pression augmentant alors que l’altitude diminue, l’air du Heat Burst subit une compression dite adiabatique et se réchauffe. Dans un downburst classique, la présence des précipitations continue à soustraire de la chaleur à la masse d’air suite à l’évaporation partielle des précipitations, tandis que cette masse descend. Arrivée au sol, sa température n’aura pas fondamentalement changé. Tout est différent dans le cas du Heat Burst: vu qu’il n’y a plus de précipitation dans la couche d’air sec pour maintenir sa température, il se réchauffe librement. Selon l’altitude à laquelle débute ce phénomène, l’air aura donc le temps de se réchauffer plus ou moins fortement, avant qu’il ne vienne frapper le sol à toute vitesse et s’étaler sur plusieurs dizaines de kilomètres carrés, faisant exploser le thermomètre et la vitesse du vent.

mecanisme-heat-burst.jpg

Diagramme (en Anglais) résumant les étapes et le mécanisme de la formation des Heat Bursts. Source: meteorologynews.comLa présence de l’inversion de températures joue un rôle dans la vitesse du vent, qui dépend de la vitesse de chute du courant d’air. Des études ont montré que celle-ci devait être d’au moins 6 mètres par seconde pour pouvoir traverser l’inversion qui toujours joue un rôle de barrière à tout courant.Cependant, la couche d’air sec ne semble pas être la seule cause à la survenue de ce phénomène. Il semblerait que la présence d’un courant Jet (composé d’air souvent sec lui-même) accélère l’évaporation des précipitations, et donc le refroidissement de l’air. De plus, plusieurs Heat Bursts semblent déroger au schéma dicté ci-dessus. Des phénomènes de ce type ont aussi été observés à l’arrière de MCS en pleine activité. Mais en sachant que l’on retrouve dans cette partie arrière dite stratiforme (voir l’article sur les MCS pour plus d’informations) des conditions ressemblant à celles d’un orage en dissipation (pluies diminuant d’intensité, présence de courants d’air plus sec et enclumes élevées), il est dès lors possible d’y retrouver ces phénomènes. De même, la présence d’orage ne semble pas être une condition absolument nécessaire. Ainsi, le Heat Burst d’avril 2012 en France s’est développé sans une quelconque intervention orageuse. Néanmoins, la configuration météorologique du moment ressemblait fortement à celle qui mène à la formation de ces phénomènes: une petite perturbation donnait de très faibles pluies qui s’évaporaient en altitude. La descente d’air a dès lors pu se mettre en place.Et en Belgique?Il n’existe pas de report de Heat Burst, sans doute parce que ces phénomènes sont assez méconnus chez nous (l’auteur de cet article ne les a découvert qu’une semaine avant la rédaction) et que leur ampleur ne semble pas avoir été suffisante pour qu’ils soient pris en compte. Il est ainsi possible que des Heat Bursts soient survenus, sans qu’aucun lien n’ait pu être fait avec la nature du phénomène et les mécanismes qui viennent d’être expliqués. Le cas français doit cependant nous faire penser qu’il est tout à fait possible d’en connaitre chez nous.Mise à jour du 18 juillet 2015: Durant la nuit du 16 au 17 juillet, plusieurs endroits de Belgique ont enregistré un heat burst, avec une hausse de températures de 6°C à Wépion et de 8°C à Vaux, près de Bastogne. A Troyes en France, la température s’est élevée de 9°C, atteignant 33°C en pleine nuit.* Point de rosée: pour une masse d’air ayant une température donnée X, il s’agit de la température Y toujours inférieure ou égale à X à laquelle la masse d’air de température X, amenée à la température Y, verrait survenir une condensation de la valeur d’eau suite à la saturation de la masse d’air.SourcesNOAA, Colorado State University, Weather Underground. Rédigé pour le compte d’Info Météo et de Hydrométéo.

Tornade Versus Downburst… Halte à la mini-tornade!

 de infometeo

Très régulièrement, la presse belge mais aussi étrangère fait l’écho d’une « mini-tornade » ayant frappé, balayé ou provoqué des dégâts à un endroit où à un autre du pays. Non-contente de ré-interpréter à sa manière les prévisions et constatations météorologiques émanant d’organismes officiels ou non, elle s’attaque à la nomenclature même des scientifiques de l’atmosphère. Bien-sûr, le but premier de cet article n’est pas d’assommer nos lecteurs avec des termes aux noms à dormir dehors, mais il faut un minimum de rigidité. Cette publication tente donc de réparer ce qui peut être considéré comme la plus grande injure de tous les temps ayant été portée au vocabulaire de la météorologie.

 
Règle première, à encadrer et à diffuser largement: une mini-tornade, ça n’existe pas! C’est une invention barbare de la presse qui désigne tout phénomène, qu’il soit tornade ou downburst – nous reviendrons plus loin sur ces termes – certes parfois impressionnant et régulièrement à la base de dégâts. Et cela empire d’années en années: nous avons dernièrement vu surgir des « mini-tempêtes », « mini-ouragans » et même des « mini-blizzards ». Il n’y a pas à dire, à tout qualifier de « mini », la presse doit avoir un sacré complexe d’infériorité. Peut-être est-ce dû aux images impressionnantes, réelles ou de fiction, qui nous viennent de l’autre côté de l’Atlantique? Bref, la question n’est pas là. Remettons donc les pendules à l’heure.

La « mini-tornade » de Braine-le-Comte le 1er octobre 2006, qualifiée comme telle par pratiquement tous les médias du pays. Que serait alors une vraie tornade? On vous rassure, c’est bel et bien une tornade tout ce qu’il y a de plus réel qui a, ce jour-là, gravement endommagé une dizaine d’habitations. Elle fut d’une puissance F2 sur l’échelle de Fujita (là aussi, nous y reviendrons).Règle seconde, OUI, la Belgique connaît de vraies tornades, comme celles des Etats-Unis. Il se produit environ quatre à cinq tornades en moyenne et par an, en Belgique. Certaines années comme 2006 ont vu survenir un nombre exceptionnel de tornades, tandis que d’autres années ont, au contraire, connu très peu voir aucune tornade. Certaines de nos tornades belges n’ont rien à envier à leurs homologues américaines, mais nous y reviendrons par la suite. Dans un premier temps, il nous semble intéressant d’analyser la définition qui est donnée de ce phénomène:« Une tornade (de l’espagnol tornado, dérivé du verbe tornar, tourner) est un vortex (tourbillon) de vents extrêmement violents, prenant naissance à la base d’un nuage d’orage (cumulonimbus) lorsque les conditions de cisaillement des vents sont favorables dans la basse atmosphère. De très faibles tornades peuvent également se développer sous des nuages d’averses (cumulus bourgeonnant) » (Wikipedia, 2013).Certes, Wikipédia n’est pas une référence absolue (quoique cela va de mieux en mieux, beaucoup de participants y font un travail formidable), mais la définition qui est donné ci-dessus est on-ne-peut-plus-claire.Règle troisième: la tornade est un phénomène composé de vents en rotation rapide et ascendants autour d’un axe plus ou moins vertical.Nous avons vu que la presse qualifiait de mini-tornade des phénomènes qui sont de vraies tornades. Il lui arrive aussi de qualifier avec ce pseudo-terme un phénomène qui n’est pas une tornade. Nous pouvons alors aboutir à une quatrième constatation.Règle quatrième: dans un orage, la tornade n’est pas le seul phénomène venteux capable de provoquer de graves dégâtsCe que la presse appelle mini-tornade est parfois un downburst, ou rafale descendante en français. C’est un brutal coup de vent, parfois très violent, qui se produit juste à l’avant de l’orage, et lié à la chute d’une masse d’air provenant de plusieurs kilomètres en altitude au sein du nuage orageux, le cumulonimbus. Le downburst peut survenir au sein de tout orage avec un minimum d’organisation, au contraire des tornades qui ont besoin d’un orage extrêmement violent, organisé et en rotation, la supercellule (encore un terme à définir plus tard).De plus, comme cela vient d’être signalé, la tornade est animée de vents ascendants (suite à la présence d’une forte dépression en son sein) qui font converger les masses d’air environnantes, tandis que le downburst est créé au départ de vents qui descendent.Au départ, un courant descendant existe au sein de tout orage. Celui-ci se trouve dans la zone de précipitations. Il est couplé à un courant ascendant, voisin de quelques kilomètres et qui alimente le cumulonimbus en air chaud, maintenant ainsi l’orage. Le downburst survient lorsque des précipitations (pluie et grêle) venant de plusieurs kilomètres d’altitude tombent dans une masse d’air sec. Ces précipitations s’évaporent alors et, suite à l’absorption de la chaleur latente de la masse d’air sec par cette eau se transformant en vapeur, l’air sec environnant se retrouve brutalement refroidi, et donc plus dense et plus lourd. Son poids supplémentaire entraîne son accélération en direction du sol. Le flux d’air descendant ainsi créé s’écrase alors au sol et s’étale en rayonnant à partir de son point de chute, provoquant les rafales caractéristiques du downburst.Selon la taille du downburst, on parlera de macroburst (macrorafale en français) lorsque sa taille excède 4 km de large, et de microburst (microrafale en français) lorsque la taille est inférieure à 4 km.L’image ci-dessous résume très bien la différence entre un microburst (et généralement un downburst) et une tornade:

downburst-tornade.gif

Source: NOAA Dans les grands systèmes orageux à déplacement rapide, le downburst est persistant car la vitesse de progression de ces systèmes fait en sorte que les précipitations en altitude se retrouvent constamment dans de l’air sec à l’avant du système. Cela explique aussi pourquoi le downburst prend généralement place sous l’arcus, juste avant l’arrivée des précipitations les plus intenses. Bien sûr, il faut associer ce mécanisme avec d’autres comme l’effet d’entraînement généré par la masse de précipitations tombant vers le sol, le courant descendant de départ, le courant Jet (rear inflow Jet) qui anime l’intérieur des grands systèmes…Règle cinquième: les processus de formation des tornades et des downburst sont donc très différentsSelon la hauteur à laquelle survient l’évaporation et l’importance de cette dernière qui influence directement l’importance du refroidissement de la masse d’air environnante, le downburst sera plus ou moins violent. Les plus forts d’entre eux peuvent engendrer des vents largement supérieurs à 200 km/h et provoquer ainsi d’énormes dégâts s’ils frappent des zones habitées. En Belgique, le plus puissant downburst mesuré s’est produit à Werbomont (Ferrières, province de Liège) le 10 août 1956, avec une valeur de 166 km/h (la deuxième plus forte rafale du 20ème siècle en Belgique). Signalons aussi une rafale de 150 km/h à Ostende le 6 juillet 1957 et 133 km/h à Uccle le 18 juillet 1964 (IRM, 2013). Plus près de nous, le MCS du 14 juillet 2010 s’est accompagné de rafales jusqu’à 137 km/h à Florennes (Belgorage, 2010). Cependant, les anémomètres belges (appareils mesurant la vitesse du vent) sont relativement peu nombreux et inégalement répartis à travers le pays, de telle sorte que bon nombre de downbursts qui, rappelons-le, sont des phénomènes d’échelle locale, ne sont pas enregistrés. Cependant, l’analyse des dégâts permet d’estimer la vitesse du vent. Ainsi, en Thudinie et dans le cendre du Condroz, le downburst engendré par le MCS du 14 juillet 2010 a semble-t-il poussé des pointes supérieures à 150 km/h (Belgorage, 2013).Règle sixième: un downburst peut égaler en puissance la force d’une tornade moyenne Cette sixième règle renvoie à la notion de puissance. Il existe une échelle permettant de classer les tornades selon la vitesse des vents qu’elles engendrent sur base de l’estimation des dégâts causés par ces dernières. Cette échelle, dite de Fujita, a été conçue par le Japonais du même nom en 1971. Elle a été revue en 2004.

fujita.png

Echelle de Fujita de 1971. Source: Ma météo.

fujita-amelioree.jpg

Echelle de Fujita améliorée de 2004. Source: Météopassion.Règle septième: les tornades ont des intensités très variables.L’image ci-dessus donne ainsi l’exemple de quelques tornades françaises. Dans l’Hexagone, certaines tornades ont été à ce point puissantes qu’elles ont pu être classées comme F5 selon l’ancienne échelle de Fujita! En Belgique, de tels monstres ne semblent pas être survenus depuis que les observations ont commencé en 1833. Mais les exemples français nous montrent que cela reste du domaine du plausible. Les deux plus puissante tornades du 20ème siècle en Belgique se sont produites le 25 juin 1967 à Oostmalle (province d’Anvers) pour la première et le 20 septembre 1982 à Léglise (province du Luxembourg) pour la seconde. Certaines maisons ayant été sérieusement endommagées voir complètement détruites, ces tornades entrent dans l’échelon F3 des deux échelles de Fujita, peut-être même F4 si on envisage la version de 2004. Il y a quelques années, une violente tornade frappait le Val de Sambre français le 3 août 2008 et finissait sa course à quelques centaines de mètres de la frontière belge. Elle fut classée F4 sur l’échelle améliorée de 2004 (Kéraunos, 2008).

tornade-1967.jpg

Une impressionnante tornade F3 frappe le sud des Pays-Bas le 25 juin 1967, le jour même où un autre tornade atteint Oostmalle. C’est également à cette date-là que Palluel, dans le Nord-Pas-de-Calais, est complètement ravagé par une tornade de F4 – F5. Source: Météo Paris.S’il y a peu de puissantes tornades en Belgique, le nombre de faibles tornades est un peu plus important. Il s’en produit assez régulièrement. Même si elles ne provoquent que peu de dégâts, elles doivent également être considérées comme de vraies tornades et non des « mini-tornades ».

tornade-dour-4-septembre-2009.jpg

Le 4 septembre 2009, une tornade de F0 provoque quelques dégâts à Wihéries, dans le Borinage. Source: Météo Belgique.Quand à la très médiatisée tornade de Braine-le-Comte du 1er octobre 2006, il est possible de la considérer comme ayant une force F2. Des tornades de force F1 – F2 se produisent tous les deux à trois ans en Belgique en moyenne. En 2013, une tornade de cette puissance semble être survenue le 5 février au nord de Courtrai.Règle huitième: les tornades de grande intensité sont rares en Belgique.  Ceci clôt cet article sur les phénomènes venteux destructeurs survenant au sein des orages. Dès lors, plus de confusion possible!

Publié pour le compte d’Info Météo et de Hydrométéo.

Le MCS et ses variantes

Cet article reprend le premier terme d’un lexique qui sera amené à se construire petit à petit. Aujourd’hui: le système convectif de méso-échelle et ses variantes.MCS ou Mésoscale Convective System

En français donc, système convectif de méso-échelle. Il désigne un ensemble d’orages multicellulaires organisés entre eux et interdépendants, regroupés au sein d’une masse de 100 à 1000 km de long, de forme parfois ovoïde, parfois parfaitement circulaire ou très étirée, pratiquement sous forme de ligne. Ce terme général désigne en fait plusieurs modes d’organisation. Pour simplifier les choses – bien que ce ne soit pas scientifiquement exact – nous pouvons considérer le MCS comme un seul et même superorage de très grandes dimensions.Les MCS qui se présentent en Belgique sont souvent constitués de deux parties:1) la première partie est la zone dite stratiforme, car constitué par les enclumes des cumulonimbus qui constituent la partie la plus active. Cette zone voit des précipitations modérées s’étendre sur plusieurs centaines, voir milliers de kilomètres carrés, accompagnées d’une faible activité électrique qui se présente soit sous la forme de coups de foudre rares mais très puissants, soit par une succession d’éclairs internuageux dits spiders, qui tendent à se déplacer dans le ciel en se ramifiant. Ces éclairs se produisent dans et juste sous les enclumes des cumulonimbus dans les grands systèmes organisés.2) la partie la plus active est caractérisée par de fortes précipitations et s’isole au sein de la zone stratiforme ou en bordure du système, selon la dynamique des vents et des courants en altitude. Elle peut avoir une forme assez ramassée, ou au contraire s’étirer en une ligne de grains.

mcs.png

26 mai 2009: Un MCS traverse la Belgique de nuit, du sud-ouest au nord-est.La forme que prend cette ligne peut servir à qualifier le MCS tout entier:– dans la configuration la plus simple, la ligne se présente selon une quasi-droite de précipitations très intenses, dans laquelle prend place 90% de l’activité électrique de l’orage et souvent précédée de rafales descendantes.– un stade plus puissant est celui du Bow Echo (écho en arc), lorsque le Jet-Stream soufflant dans la ligne fait en sorte que la partie centrale de celle-ci se déplace plus rapidement que ses extrémités. Une évolution vers cette structure indique un renforcement des phénomènes. Les vents qui l’accompagnent peuvent devenir destructeurs. En juillet 2010, un puissant bow echo a balayé la Belgique, provoquant énormément de dégâts dus au vent (parfois spectaculaires comme l’effondrement du toit de l’église de Ciney, le reversement d’un pylône d’une ligne à haute tension près de Huy et des toits entiers emportés en Thudinie). Les dégâts observés ont permis de diagnostiquer des vitesses de plus de 150 km/h pour les plus grosses rafales.

16h00-1.png

14 juillet 2010: Passage d’un bow echo sur la Belgique.– un autre stade plus puissant est le LEWP ou Line Echo Wave Pattern (écho en ligne et en forme de vague) est reconnaissable à la structure ondulée, parfois pratiquement sinusoïdale de la structure orageuse. A l’extrême, elle peut apparaître découpée en échelons espacés et décalés les uns par rapport aux autres de manière régulière. Les phénomènes engendrés sont identiques aux cas évoqués précédemment.

17h30-1.png

14 juillet 2010: le même système que sur l’image précédente, une heure et demi plus tard. Le Bow Echo tend à se rompre en échelons, formant une structure se rapprochant du LEWP. Cela montre clairement qu’un grand système orageux est dynamique et qu’il peut changer de forme plusieurs fois tout au long de sa durée de vie.– le stade final est le derecho (mot espagnol qui signifie « tout droit » pour désigner le déplacement de ces grandes structures). Il est extrêmement rare et violent. La zone active devient alors d’une ampleur et d’une taille démesurées et les phénomènes qui s’y produisent sont extrêmes: activité électrique explosive, vents destructeurs à grande échelle, pluies dilluviennes et grêles géantes. Fin juillet, un tel derecho a engendré des vents de 170 km/h dans le sud-ouest de la France. Dans les situations les plus apocalyptiques, le vent peut atteindre 250 km/h. Mais cela reste extrêmement rare.Il existe aussi deux autres variantes de MCS:1) le QLCS pour Quasi Linear Convective System ou système convectif pratiquement linéaire. Il prend la forme d’une énorme ligne de grains avec une partie stratiforme assez restreinte comparée aux MCS « classiques » exposés ci-dessus. 2) le MCC ou Mesoscale Convective Complex est un MCS démesuré. Il doit répondre à toute une série de critères dits de Maddox:– une durée de vie supérieure à six heures– des sommets de cumulonimbus à l’aplomb de la zone intense ayant des températures inférieures à -52°C et qui s’étendent sur plus de 50 000 km²– des sommets de cumulonimbus en étalement ayant une température inférieure à -32°C sur au minimum 100 000 km².A l’heure de la rédaction de cet article, le dernier MCC ayant concerné la Belgique s’est produit en matinée du 27 juillet 2013.Une des caractéristiques de ces systèmes est leur capacité à s’auto-entretenir. Il faut comprendre par là que, l’orage s’organisant et grandissant, arrive à un cap où le « moteur » qui le génère n’a plus réellement besoin d’ingrédients comme de la chaleur, des vents cisaillés (= de directions et vitesses différentes selon l’altitude) et d’instabilité. A l’instar d’un énorme tapis roulant, l’orage entraîne l’air au-devant de lui dans sa direction, le fait s’élever, alimentant ainsi le système en humidité, formant et entretenant les cumulonimbus, puis le rejette derrière lui en altitude, par-dessus le courant jet qui participe à toute cette mécanique, mais aussi au niveau du sol via les précipitations. Dès lors, cela explique pourquoi ces grands systèmes sont capables de subsiter dans un environnement redevenu stable (souvent avec la tombée de la nuit), où les paramètres interdisent toute formation d’un nouvel orage. L’orage existant ne fait que subsister.On constate que fort souvent, ces MCS se structurent à la tombée du jour, font rage toute la nuit en atteignant leur paroxysme entre minuit et 4h00, puis tendent à s’affaiblir quelque peu avec le lever du jour. Dans certains cas, lorsque l’air est extrêment instable, ces orages peuvent se structurer en journée pour certains, passer le lever du jour qui est en temps normal « thunder-killer » et faire rage toute une matinée de plus.Concrètement, en un lieu donné et pour tous les cas de figure exposés ci-dessus, un observateur verra (de jour) successivement le ciel se couvrir d’un voile gris sous une ambiance lourde, puis devenir plombé avec des formes nuageuses parfois inquiétantes, le tout dans un calme « anormal », puis arrivera très souvent un arcus, sorte de nuage en forme de vague ou de grand rouleau horizontal animé de mouvements perceptibles, parfois déjà accompagné de quelques gouttes voir d’une fine pluie. Son passage au zénith est accompagné des vents les plus forts, très rapidement suivis par de très fortes pluies, voir de la grêle, avec une activité électrique incessante au sein des nuages en altitude (c’est la zone active). Souvent cependant, la densité de la pluie fait que la lumière des éclairs est bien trop diffusée pour être perçue du sol, et seuls les radars enregistrent l’énorme accumulation d’éclairs au passage de la zone active. Les systèmes les plus organisés ont des parties actives qui ne présente pratiquement aucun coup de foudre ou éclair internuageux: tout se passe au sein des nuages. Dans le brouaha engendré par la pluie et le vent, le tonnerre qui plus est continu est difficilement perceptible. Cependant, l’observation a montré que, par moment, l’activité électrique peut radicalement changer et se muer en un pillonnement de coups de foudre sur des espaces restreints. En tout et pour tout, le passage de la zone active dure généralement de 10 à 30 minutesPar la suite, avec l’éloignement de la zone active, l’intensité de la pluie diminue, mais les précipitations en elles-même persistent. L’observateur se trouve alors dans la partie dite stratiforme, où il peut apercevoir des éclairs spiders rampant sous la voûte formée par les enclumes des cumulonimbus. Cette phase est bien plus longue: elle dure une heure en moyenne, mais peut s’éterniser jusque deux à trois heures après le passage de la zone active.

De nuit, les évènements sont bien sûrs identiques, mais suite à l’obscurité, l’observateur verra arriver l’arcus sombre se détachant sous un horizon scintillant de flashes d’éclairs. L’activité électrique incessante d’altitude sera parfaitement visible au passage de la zone active, et les éclairs spiders de la zone stratiforme seront rendus encore plus spectaculaires.

Il existe un dernier type de MCS, le MCS de type cluster. A l’inverse de tous les cas venant d’être cités, cette catégorie de système orageux ne voit pas s’individualiser une partie intense et une autre partie stratiforme, parce que la dynamique, entre autres, n’est pas suffisamment puissante pour isoler ces deux parties. Le système de type cluster se présente alors comme un amas, une grappe de cellules orageuses souvent puissantes disposées dans la masse stratiforme, interagissant entre elles en s’alimentant ou se détruisant de manière anarchique. Leur déplacement souvent lent est responsable, pour l’observateur immobile, d’un véritable défilement d’orages en continu pendant plusieurs heures, et d’accumulations considérables d’eau. Un bel exemple de MCS cluster concerna le centre de la Belgique la nuit du 19 au 20 juin 2002. Un autre frappa durement Liège et sa région au matin du 29 mai 2008, provoquant d’innombrables inondations et des coulées de boue.

Le MCS cluster de la nuit du 19 au 20 juin 2002 à 3h45.Pour ceux qui souhaitent aller plus loin dans la classification des orages et qui n’ont pas peur de se perdre dans les méandres de cette dernière, nous vous conseillons ce site:http://www.meteobell.com/_comprendre_classement.php

Le courant Jet, moteur du temps dans les zones tempérées

En météorologie, il est difficile d’expliquer le temps et les phénomènes extrêmes sans passer par le courant Jet, cette rivière atmosphérique circulant aux latitudes tempérées et séparant l’air froid du Pôle et l’air chaud des Tropiques.

Son mécanisme est simple : plus le contraste de températures entre le Nord et le Sud est grand, plus le courant Jet est violent. A l’inverse, si le contraste est moins grand, le courant Jet est plus faible. Or, le record de faible surface de glace dans l’Arctique l’année dernière a tout chamboulé dans la bataille que se livrent les 2 grandes masses d’air : la glace étant moins présente, l’énergie solaire a été moins réfléchie dans l’atmosphère, l’Arctique s’est réchauffé plus que les Tropiques, et le contraste est devenu moins grand. Dès lors, le courant Jet est devenu moins puissant. Etant donné qu’une rivière méandre lorsqu’elle ralentit, le courant Jet a adopté le même comportement et nous arrivons là à l’explication concrète des phénomènes extrêmes enregistrés ces derniers temps dans l’Hémisphère Nord : si le courant Jet méandre, il ondule beaucoup plus vers le Nord et vers le Sud, en allant chercher donc respectivement des masses d’air plus froides au Nord et des masses d’air plus chaudes au Sud. De plus, lorsque le changement de masses d’air a lieu, il est plus violent que d’habitude.

Ces fortes ondulations sont enregistrées en ce moment même aux Etats-Unis : deux crêtes (« ridge ») anticycloniques sont positionnées sur les façades Ouest et Est du continent américain alors qu’un creux, une dépression d’altitude s’enfonce au milieu (« trough »).


Entre ces 3 structures circule le courant Jet et nous pouvons voir combien les ondulations sont très prononcées, plongeant depuis le Canada jusqu’au Golfe du Mexique et remontant. Cette configuration assez particulière explique bien des choses dans les températures actuellement relevées aux Etats-Unis. Ainsi, dans l’Ouest, sous les hautes pressions situées au Sud du Jet, une température de 54°C a été relevée dans la Vallée de la Mort ce dimanche 2 juillet 2013. La température minimale approcha même les 40° ! Ces 2 températures sont les 2 plus chaudes jamais enregistrées à cette station ! Des records ont été battus dans l’Arizona, le Nevada, l’Utah, et d’autres Etats de l’Ouest des Etats-Unis. Sur l’Est des Etats-Unis, une remontée d’air chaud et humide combinée à un puissant Jet ont provoqué d’intenses précipitations comme l’indique cette carte :

Entre les deux, une dépression d’altitude s’enfonce au Nord du Jet, provoquant un temps particulièrement frais sur le centre des Etats-Unis. Ainsi, la ville de Waco, Texas a enregistré seulement 14° ce 2 juillet, alors qu’on est plus accoutumés de températures dépassant allègrement les 30° dans cette région du Sud des Etats-Unis. Cette température est en réalité un record de froid pour Waco pour le mois de juillet ! Nous avons donc une différence de 40° entre le Texas et la Vallée de la Mort alors qu’ils se trouvent â la même latitude et à une distance encore limitée.

Plus près de nous, ces variations inhabituelles du courant Jet ont provoqué un blocage anticyclonique sur la Scandinavie avec des températures de plus de 30° en Laponie. Ces hautes pressions bloquant les perturbations sur l’Europe Centrale, des pays comme l’Allemagne ont vu se déverser des dizaines de litres de d’eau dans leurs fleuves, avec une facture s’élevant à une vingtaine de milliards d’euros suite à des inondations. De la même manière, des hautes pressions ont enflammé l’Alaska avec des températures proches de 35° et ont bloqué des perturbations sur l’Alberta, au Canada, avec des dégâts estimés à 3 milliards de dollars.

Ces variations du courant Jet nous ont réservé beaucoup de (mauvaises) surprises ces derniers mois, et j’aimerais revenir sur une expérience dont vous vous rappelez sans doute puisqu’elle a eu lieu début mars.
En effet, le 6 mars, nous pensons être sortis de l’hiver : la température atteint 19° à la station de Charleroi, sous un vent de Sud bien organisé depuis le Nord de l’Afrique. Sur Biarritz, nous observons 20°, et 15° sur les Balkans. En fait, le courant Jet passe au Nord de nos régions et nous sommes sous la protection d’un anticyclone centré sur le Sud-Est du continent. Cependant, le Jet descend fortement jusqu’au détroit du Gibraltar, position très méridionale, et ce même en hiver. Dès lors, l’air frais s’engoufre sur le Sud-Ouest de l’Europe alors que nous sommes encore du bon côté du Jet. Plus au Nord, il fait 2° sur Oslo, et -10 sur Moscou. Malgré la sensation très printanière, l’air arctique est en embuscade quelques centaines de kilomètres au Nord :

Le 8 mars, le courant Jet continue à onduler du Sud vers le Nord, avec de l’air frais sur le Nord-Ouest de la Péninsule Ibérique. Chez nous, il fait encore 15°, mais la température est passé en négatif à Oslo avec -2°. Il gêle à Varsovie, et il fait 6° dans le Nord des Pays-Bas, preuve que le froid gagne du terrain, avec le courant Jet passant sur le Danemark et la Pologne. Les isobares sont orientés du Sud-Ouest vers le Sud-Est chez nous, mais à l’Est dans le Nord de l’Allemagne :

Le 10 mars, le changement s’opère : le courant Jet passe au Sud de nos régions avec une dépression glissant au Sud de nos frontières. Dès lors, le vent passe plus au Nord-Est, draînant une masse d’air bien plus froide. Nous enregistrons 6° dans nos régions. Le vrai froid arctique se rapproche et s’intensifie au Nord, avec 0° sur Hambourg et 6° sur Oslo. L’air printanier a été rejeté sur la Roumanie avec 16°. On fera donc remarquer que c’est la même dépression qui est à l’origine des 2 aspirations : l’air très doux sur son flanc Est, et l’air arctique sur ses flancs Nord et Ouest :

Le 12 mars, toutes les masses d’air se sont déplacées d’Ouest en Est : l’air très doux s’est déplacée de Bruxelles vers Istanbul où on enregistre des températures de 17°. Chez nous, il fait -3°, avec donc une chute de 22° en 6 jours ! Cette carte finale montre bien comment le Jet s’est déplacé de telle manière que nous sommes largement au Nord de la limite qui atteint maintenant le Maghreb. Sur l’Atlantique, une nouvelle ondulation remonte jusqu’au Sud du Groenland avec une autre advection douce sur l’océan. Cette carte ressemble très forte à la première sur les Etats-Unis, où la plongée arctique est coincée entre 2 remontées chaudes avec le Jet qui ondule fortement :

Elle montre donc très bien que la translation des ondes du Jet génère d’importantes variations de températures et qu’être en quasi-permanence du mauvais côte de cette rivière atmosphérique provoque un temps frais et humide sur de longues périodes. Elle montre aussi que le renforcement de ces ondes par la déstabilisation du climat arctique ayant pour origine une fonte record de sa banquise est une source de problèmes pour les régions tempérées et sub-arctiques. Et ce n’est peut-être qu’un début … 

Sources :

Dr. Jeff Masters’ WunderBlog
Wetterzentrale