Il ne semble pas qu’il y ait une quelque chose de comparable auparavant. Elle se concentre sur 2 paramètres : la température (70 séries) et les précipitations (220 séries).
La méthode utilise les données prises par les stations au sol, en pratiquant une homogénéisation pour construire des séries longues. C’est cette partie de la méthode que je voudrais examiner. Ce sera plus particulièrement le cas de la température.
1 Tout d’abord il y des corrections dues au capteur.
2 Ensuite il y un mécanisme de détection de rupture et d’homogénisation pour aboutir à ces 70 séries. Ce mécanisme est réitéré.
3 Ensuite, ces séries permettent de donner une évolution (tendance et coefficient de Spearman) pour ce point.
4 Enfin, la donnée de ces 70 indicateurs permet de construire une carte d’évolution pour la France.
1 La correction de capteur évoque un biais pour le modèle 1896. Il est corrigé de -2 degrés ! Donc les températures de 1896 sont corrigés de -2. Il ne semble pas étonnant qu’on constate une augmentation depuis 1896 ! Je n’ai pas trouvé l’étude de G Lefebvre de 1999 qui justifie cela. C’est tout de même fort !
2 Le mécanisme de détection de rupture et homogénisation n’est pas clair. Qu’est-ce que c’est que ces tripatouillages ? Cela semble construit sur les mesures faites « à proximité ». C’est donc que l’on suppose que la température à proximité est valable et qu’elle n’a pas elle à être corrigé.
3 Rien à dire pour l’estimation de tendance
4 L’extrapolation des 70 poins de mesure à la France est raisonnable encore que l’on puisse s’interroger sur sa signification : on suppose que si on avait les données pour un point du territoire, l’évolution constatée serait celle donnée par extrapolation. C’est douteux.
Cette démarche me semble étrange. Pourquoi ne pas garder telle quelle la totalité des mesures brutes sans bidouillage ? On pourrait étendre les données spatiales manquantes (selon un maillage « raisonnable ») par approximation linéaire. C’est en gros ce qui est fait aux points 2 et 4. On peut même effectuer cela de façon quotidienne et calculer ensuite la moyenne. Cette façon de faire serait plus compréhensible. Elle fait moins « bidouille ».
On pourrait examiner la sensibilité de la démarche à la taille du maillage.
La différence entre les deux démarches est donc : vaut il mieux unifier des séries pour trouver des tendances et les extrapoler dans l’espace (quite à « bidouiller » un peu) ou bien extrapoler une grandeur dans l’espace et dégager la tendance sur cela.
Cas 1 : Les données sont réduites pour construire 70 séries de 1200 mois. On en tire 70 tendances tendance qu’on généralise à tout le territoire.
Cas 2 : On a tout un tas de données qui nous permettent de construire par extrapolation spatiale une matrice à 100 000 points (par exemple) et 36500 jours : 36,5 millions de données. On en tire 100 000 tendances dont on peut faire la carte et visualiser des tendances régionales.
Je cale un peu en science statistique pour trancher quelle est la meilleure méthode. Intuitivement, il me semble que la seconde est préférable : on garde plus longtemps la complexité de l’information (puisqu’on synthétise qu’au dernier moment). Mais en matière statistique je sais qu’il faut se méfier de l’intuition. Peut être que les 2 démarches sont équivalentes (j’ai des doutes à cause de la manipulation d’homogénisation).
En tout cas, je suis étonné qu’il n’y ait aucune référence statistique pour justifier la démarche.
J’aime bien la partie sur les précipitations. Alors que les chiffres montrent une augmentation des précipitations, l’étude parvient à laisser entendre une tendance à l’aridité. Tout cela grâce au coefficient de Martonne (543 entrées sur google et pas tous sur le Martonne en question : c’est donc un outil assez confidentiel). C’est vrai, on n’allait tout de même pas aller à l’encontre du discours de « sécheresse » en annonçant qu’il y avait eu une augmentation des précipitations ! On peut remarquer comment disparaît les augmentations significatives de précipitation de la haute vienne. « Puisqu’on vous le dit » : il faut s’attendre à la sécheresse !
La description du cas de Paris Montsouris me laisse « hyper perplexe ». Nier qu’il fait plus chaud à Paris intra muros plutôt qu’en banlieue et dans la compagne environnante est très fort. Des dizaines de milliers de gens le constate tous les jours. C’est vrai en toute saison, mais plus marqué en hiver. L’écart peut être estimé « au pif » entre 1 et 6 degrés.
Et bien rien de tous cela n’apparaît. Il est évoqué une amplitude que la rupture est de 0,22 C ! L’augmentation est de 0,77C sur le siècle (plutôt moins que les environs). A moins que l’effet de chaleur de l’ilôt urbain parisien n’existât déjà en 1900, l’augmentation aurait dû être au moins de 2 C (1 degré de plus que le reste) ! J’en déduis qu’il y a eu un refroidissement de la région parisienne de 1 C depuis 1900 !
Toujours à propos des ilôts de chaleur, la carte des 70 points des séries ne précise pas leur localisation. Combien sont en environnement urbain ?
Un dernier point concerne l’absence de disponibilité des données sources (les mesures des stations météo). Il est impossible des les vérifier ou de refaire le calcul (après tout, tout le monde peut se tromper). Il est vrai que ces données ont représentées du travail pour leur récupération et qu’ils ont donc « un coût ». Mais il est vrai aussi que MétéoFrance fonctionne pour partie sur fonds publics. Comme souvent, c’est « faites moi confiance ».
Bref, pour ce qui est de la France, l’affirmation déclamée à tour de bras d’une augmentation me parait discutable. On peut aussi se demander ce qui permettait de le dire avant 2002 : la divination ?