Overblog
Suivre ce blog Administration + Créer mon blog
16 janvier 2008 3 16 /01 /janvier /2008 09:50
Sur le site http://www.bienlire.education.fr/05-echanges/document/graphies_phonemes.rtf, on trouve un tableau présentant les graphies (suite de lettres) associées (au moins une fois) à un phonème du français. A noter, que la liste des phonèmes utilisés (celle du petit robert) comporte 38 entrées soit une de plus qu’usuellement (la « rota » comme dans « mojito »). Il y a 622 graphies différentes. Le tableau graphie x phonème comporte 818 postes occupés. Voilà la complexité phonologique du français !
J’ai regroupé ce document dans un tableau excell. Je ne peux malheureusement pas le publier avec ce blog.  Cette complexité est essentiellement apparente. J’ai décomposé ce tableau en le simplifiant.

La première étape est de considérer que le « s » figurant en final d’une graphie et en final d’un mot correspond soit au pluriel soit à un verbe conjugué (soit un mot invariable). Ce « s » final ne se prononce pas. On passe à 409 graphies et 570 couples graphie x phonème.

La deuxième étape concerne les mots étrangers non « francisés ». On passe à 362 graphies et 561 couples graphie x phonèmes. Je détaillerai cela.

La troisième étape consiste à considérer que « e » et « ent » en fin de mot sont muets. On passe à 270 graphies et 356 couples graphie x phonème.

La quatrième étape consiste à considérer que h est muet et que t, c, d, l, f, g, x, p, z en fin de mot sont muets. On passe à 171 graphies et 234 couples graphie x phonème. Je détaillerais le cas du h.

Si l’on applique les règles de base de la prononciation française. Je détaillerai cela. Il reste alors un résidu « d’exceptions » : 98 graphies et 110 couples graphie x phonème.
 
Comme quoi la prononciation du français n’est pas si compliquée !
 
 
 
 

Partager cet article
Repost0
15 janvier 2008 2 15 /01 /janvier /2008 09:45
Adam avait-il un nombril ?
Partager cet article
Repost0
14 janvier 2008 1 14 /01 /janvier /2008 10:21
L’étude suivante traite de l’évolution du climat en France au XXème siècle. http://www.smf.asso.fr/Ressources/Moisselin38.pdf. Elle date de 2002 !
 
Il ne semble pas qu’il y ait une quelque chose de comparable auparavant. Elle se concentre sur 2 paramètres : la température (70 séries) et les précipitations (220 séries).
 
La méthode utilise les données prises par les stations au sol, en pratiquant une homogénéisation pour construire des séries longues. C’est cette partie de la méthode que je voudrais examiner. Ce sera plus particulièrement le cas de la température.
 
1 Tout d’abord il y des corrections dues au capteur.
2 Ensuite il y un mécanisme de détection de rupture et d’homogénisation pour aboutir à ces 70 séries. Ce mécanisme est réitéré.
3 Ensuite, ces séries permettent de donner une évolution (tendance et coefficient de Spearman) pour ce point.
4 Enfin, la donnée de ces 70 indicateurs permet de construire une carte d’évolution pour la France.
 
1 La correction de capteur évoque un biais pour le modèle 1896. Il est corrigé de -2 degrés ! Donc les températures de 1896 sont corrigés de -2. Il ne semble pas étonnant qu’on constate une augmentation depuis 1896 ! Je n’ai pas trouvé l’étude de G Lefebvre de 1999 qui justifie cela. C’est tout de même fort !
2 Le mécanisme de détection de rupture et homogénisation n’est pas clair. Qu’est-ce que c’est que ces tripatouillages ? Cela semble construit sur les mesures faites « à proximité ». C’est donc que l’on suppose que la température à proximité est valable et qu’elle n’a pas elle à être corrigé.
3 Rien à dire pour l’estimation de tendance
4 L’extrapolation des 70 poins de mesure à la France est raisonnable encore que l’on puisse s’interroger sur sa signification : on suppose que si on avait les données pour un point du territoire, l’évolution constatée serait celle donnée par extrapolation. C’est douteux.
 
Cette démarche me semble étrange. Pourquoi ne pas garder telle quelle la totalité des mesures brutes sans bidouillage ? On pourrait étendre les données spatiales manquantes (selon un maillage « raisonnable ») par approximation linéaire. C’est en gros ce qui est fait aux points 2 et 4. On peut même effectuer cela de façon quotidienne et calculer ensuite la moyenne. Cette façon de faire serait plus compréhensible. Elle fait moins « bidouille ».
On pourrait examiner la sensibilité de la démarche à la taille du maillage.
 
La différence entre les deux démarches est donc : vaut il mieux unifier des séries pour trouver des tendances et les extrapoler dans l’espace (quite à « bidouiller » un peu) ou bien extrapoler une grandeur dans l’espace et dégager la tendance sur cela.
Cas 1 : Les données sont réduites pour construire 70 séries de 1200 mois. On en tire 70 tendances tendance qu’on généralise à tout le territoire.
Cas 2 : On a tout un tas de données qui nous permettent de construire par extrapolation spatiale une matrice à 100 000 points (par exemple) et 36500 jours : 36,5 millions de données. On en tire 100 000 tendances dont on peut faire la carte et visualiser des tendances régionales.
Je cale un peu en science statistique pour trancher quelle est la meilleure méthode. Intuitivement, il me semble que la seconde est préférable : on garde plus longtemps la complexité de l’information (puisqu’on synthétise qu’au dernier moment). Mais en matière statistique je sais qu’il faut se méfier de l’intuition. Peut être que les 2 démarches sont équivalentes (j’ai des doutes à cause de la manipulation d’homogénisation).
En tout cas, je suis étonné qu’il n’y ait aucune référence statistique pour justifier la démarche.
 
 
 
J’aime bien la partie sur les précipitations. Alors que les chiffres montrent une augmentation des précipitations, l’étude parvient à laisser entendre une tendance à l’aridité. Tout cela grâce au coefficient de Martonne (543 entrées sur google et pas tous sur le Martonne en question : c’est donc un outil assez confidentiel). C’est vrai, on n’allait tout de même pas aller à l’encontre du discours de « sécheresse » en annonçant qu’il y avait eu une augmentation des précipitations ! On peut remarquer comment disparaît les augmentations significatives de précipitation de la haute vienne. « Puisqu’on vous le dit  » : il faut s’attendre à la sécheresse !
 
La description du cas de Paris Montsouris me laisse « hyper perplexe ». Nier qu’il fait plus chaud à Paris intra muros plutôt qu’en banlieue et dans la compagne environnante est très fort. Des dizaines de milliers de gens le constate tous les jours. C’est vrai en toute saison, mais plus marqué en hiver. L’écart peut être estimé « au pif » entre 1 et 6 degrés.
Et bien rien de tous cela n’apparaît. Il est évoqué une amplitude que la rupture est de 0,22 C ! L’augmentation est de 0,77C sur le siècle (plutôt moins que les environs). A moins que l’effet de chaleur de l’ilôt urbain parisien n’existât déjà en 1900, l’augmentation aurait dû être au moins de 2 C (1 degré de plus que le reste) ! J’en déduis qu’il y a eu un refroidissement de la région parisienne de 1 C depuis 1900 !
 
Toujours à propos des ilôts de chaleur, la carte des 70 points des séries ne précise pas leur localisation. Combien sont en environnement urbain ?
 
Un dernier point concerne l’absence de disponibilité des données sources (les mesures des stations météo). Il est impossible des les vérifier ou de refaire le calcul (après tout, tout le monde peut se tromper). Il est vrai que ces données ont représentées du travail pour leur récupération et qu’ils ont donc « un coût ».  Mais il est vrai aussi que MétéoFrance fonctionne pour partie sur fonds publics. Comme souvent, c’est « faites moi confiance ».
 
Bref, pour ce qui est de la France, l’affirmation déclamée à tour de bras d’une augmentation me parait discutable. On peut aussi se demander ce qui permettait de le dire avant 2002 : la divination ?
Partager cet article
Repost0
12 janvier 2008 6 12 /01 /janvier /2008 10:19
D’après wikipédia, la température de fusion du CO2 (à la pression atmosphérique) est de -78,5 C. Toujours sur wikipédia, on apprend que l’on a eu un record de température mesurée en l’Antarctique dans la base de Vostok à -89,2 C. Donc, il arrive parfois (rarement) sur Terre que le gaz carbonique de l’atmosphère « gèle » et il peut neiger du CO2. Il y a eu des périodes glaciaires (plus froide) donc, il est possible que ces événements rares pouvaient être plus fréquents alors.
 
Je me demande si dans l’énorme masse de l’inlandsis antarctique, il pouvait y avoir de la neige carbonique. Elle serait restée emprisonnée. Comment est le profil de température de l’inlandsis ?
 
Il existe des lacs sub-glacières. Est-ce que c’est dû à une remontée de la température ou uniquement à l’augmentation de pression ? On évoque des épaisseurs de 3 km de glace, cela correspond à environ 300 atmosphères
Sur le site http://www.futura-sciences.com/fr/sinformer/actualites/news/t/physique-1/d/la-z-machine-de-la-glace-plus-chaude-que-de-leau-bouillante_10550/ on peut avoir des informations sur le diagramme de phase de l’eau. Ce n’est pas si simple !
300 atmosphères, c’est 3 E+7 Pa ; on voit que l’on reste dans le domaine de la glace « normale », et la température de fusion reste autour de 0 degré C.
 
Pour en revenir à l’antarctique, s’il y a des lacs sub-glacières, c’est que la température « remonte ». Il est évoqué des températures moyennes de -35 C. On peut imaginer que le profil de température de la glace part de -35C en surface pour remonter doucement vers un peu moins de 0 (en profondeur) où l’on peut trouver de l’eau.
 
Si c’est le cas, les rares « microcouches » de neige carbonique ne restent pas et se retransforment rapidement en gaz (prisonnier éventuellement de la glace).
La remontée de température serait d’origine géothermique.
Partager cet article
Repost0
10 janvier 2008 4 10 /01 /janvier /2008 10:18
Sur le forum de la chouette d’or, un post d’alabastrum m’a frappé.
 
Le poème est constitué de 2 strophes de 11 pieds. Il manque un pied pour avoir 2 alexandrins.
Le piéton semble avoir un pied de bois.
 
L’idée serait de se dire qu’il manque un pied.
 
On pourrait rapprocher cela de l’absence de N = absence de haine = amour = prendre son pied.
Partager cet article
Repost0
9 janvier 2008 3 09 /01 /janvier /2008 10:16
Il m’est arrivé de lire des prospectus pour de produits financiers (OPCVM par exemple). Généralement, on trouve des courbes d’évolution de la valeur du produit. Il est étonnant de voir comment est présenté le graphe. A supposer que l’on adopte une « courbe », le « marketeur » dispose de plusieurs paramètres : Echelles linéaires ou logarithmiques, valeur moyenne ou extrême, durée de calcul de la moyenne, ... et surtout la date de « départ ».
 
Je quitte le monde financier pour les données climatiques. On trouve une source de données globales sur la température du globe (par satellite, cela me semble plus pertinent qu’une moyenne de mesure au sol) ici http://www.remss.com/msu/msu_data_description.html.
On s’intéressera plus particulièrement à TLT (temperature lower troposphere). Le graphe montre une augmentation depuis 1980 (0,176K/decade).
 
Les mêmes données utilisées différemment ici : http://denerding.blogspot.com/2007/12/global-warming-earth-cooled-005c-in.html.
Depuis 1997, cela montre une baisse de 0,05K/decade.
 
Pourquoi l’une des tendances serait elle plus pertinente qu’une autre ?
 
On remarque que le pic de 1998 n’est pas anodin (c’est lui qui tend à la baisse dans la seconde vision et à la hausse dans la première). A partir de 2018, il sera dans la première moitié et il participera à la baisse aussi dans le premier cas.
 
On a là une structure qui me semble fractale.
 
Finalement, ce qui est en jeu c’est la signification de la régression linéaire. Faire cela c’est supposer qu’il existe une tendance de fond constante (pour la valeur considérée). Cela fournie la droite. Ajouter à cela, on admet qu’il existe des variations (un bruit) de moyenne nulle.
Si cette hypothèse est exacte, la droite « fixe » ne doit pas varier lorsqu’on change de bornes. Sur cet exemple, ce n’est pas le cas. On peut donc en déduire que soit l’hypothèse n’est pas bonne (il n’existe pas de tendance) soit la tendance est à calculer sur une plus grande période. Donc, les deux interprétations sont fallacieuses.
 
Pour ce qui est de la température terrestre, il me semble qu’il n’existe pas de tendance. Elle varie du fait de nombreux facteurs. Il y a sans doute une (voire plusieurs) composante périodique ou pseudo périodique. Une analyse de fourrier serait déjà plus pertinente. Mais c’est moins facile à mettre en œuvre qu’une simple régression linéaire.
 
Dans l’article de wikipédia sur les lois de probabilités http://fr.wikipedia.org/wiki/Loi_de_probabilit%C3%A9, il est question du « maximum d’entropie ». Si la structure est « fractale », il faudrait peut être tenter les « lois scalantes » (Zipf, mandelbrot) à un cadre adéquat. A approfondir…

 

Partager cet article
Repost0
8 janvier 2008 2 08 /01 /janvier /2008 09:05

Difficile de trouver une référence sur le rendement énergétique d’un moteur
 
Il apparaît que c’est très variable. 15 % si le moteur est peu sollicité. Jusqu’à 42 % pour un diesel à pleine charge.
 
On ne parle pas ici des « gros diesels industriels ».
Partager cet article
Repost0
7 janvier 2008 1 07 /01 /janvier /2008 14:08

Les « macro chiffrages » portent sur un vaste ensemble. Une caractéristique de ce « vaste ensemble » est de savoir s’il concerne uniquement le passé ou non. Je vais maintenant examiner le second cas.

 
Dans le sujet analysé, il y autre chose que des faits ou événements passés. Ce sont des éléments futurs ou « idéaux ». Prenons le temps de les considérer.
Il y a les événements incertains (atemporels). Ce sont des événements qui vont peut être se produire dans le futur ou peut être pas. Ce sont aussi des événements qui se sont peut être produits dans le passé ou peut être pas. Le big bang, les extraterrestres, les supercordes,…
Il y a des événements futurs dont la réalisation est certaine mais dont les caractéristiques sont indéterminés. Il y aura une température mondiale moyenne en 2100 mais quelle sera sa valeur ? Ce sont généralement des prolongements du passé.
 
Dans ce cas, la notion de statistique devrait s’effacer. En effet, on ne saurait compter des choses qui ne se sont pas produits ou qui sont essentiellement incertains. C’est la notion de probabilité qui devrait prendre la relève.
Il se trouve que l’outillage mathématique est très proche.
D’autre part, pour les « prolongements du passé », il existe un grande tentation de réutilisation les outils statistiques du passé pour « prédire l’avenir ». Rien de condamnable en cela. Toutefois, il faudrait bien différencier les 2. Combien de fois présente-t-on sur la même courbe de chiffres du passé et du futur sans aucun avertissement. C’est d’autant plus important que souvent la différence passé/futur ne correspond pas à la date de lecture mais souvent un an plus tôt. D’autre part, l’erreur des chiffres n’est pas de même nature. Pour le passé, ce sont des erreurs pour obtenir les données qui priment. Pour le futur, on est face à une prédiction qui implique un modèle (même sous-entendu) : l’erreur provient essentiellement du modèle. Sauf de rares exceptions, les modèles prédictifs sont très lacunaires.
Finalement, cette prétention à fournir des prévisions est très suspecte. La suspicion porte sur la « sincérité » des chiffres du passé. C’est flagrant pour les résultats d’entreprise. Dans quelle mesure la fidélité au prévision ne concourre-t-il pas au «toilettage » du résultat de l’année passée ?
 
Cette confusion passé/futur est très généralisée.
 
Lorsque l’on dit qu’il reste pour 50 ans de pétrole en consommation 2006, c’est une estimation actuelle (du passé, les réserves de pétrole). L’unité est étrange : « 50 ans… » au lieu de « X milliard de tonnes ». Cette estimation est aussi très imprécise.
Partager cet article
Repost0
5 janvier 2008 6 05 /01 /janvier /2008 09:16
D’après http://bonbonze.net/v2/img1/humeur/index.php?num=65, il semble que l’attribution de cette maxime à Confucius et que le contenu même soient douteux. Mais peut importe, prenons là telle quelle.
 
Elle a tout l’air d’une « lapalissade ». C’est une large dévalorisation de l’expérience. On en penserait presque que l’expérience ne sert à rien. Le « ne que » est en cause : il est largement exagérée.
Tout d’abord, on peut faire l’hypothèse que le chemin devant soit est similaire au chemin parcouru. Similaire ne veut pas dire identique, mais la connaissance des cahots, du code de la route, du comportement du véhicule, etc. est loin d’être inutile. Evidemment, il y aura toujours des surprises.
 
Je constate que « l’expérience est une lumière qui n’éclaire que celui qui la porte ». Je suis frappé par l’inefficacité des « conseils d’expérience » que l’on peut donner à autrui. Les gens préfèrent leurs préjugés (ce qui est médiocre) ou de « tenter l’expérience » (ce qui est louable). C’est vrai avec les enfants. Mais surtout c’est vrai avec les adultes, même dans un contexte professionnel.
Il y a des pistes d’explication à cela. D’abord, le conseil est peut être mal compris. Pour le rendre intelligible, il faudrait l’expliquer plus longuement, donner des exemples. Ensuite, le conseil n’est pas « cru ». A juste titre, puisque le conseilleur n’est pas le payeur. Il faudrait donc prouver ou du moins argumenter, justifier le conseil. Enfin, on peut toujours se croire dans un « cas particulier ». En effet, le conseil provient d’expériences qui sont dans un contexte donné du passé. Il est sûr que quelque chose a changé. Est-ce que cette « règle du passé » s’applique encore ?
 
Ce constat est un peu déprimant : il semble inutile de donner des conseils à autrui.
Il y a toutefois une exception. C’est lorsque l’on nous reconnaît une certaine expertise et que c’est la personne qui vient chercher conseil. Elle n’écoutera peut être pas la réponse, mais au point elle se sera posée la question.

Partager cet article
Repost0
3 janvier 2008 4 03 /01 /janvier /2008 09:12
Mathématiquement, 560606 et 1969,697 « donnent » 33. C’est un fait. De même, la circonférence du cercle qui stylise la boussole en 780 fait 33 cm (l’incertitude est inférieure à 1 mm).
Voilà 2 faits qui ne peuvent pas être une coïncidence (sinon Max est un charlot).
Il n’y a donc que 2 possibilités :
1 : La valeur 33 est à associer fondamentalement à la notion de mesure (strictement, ce n’est peut être pas toujours 33cm, cela peut être aussi 66, ou tout multiple de 33).
2 : La valeur de 33 est une fausse piste bâtie sur plusieurs énigmes.
 
Dans le cas de 1, outre le constat que la boussole a un périmètre de 33cm, il faudrait une solution de 780 qui dise que la notion de mesure est liée au périmètre de la boussole et éventuellement un « mode d’emploi ». Je n’ai rien trouvé de tel. Je n’ai jamais rien lu à part « prendre 33 ».
De plus, la majeure partie des chercheurs utilisent 33 cm et restent plantés. Cela ressemble furieusement à une fausse piste. Il n’empêche qu’il faut trouver la solution de 780.
Partager cet article
Repost0

PrÉSentation

  • : je blogue, donc je suis
  • : Si vous cherchez la vérité, allez croire ailleurs !
  • Contact

Recherche

Archives