Changement climatique de Philippe de Larminat : espert ou excroc ?

Au sujet de « Changement climatique : identification et projections », le livre de Philippe de Larminat, 2014.
Résumé

En 2014, Philippe de Larminat publie l’ouvrage Changement climatique : identification et projections dont l’originalité réside en la méthode d’identification des fonctions qui relient la température à la surface de la Terre à trois paramètres  : l’irradiation solaire, l’effet de serre et l’activité volcanique. L’identification, outil bien connu des automaticiens, semble n’avoir jamais été appliquée au climat de la Terre.

Au vu de certains de ses résultats, Philippe de Larminat conclut que la cause majeure des variations climatiques depuis deux millénaires – y compris le réchauffement constaté depuis 150 ans – serait plus probablement l’activité solaire que les émissions anthropiques de gaz à effet de serre. Ainsi l’augmentation de la température de 0,8°C depuis le début du XXe  serait due aux activités solaire et volcanique pour +0,4°C contre +0,2°C selon le GIEC, tandis que l’activité humaine y serait pour +0,2°C contre +0,8°C pour le GIEC. Le reste serait dû aux fluctuations aléatoires naturelles, soit +0,2°C pour lui contre -0,2°C pour le GIEC.

Ses estimations résultent de sa détermination de la sensibilité à l’activité solaire (Sirr) égale à 17,5 °C/W.m-2 soit près de ONZE FOIS la valeur SUPÉRIEURE de 1,62 °C/W.m-2 de la fourchette admise par le GIEC, (0,27 °C/W.m-2 < Sirr < 1,62 °C/W.m-2). La valeur supérieure de la sensibilité au CO2 serait quant à elle réduite d’un facteur compris entre 1,5 et 6 par rapport à la valeur supérieure admise par le GIEC (6°C). La valeur centrale pourrait même, sous certaines hypothèses, être franchement négative (jusqu’à -2,46°C !). Autrement dit l’essentiel de l’augmentation de température depuis le début de l’ère industrielle pourrait ne quasiment rien devoir aux gaz à effet de serre anthropiques et quasiment tout au soleil ! Rien que cela.

On comprend bien pourquoi cet ouvrage est largement repris dans des sites « climatosceptiques » au sens de ceux qui contestent, non plus le réchauffement climatique mais qui en contestent l’origine anthropique.

On trouvera de nombreuses louanges sur cet ouvrage et en particulier sur le fait que, à la différence du GIEC, le modèle de M. De Larminat, initialisé à l’année 2000, prévoit la pause climatique survenue a minima entre 1998 et 2012 (il semble que depuis la pause soit terminée). Ses « prédictions rétroactives » de la température 2000-2012 (cf. fig 11.6 ci-dessous) sont en effet bien meilleures que celles rapportées dans le rapport 2013 du GIEC.

Fig_11_6_&_comment_p122_CC_de Larminait_2014_ISTEFigure 1 : figure 11.6 avec commentaire (p.122)

On peut toutefois se demander pourquoi il ne réalise pas le même exercice pour l’accélération du réchauffement durant la période 1975-1998 ainsi que pour le refroidissement de la période 1945-1975 (cf. fig 2.10 de l’AR5). D’autant qu’écrivant (p.122) « s’agissant de prédictions à court terme, elles sont basées sur des modèles déterminées à partir de données recouvrant plus d’un millénaire », la prise en compte des dernières décennies ne devrait pas changer sensiblement les résultats comme il le confirme lui même peu avant (p. 122) :  « En 1999, […] nous aurions pu développer à l’identique les algorithmes d’identification et de prédiction exposés ici. Nous aurions alors obtenu les mêmes résultats ».

La réponse se trouve très probablement dans le graphique de la figure 2 ci-dessous qui reproduit la  figure 9.3 de la page 99. On constate que la simulation « Models using both natural and anthropogenic forcings » (courbe épaisse « ondulée » en gris clair) est quasi linéaire depuis 1910. On constate également qu’en l’an 2000, elle est bien en dessous des observations. On peut donc affirmer que le modèle de l’auteur n’a pas prévu l’accélération du réchauffement de la période 1975-1998 (sa courbe part au dessus en 1975 et finit en dessous en 1998). Son modèle ne semble pas non plus prédire l’accélération 1920-1945, pas plus que le refroidissement des années 1945-1975.

Fig_9_3_p99_CC_de Larminait_2014_ISTEFigure 2 : reproduction figure 9.3 p99 de changement climatique

Le plus fort c’est que pour « prédire » le plateau 1998-2012 (cf. sa figure 11.6 ci-dessus) il initialise son modèle à la valeur constatée en 2000 et non à la valeur prédite par ses modèles. Comme la forme de la courbe issue de son modèle correspond à un lissage des températures observées à partir de 1920 (peut-il en être autrement puisque selon lui la croissance exponentielle de la concentration en CO2 n’a que peu d’impact ?), la pente moyenne est forcément plus proche de celle du ralentissement 1998-2012 observé.

On commence à comprendre pourquoi « l’expert » – comme il est affirmé par l’éditeur en 4e de couverture – n’a pas publié les résultats de ses travaux dans une revue scientifique internationale avec comité de lecture. Un livre n’engage en effet que son auteur (et,  normalement, son éditeur). En outre, un article dans une revue scientifique sera lu par nombre de scientifiques du domaine, permettant ainsi la poursuite ou la critique des travaux. Dommage !

Avant d’analyser le contenu du livre, j’ai cherché à comprendre les motivations de P. de Larminat, reconnu par la communauté nationale des automaticiens pour sa compétence dans le domaine de la commande. Il a d’ailleurs écrit quelques ouvrages destinés à l’enseignement de cet aspect de l’automatique qui ont eu un certain succès. La publication de cet ouvrage de M. de Larminat consacré à l’application d’une méthode d’identification appliqué à un processus aussi complexe que le climat et éloigné de ses domaines de prédilection, a dû surprendre nombre d’Universitaires le connaissant un tant soit peu.

En effet, un scientifique se limite généralement à écrire des livres, même si destinés au « grand public », sur des sujets dans lesquels il excelle. Je dois donc avouer, qu’en tant qu’automaticien de formation, je fus également surpris. Par conséquent avant de lire l’ouvrage j’ai tenté d’en savoir plus sur ce scientifique. La suite de cet article est donc d’abord consacré à l’homme, non pas à des fins de stériles attaques ad hominem, mais afin d’essayer de comprendre ses motivations et sa réelle compétence dans le domaine de l’identification et du climat.

Au sujet de l’auteur

Mes recherches m’ont permis de disposer des seules informations suivantes :

  • M. de Larminat, né en 1939, était âgé de 75 ans lorsqu’il a publié le livre. Il était a priori en retraite depuis quelques années. Je n’ai en tout cas pas trouvé ses coordonnées dans aucun annuaire d’établissement, y compris ceux dans lesquels il fût affecté ;
  • M. de Larminat met généreusement à disposition les codes sources de ses programmes ainsi que les jeux de données qu’il a utilisé et invite à les exploiter (ils sont ICI sur le site de l’éditeur). Aussi il est surprenant qu’il ne permette pas d’échanger avec lui au sujet de son travail, travail pourtant assez conséquent : je n’ai trouvé aucun blog ni aucune @dresse permettant d’entrer en contact avec lui. Si vous savez comment le joindre, n’hésitez pas à m’en informer via le formulaire de contact ou via un commentaire ci-dessous ;
  • Selon la 4ede couverture, M. de Larminat « est expert en modélisation des processus » alors qu’il n’est « auteur [que] de nombreuses publications et ouvrages en contrôle-commande ». Une recherche avec pour mots-clés « « Philippe De Larminat » identification » ne donne en effet que des résultats relatifs à ce livre. Or l’identification est un outil constituant un domaine de compétence spécifique à l’intérieur du domaine de la modélisation. Peut-on donc considérer De Larminat comme un « expert » dans ce domaine ? Pour les profanes, voir les distinctions entre « modélisation », « identification » et « contrôle » sur la page de l’éditeur de l’IJMIC (Journal International de la Modélisation, de l’Identification et du Contrôle) ;

Ayant lu le livre, j’aurais aimé l’interroger relativement à quelques précisions sur le fond et la forme de certains aspects de son livre. Et en particulier, j’aurais aimé savoir pourquoi  il n’a pas soumis son travail sous forme d’article à une revue scientifique avec comité de lecture ? Il n’est en effet pas besoin d’être en activité pour soumettre un article. Surtout si l’on est un expert !

Au sujet du livre (forme)

Le livre est plutôt bien fait. Cependant, outre les remarques formulées dans le résumé :

  • On peut regretter que les illustrations, en noir et blanc et de tailles réduites, ne soient pas à la hauteur des enjeux du débat. En particulier celles illustrant les reconstitutions du climat et de l’activité solaire sur les deux derniers millénaires. Ces dernières sont en effet l’objet des principales controverses liées à leurs imperfections et incertitudes ;
  • On peut déplorer la présence du Chapitre 3 intitulé La guerre des graphes (p. 35) : l’auteur lui-même reconnaît en introduction de ce chapitre qu’« Un tel chapitre ne devrait pas se trouver dans un ouvrage scientifique. Il s’impose pourtant, vu le contexte polémique qui agite la question du réchauffement climatique ». D’autant plus regrettable que des extraits de courriels (piratés) entre des chercheurs y soient utilisés comme arguments ! Sur ces courriels : voir Incident des e-mails du Climatic Research Unit sur Wikipedia ;
  • On peut regretter que l’auteur n’ait pas pris la peine de confronter son modèle, établi pour le climat global (terre + océan), aux températures historiques (1850 à nos jours) de différentes régions. Le GIEC le propose pour les 7 continents (Amérique du Nord, Amérique du Sud, Europe, Afrique, Asie, Australie, Antarctique) ainsi que pour 9 autres régions ou océans pour la période 1950 à nos jours (fig.9.1 p. 98 du livre ou sur le site du GIEC : fig 10-21 de l’AR5, 2013) ;
  • On peut regretter que l’auteur ne consacre qu’une partie très réduite à la validation de ses résultats : la seule simulation (sur les 16 possibles) qu’il propose et qui permet de confronter ses résultats à chacune des quatre courbes de températures (Moberg, Ljungqvist, Loehle, Jones-Mann) utilisées pour l’identification est celle de Ljungqvist.
    On peut voir la superposition de la courbe simulée par son modèle (en noir) avec la courbe de Lungqvist (en gris) sur l’image supérieure droite de la figure 7.2 (Free model simulation) qu’il présente à la section 7.2.1 (cf. figure 3 ci-dessous) :

Section_721_dont_Fig_7_6_p77_CC_de Larminait_2014_ISTEFigure 3 : copie de la figure 7.2 avec le commentaire (p.77)

Il n’est même pas précisé à laquelle des quatre reconstructions de l’activité solaire qu’il a réalisée elle correspond. Pourquoi n’avoir pas proposé les mêmes graphiques (une demi-page) pour Loehle, Moberg et Jones-Mann ?

  • Si il semble pertinent de comparer les qualité des simulations obtenues l’une à partir de son identification libre (pas de présupposé sur les valeurs des paramètres Sirr  et Sclim), l’autre à partir d’identification forcée (avec Sirr = 1,62 °C/W.m-2 ). Cependant, si le modèle qu’il propose n’est pas bon, il n’est pas étonnant que les valeurs de Sirr  et Sclim retenues par le GIEC appliquées au modèle de De Larminat ne donne pas de bons résultats ;
Au sujet des données qu’il a sélectionnées

Afin de tenter de vérifier la validité des modèles et/ou de les déterminer, les climatologues doivent utiliser des données sur le climat passé. Si leur modèle « colle » suffisamment aux données, on peut considérer que le modèle est valide. C’est à cette seule condition que l’on peut réaliser des projections valides pour l’avenir.

Parmi ces données il y a bien sûr les températures à la surface de la Terre (terres et océans). Mais aussi les données concernant les facteurs qui conditionnent ces températures. Parmi ces facteurs font partie indubitablement le soleil, les gaz à effet de serre et l’activité volcanique. L’auteur ne retiendra que des données concernant ces trois seuls facteurs.

  • Données concernant les températures

Concernant le passé récent (depuis 1850), on dispose de températures réelles – mesurées avec des thermomètres – à de multiples endroit de la Terre. Même si elles sont, comme toute mesure, entachées d’imprécisions, elles ne font pas l’objet de débats.

En revanche, avant cette période, appelée période paléoclimatique, on tente de reconstituer les températures à partir de proxys. Les proxys sont des événements géologiques, botaniques, zoologiques, anthropiques, océaniques, . . . qui dépendent de la température. Ils permettent donc d’estimer, avec plus ou moins de précision, de manière plus ou moins localisée, la température qu’il faisait au moment où ces événements se sont produits et là où ils se sont produits.

De nombreuses tentatives sont effectuées par des chercheurs à travers le monde pour trouver de nouveaux proxys et/ou pour améliorer leurs liens avec les températures. Ainsi, dans le dernier rapport du GIEC (fig 5.7, chap.5, AR5, 2013), on peut voir quinze reconstructions de la température de l’hémisphère Nord pour les deux derniers millénaires. Nous ne reproduisons ci-dessous que cette partie (a) de la figure 5.7.  Les deux autres concernent respectivement l’hémisphère Sud (b) et la Terre entière (c).

Fig5-07-a_NH_AR5_IPCC_1024Figure 1 : les 15 paléotempératures de l’hémisphère nord telles que présentées dans le 5e rapport du GIEC.
(Cliquez ICI pour visualiser la figure complète directement à partir du site du GIEC).

Comme on peut le constater l’écart de températures entre deux courbes peut atteindre jusqu’à 1,5°C sur toute la période paléoclimatique, beaucoup moins sur la période historique. C’est beaucoup et il va de soit que l’on peut trouver autant de modèles climatiques qu’il y a de courbes de température.

P. de Larminat a sélectionné trois d’entre-elles (Mo05wave, Lj10cps, LM08ave) auxquelles il a rajouté celle de Jones & Mann de 2004 car proche de « la crosse de Hockey » de Mann de 1999, cette dernière ne figurant plus dans les rapports du GIEC car trop contestée. De Larminat justifie ce choix ainsi : « malgré son absence au catalogue de l’AR5, nous conservons néanmoins celle de Jones et Mann, pour sa proximité avec la courbe en crosse de hockey [MAN99] que nous aurions retenue pour son intérêt « historique » si elle n’avait pas été restreinte au second millénaire. ».  On peut se demander pourquoi, parmi les trois courbes de Mann concernant l’hémisphère nord présentes dans ce rapport du GIEC, il n’a pas conservé celle qui démarre à l’an 200 (Ma08cpsl, tracé fin continu en rouge).

L’auteur justifie ainsi son choix (p.23) : « Quoi qu’il en soit, cela a été notre choix, dicté un peu par le hasard et les circonstances, et nous pensons qu’il est assez représentatif de la variété des reconstructions disponibles. ». Peut-être, peut-être pas car il faudrait définir des critères de « représentativité ».

Comme l’indique l’auteur (p.24) : « Certaines de ces reconstructions sont censées être globales, d’autres sont limitées aux continents, ou à l’hémisphère Nord. Nous les raccorderons néanmoins sans distinction à une même température globale (HadCRUT4), les incertitudes engendrées par les proxys étant apparemment bien supérieures aux différences qu’on peut relever sur la période historique, entre continent et océans, ou entre les hémisphères nord et sud ». HadCRUT4 est la température historique globale depuis 1850, c’est à dire celle que l’on peut considérer comme objective et en tout cas non contestée par l’auteur.

Est-il légitime de réaliser ce raccordement ? Peut-être, peut-être pas !

Nous reproduisons ci-dessous sa sélection après la procédure de raccordement.

Fig_2_3_p23_CC_de Larminait_2014_ISTEFigure 2 : figure 2.3 p.23 du livre Changement climatique de P. de Larminat, 2014

Par comparaison avec les courbes de l’AR5 du GIEC (cf. fig. 3 ci-dessous), on peut constater que le raccordement réhausse de +0,18 °C la courbe de Ljungvist et de +0,15°C celle de Moberg. Justifié ou pas, ce raccordement induit la réduction du réchauffement postérieur à 1850 et, par conséquent, l’impact des émissions anthropiques commencées à peu près à la même date.

Effet_raccordement_HadCRUT4

Figure 2 : Mise en évidence du réhaussement des paléotempératures sélectionnées par De Larminat suite au raccordement aux températures historiques (1850 à nos jours) de HadCRUT4.

  • Données concernant l’irradiance solaire :

Comme pour les données de températures, l’auteur sélectionne également quatre jeux de données censés représenter l’irradiance totale du soleil, deux sur deux millénaires, deux limités aux cinq derniers siècles. Il semble cependant ici que ce soit l’auteur qui ait recomposé lui-même ces signaux sur ces périodes puisqu’il écrit (2.4.5. Une sélection, p. 31) : « La corrélation de toutes ces manifestations d’activité solaire (Total solar Irradiance, taches, champ magnétique, marqueurs cosmogéniques) justifie leur fusion dans des signaux d’un seul tenant. ». La suite du texte explique en effet les traitements dont il semble être l’auteur. On peut légitimement s’interroger sur la validité de telles reconstructions puisque aucun spécialiste du soleil ne semble s’y être risqué. L’auteur cite pourtant cinq reconstructions quadricentenaires (fig. 2.9 p.29 et fig. 2.10 p.30) et deux reconstructions bimillénaires (fig. 2.11 p.31) : la quadricentenaire de la fig. 2.10 dont il justifie la non-sélection par un énigmatique « dont nous n’avons pas récupéré les données », et les deux reconstructions bimillénaires réalisées « à base de marqueurs isotopiques »qu’il ne sélectionne pas au motif que « Malheureusement, elles ne sont pas raccordées aux mesures satellitaires, ce qui les rend pour nous inexploitables »;

  • Données concernant l’activité volcanique : rien à signaler ;
  • Données concernant la concentration des gaz à effet de serre : rien à signaler ;

Au vu de ces sélections de données d’entrées et de sorties de sa « boite noire », j’aurais aimé soumettre à l’auteur  la question suivante : pourquoi n’a-t-il pas appliqué sa méthode à toutes les reconstructions disponibles de températures (cf. ci-dessus fig. 5.7) ? S’agissant juste d’un jeu de données à mettre en entrée de sa « boite noire » (cf. infra Au sujet de la méthode d’identification) et que, comme l’affirme plus loin l’auteur, sa méthode ne nécessite pas de gros et longs calculs, il eut été facile de les réaliser. Sa seule explication réside en cette phrase (p.23) : « Nous nous sommes arrêtés [à quatre reconstructions de températures], pour ne pas faire exploser le nombre de combinaisons avec les reconstructions d’activité solaire ». Le nombre de combinaisons est donc de seize (quatre jeux de températures x quatre jeux d’irradiance).

Les climatologues ne se fondent pas sur ces observations pour déterminer les poids des différents facteurs qui régissent le climat. Ils ne s’en servent que pour vérifier si leurs modèles, – 24 en tout réalisés par trois grands organismes – sont réalistes. Chaque modèle intègre les connaissances des différents processus qui régissent le climat. C’est ce que l’on appelle la modélisation.

À l’inverse, l’auteur a déterminé les poids de ces facteurs à partir d’une méthode d’identification : à partir des observations d’entrées (activités solaire et volcanique, gaz à effet de serre, . . .), il établit les relations qui aux observations de sortie qui caractérisent le climat (températures, . . .). C’est cette méthode d’identification que nous allons maintenant examiner. Mais, quoi qu’automaticien, je n’y connais pas grand chose en identification, je laisse maintenant la parole à mes collègues « expert » de l’identification, ou en tout cas aptes à juger si certaines erreurs ont été commises par M. de Larminat (hypothèses, méthodologie, interprétations, . . . ) .

Au sujet de la méthode d’identification : à venir après consultation de spécialistes de l’identification !

En attendant cet article très détaillé de Stéphane Foucart : Hoax climatique #2 : « Le réchauffement, c’est à cause du Soleil ! »,  15 Oct. 2015.

La spirale infernale fiscale française : 44 taxes majeures comme en Allemagne

   La France serait prise dans « une spirale fiscale infernale ». C’est ce qu’affirme Nicolas Beytout dans son édito politique du 5 mars 2015 sur France-Inter. Ce serait cette spirale infernale qui pousserait nombre d’entreprises à faire de « l’optimisation fiscale ». Selon ce journaliste, né de bonne famille, les redressements fiscaux de 2015 seront au final deux fois moindre, les tribunaux donnant souvent raison aux contrevenants qui n’auraient donc pas fraudé mais . . . optimisés ! A ce jour, j’attends la source de ce scoop de la part de M. Beytout que j’ai interrogé sur le site de France-Inter  et qui a dit « Les contribuables, en particulier les entreprises qui ont à payer un nombre d’impôts et taxes infiniment supérieurs à nous les particuliers « . IN-FI-NI-MENT, rien que cela !

En réalité en terme de nombre de taxes majeures selon la définition de l’organisme Eurostat, la France se situe a égalité avec l’Allemagne (44 taxes majeures) et derrière le Royaume Uni (50 taxes). Seuls le Danemark (pays du monde où on est le plus heureux), l’Italie, la Hongrie, la Suède et la Roumanie ont un nombre supérieur. La Suède et le Danemark sont-ils à plaindre ?

Nombre_taxes_majeures_pays_UE_2015Conclusion : il ne semble donc pas que le système fiscal français pêche particulièrement par un nombre pléthorique de taxes majeures contrairement à ce que le chien de garde Nicolas Beytout affirme péremptoirement. Mais, refrain très connu : la France, quoique 5e puissance mondiale avec 65 millions d’habitants, dispose de toutes les tares ! Dont des codes fiscal et  du travail volumineux et complexes.

On pourrait également prendre en compte les taxes mineures mais hélas Eurostat ne dispose pas de ces données pour la France. Cependant on peut constater que le nombre totale de taxes ne semblent pas avoir grand influence sur l’économie d’un pays à en croire le classement (sans la France donc) ci-dessous (cliquez pour agrandir).

Nombre_total_de_taxes_pays_UE_2015Note sur N. Beytout : son pedigree Wikipedia nous indique que celui-ci a sévi au Figaro (Dassault) puis aux Echos (LVMH de B. Arnault) jusqu’en 2011. Il y fut nommé en 1988 rédacteur en chef par sa grand-mère alors propriétaire. Puis remercié après maintes déboires par le groupe LVMH En 2007, il fit partie des invités au Fouquet’s le au soir, pour fêter la victoire de Nicolas Sarkozy à l’élection présidentielle. Un chien de garde pure race donc !

Son édito étant en « replay » jusqu’au 29 novembre 2018, voici la transcription de ce moment d’anthologie. Godet et Molinié-Verdier, atomisés ! Lisez-donc :

Nicolas Beytout (NB) : « Complexité croissante du système fiscal français. On est entré dans une spirale un peu folle dans laquelle il y a de plus en plus de prélèvements fiscaux et sociaux, de plus en plus de lois et de règlements et de plus en plus d’instabilité fiscale. La règle change en permanence parfois même de manière rétroactive. Les contribuables, en particulier les entreprises qui ont à payer un nombre d’impôts et taxes infiniment supérieurs à nous les particuliers. Les contribuables donc doivent s’orienter dans un maquis infernal et derrière chaque buisson ben il y a ou il peut y avoir un contrôle « 
Journaliste : « Mais ces contrôles ont bien sanctionné des fraudes ? »
NB : « Eh bien non pas forcément. Qu’on me comprenne bien, y a des fraudeurs, ils doivent être sanctionnés. Il y a aussi ceux qui, légitimement, en respectant la loi essaient de sortir de ce cercle infernal dans lequel est entré notre fiscalité : plus de pression, plus d’impôts, plus de taxes, plus de contrôles. Alors on appelle cela l’optimisation fiscale et c’est assimilé la plupart du temps à de la fraude. Lorsque c’est obsessionnelle et systématique, alors oui cela devient de la fraude. On pense tous à Google ou à Apple qui paient très peu d’impôts dans les pays où ils opèrent mais, dans beaucoup de cas, c’est juste pour une entreprise ou un particulier de trouver le chemin le moins coûteux dans ce maquis incensé dont je parlais. D’ailleurs les services du Ministère des finances se gardent bien de communiquer dessus. Sur les 21 et quelques milliards de redressements notifiés seule une petite moitié est recouvrée. Beaucoup de contribuables contestent ces redressements. Beaucoup de contribuables contestent ces redressements vont devant le tribunaux et ils gagnent. Et ce n’est pas rare. Au fond vous voyez dans un monde normal, on devrait avoir une fiscalité mille fois plus simple – quelle que soit la pression fiscale, ce n’est pas un sujet de droite ou de gauche – mille fois plus simple, des règles lisibles, incontournables, des règles comprises et admises et un Ministère qui s’enorgueillisse d’avoir un record à la baisse de redressements fiscaux ».

Conclusion : pour qu’il n’y ait plus de fraudeurs supprimons les impôts. Et pour qu’il n’y ait plus d’excès de vitesse, supprimons les limitations de vitesse. C.Q.F.D.

Bonus : le nombre de taxes majeures a-t-il un impact sur le PIB per capita d’un pays ? Si corrélation il y a, le graphique ci-dessous semble démontrer une corrélation positive entre nombre de taxes majeures et PIB/h. Le Luxembourg, paradis fiscal, fait évidemment figure d’exception notable.

Correlation_PIB-PPA_Nombre_taxes_majeures_pays_UE_2015


Sources des données sur le site d’Eurostat :

Disposer d’une boite à « écolorvidés », c’est pas compliqué (1)

Pour disposer d’une boite à écolorvidés (= corvidé écolo, cf. présentation et état d’avancement ICI) et faute de trouver un modèle commercialisé, il vous faudra de l’huile de coude, de l’envie de bricoler, quelques notions de menuiserie, d’électronique, d’informatique et d’électricité. A priori si vous disposez d’un bac scientifique, mis à part la menuiserie, cela devrait suffire. Mais il vous faudra aussi débourser très probablement quelques dizaines d’€, très probablement moins d’une centaine selon vos capacités à faire de la récup, de l’achat d’occasion et de votre empressement. Continuer la lecture

evolution-de-l-incidence-des-ald-par-sexe

Trou de la sécu : 83% des dépenses sont liées aux maladies chroniques dont le nombre explose

Le « trou » de la sécu on en parle depuis longtemps. Chaque année ou presque des rustines permettent de limiter ce trou. Mais, hélas, cela ne conduira qu’à réduire les soins pour un nombre de personnes modestes de plus en plus important. Le 1 € de participation forfaitaire lors d’une consultation chez un médecin fait partie de cet arsenal de rustines visant les plus modestes d’entre-nous.

Or 83% des dépenses de la sécu sont destinées à des soins liées au maladies chroniques dont le nombre explose : depuis 1990, les maladies cardiovasculaires ont progressé 5 fois plus vite que la population, le cancer 4 fois plus, les affections psychiatriques 3 fois plus, le diabète 6 fois plus (depuis 2000), …

Continuer la lecture

Comment se débarrasser soi-même d’une hernie inguinale, alternative à l’intervention chirugicale ?

Lettre ouverte à mes médecins et conseils pour qui veut tenter mon expérience.

Ci-dessous vous trouverez la lettre envoyée le 2 février 2005 à mes médecins, généraliste et spécialistes, qui m’ont examiné au sujet d’une hernie inguinale en novembre 2004. Vous trouverez également un lien sur la page dans laquelle je détaille « ma » thérapie.

Continuer la lecture

Le signal prix dans l’usage de la voiture

La taxation du carbone pour la réduction de l’usage de la voiture particulière : utile ou nécessaire ?

Cet article fait suite à l’article Au sujet du prix du carbone questionnant de l’utilité ou de la nécessité du prix à donner au carbone afin de réduire les émissions de gaz à effet de serre pour atteindre l’objectif des +2°C maximal, le fameux facteur 4 concernant les pays riches dont la France fait partie. Dans ce précédent article nous avions survolé les différents impacts du prix du carbone sur les choix de consommation : sur l’alimentation, sur l’énergie (chauffage ou électricité résidentielles), sur les transports de personnes. Nous allons ici nous focaliser sur ce dernier aspect : l’impact du signal prix sur les émissions de gaz à effet de serre dues à l’usage de la voiture particulière.
Continuer la lecture

Le Royaume Uni, bon élève en terme d’émissions de gaz à effet de serre du secteur transport

   De huit pays européens parmi les plus riches, le Royaume-Uni est celui qui a le plus réduit « l’intensité carbone » [1] du secteur transport entre 1990 et 2012. Avec une réduction de 35,74%, juste talonné par la Suède (-34,8%), il fait beaucoup mieux que la France de ce point de vue (-24,9%).

Continuer la lecture

Relation(s) entre richesse d’un pays et les émissions de gaz à effet de serre de son secteur transport

Dans ce billet nous faisons l’hypothèse que, « naturellement », la part des revenus des ménages consacrés aux transports ne croît pas linéairement, voire baisse, avec l’importance de ces revenus. En effet, en France et à partir du 7e décile cette part décroît. Si ceci est vérifié pour d’autres pays, alors cela peut expliquer une baisse « naturelle » de « l’intensité carbone » [1] du secteur transport de ces pays. Nous constatons en effet pour les 9 pays étudiés une très forte corrélation (R2=0,84) entre niveau de vie et niveau d’émissions de GES du secteur transport rapporté à la richesse du pays. C’est ce que nous appelons « intensité carbone » avec des guillemets.
Continuer la lecture

Au sujet du prix du carbone

La taxation du carbone, utile ou nécessaire ?

Si il ne fallait qu’un argument pour justifier l’efficacité de la taxe carbone, ce serait ce graphique. Il met en relation le prix du carburant (abscisse) avec la consommation annuel de carburant par habitant (ordonnée) de 13 pays « riches ».

Conso_carburant_1998_vs_prix_du _litre_Manicore_2004Consommation de carburants par habitant en 1998 (en Gigajoules, ordonnée) en fonction du prix des carburants ($/litre, abscisse). Source 30 Years of Energy Use in IEA Countries, IEA, 2004.

Continuer la lecture

La taxe carbone en Suède : pour ou contre un prix du carbone ?

Le débat autour de la pertinence d’une taxe carbone s’est ravivé à l’approche de la COP21. Ainsi notre prix « Nobel », Jean Tirole en est un ardent promoteur. Dans sa tribune « Pour un accord efficace sur le climat »  (5 juin 2015, Le Monde) il la défend bec et ongles : « La stratégie d’engagements volontaires est largement insuffisante [et] n’a pas l’efficacité économique que procure la fixation d’un prix unique du carbone. ».

Continuer la lecture

LA TÉLÉ EN TOUS LIEUX ET À TOUTE HEURE

La Télé et les écrans en général : des faits , rien que des faits !

Extraits du livre TV lobotomie
CHAPITRE I
LA TÉLÉ EN TOUS LIEUX ET À TOUTE HEURE

« La télévision n’exige du spectateur qu’un acte de courage – mais il est
surhumain -, c’est de l’éteindre. »
, Pascal Bruckner, philosophe [161].

« La décision importante consiste à savoir si l’on a une télévision ou pas,
si l’on expose les enfants à presque tout ce que la télévision offre, ou à rien du tout. »,
Qoshua Meyrowitz, professeur de communication à l’université du New Hampshire [162]

« Alors que jusqu’à maintenant, la télévision enchaînait son spectateur [… ]. elle l’accompagnera demain partout où il ira », François Lost, spécialiste des médias, professeur à l’Université de Paris 3-Sorbonne [60]

Cet article est à relier à mon article chapeau TV LOBOTOMIE qui présente le livre éponyme de Pascal Desmurget. Le chapitre II, « LA TÉLÉ ÉTOUFFE L’INTELLIGENCE « , est résumé dans cet autre article.

Continuer la lecture

Blog_a_la_une_2015-11-10-16-01

Collecter les déchets grâce aux corvidés sauvages

Une vidéo avant de lire ? Cliquez ICI !

.   Ce bref billet a pour objet de soumettre à l’évaluation citoyenne le projet suivant :  faire réaliser par des corvidés (pies, corneilles, corbeaux) sauvages la collecte des déchets domestiques laissées dans la nature, telles les canettes qui jonchent les bords de route. Par cette collaboration pour laquelle ces corvidés seront récompensés, nous espérons redorer l’image des corvidés encore considérés comme nuisibles par nos institutions et nombre de nos congénères.
Continuer la lecture

Depuis la crise de 2007-2008, la croissance est sur une tendance bien plus faible qu’avant !

   Le graphique ci-dessous illustre le propos du directeur de la recherche économique chez Natixis, filiale de BPCE, lequel écrit dans son article « Le FMI s’interroge sur la croissance à moyen terme » :  » Dans son rapport d’avril 2015, le FMI s’interroge sur la possibilité de converger vers la trajectoire de croissance d’avant crise. Sa réponse est clairement négative : la croissance potentielle, celle qui ne crée pas de tensions inflationnistes, sera durablement plus réduite que celle constatée avant la crise. [..] On ne retournera pas vers la tendance passée mais pire on s’en éloignera de plus en plus. « .

Depuis la crise de 2007-2008, la croissance est sur une tendance bien plus faible qu'avant !

   Cette tendance ne fait donc que confirmer la baisse tendancielle inéluctable du taux de croissance que Jean Gadrey mettait en évidence en 2009 dans son livre « Adieu à la croissance ».

Continuer la lecture

L’abstention ou le vote blanc contre le FN et la pédagogie de la catastrophe

Petite analyse des scores du FN au 1er tour des départementales 2015 dans les cantons de municipalités FN ou ex-FN par comparaison avec son score au niveau national.

L'abstention ou le vote blanc contre le FN et la pédagogie de la catastrophe

Un ami ayant le choix entre un FN (la peste ?) et un UMP (le choléra ?) au 2cd tour des départementales 2015 me dit avoir voté blanc. Je lui fais tout d’abord remarquer qu’il subsiste tout de même une différence de gravité dans ces deux maladies.

Continuer la lecture

Ce sont les musulmans, les juifs, ou les deux qui amènent la merde en France ?

   D’où vient le problème de l’atteinte à la laïcité, sinon des juifs ? On le dit, ça ? Eh bien moi, je le dis ! Je rêve ou quoi ? C’est ça notre problème actuellement, ce sont les juifs qui mettent en cause la laïcité ! Ce sont les juifs qui amènent la merde en France aujourd’hui !

Avoue que, si tu me connais un tant soit peu, tu te demandes : il déconne ou quoi ?

Continuer la lecture

Le fantasme de l’islamisation de la France

À ceux qui voient en tout immigré ou descendant d’immigré non européen, un musulman . . .

. . . et qui, percevant une augmentation de la « coloration » de notre population, en déduisent une « islamisation » de la France, laquelle serait en outre une menace.

Que disent les chiffres ?

    Un premier chiffre : 8 % des adultes de 18 à 50 ans se déclarent de religion musulmane, soit 2,1 millions de personnes.
Source :  » Trajectoires et Origines : Enquête sur la diversité des populations en France », p. 124, INED, octobre 2010).

Le fantasme de l'islamisation de la France

    Pour les sceptiques envers les statistiques officielles, selon l’IFOP, ce taux serait de 5,8% de la population des plus de 18 ans (source :  » ANALYSE : 1989-2011, Enquête sur l’implantation et l’évolution de l’Islam de France », p.4, IFOP, juillet 2011). Cette dernière enquête évaluant à 9% la part des plus de 55 ans dans la population musulmane (p. 5), ce chiffre de 5,8% est compatible avec le chiffre de 8% des 18-50 ans de l’enquête de l’INED (Rq : de nombreux immigrés « musulmans » retournent dans leur pays d’origine à l’occasion de leur retraite).

Le fantasme de l'islamisation de la France

    Nous constatons une répartition inégale sur le territoire. Inégalités liées à l’historique des bassins d’emplois des immigrés « musulmans » mais liées aussi à la politique du logement. De nombreuses villes ne respectent pas la loi SRU instituant une proportion de 20% de logements sociaux, les « musulmans » faisant plutôt partie des classes pauvres et modestes.

   Par conséquent, en terme de population religieuse, la population musulmane (8%) n’est pas plus une menace pour notre laïcité que la population catholique qui représente 43% de la population française de plus de 18 ans (cf. tableau 1 supra).

Comment donc une population religieuse aussi réduite pourrait constituer une menace ?

    Si vous préférez écouter que lire, je vous suggère ces deux vidéos de Raphaël Liogier, professeur à l’Institut d’Études Politiques d’Aix en Provence, auteur de l’ouvrage “Le mythe de l’islamisation” (2012) : une courte (8 min.) et une longue (26 min). Ou lire l’article « les paranos de l’islamisation » dans Politis ou encore l’avis de l’éditeur.

    Comme rappelé dans ces documents, d’un point de vue quantitatif, l’islamisation de la France n’est assurément pas en cours, et ce après 50 ans d’immigration « musulmane », importante et encouragée jusqu’en 1975, bien moindre et stable depuis.

    Ainsi de 2005 à 2010, le nombre d’entrées est stabilisé autour des 200.000 entrées (201.500 en 2010) auquel il convient de retrancher les sorties (126.500 en 2010), comme l’illustre le tableau ci-dessous.

Note : le nombre important d’immigrés quittant le territoire s’explique essentiellement par la forte proportion d’étudiants (32,4 % des entrées en 2010) et par le retour au pays pour la retraite, 40-50 ans après l’immigration massive des années 1960-70.

    Donc non seulement l’immigration globale s’est réduite mais en outre la part de l’immigration « musulmane » n’en représente plus qu’un bon tiers comme l’illustre le diagramme ci-dessous.

    L’ensemble des quatre pays à forte population musulmane (82 à 86 %), à savoir la Turquie, la Tunisie, le Maroc et l’Algérie représente 34,5% de l’immigration (2008). En rajoutant l’Afrique subsaharienne (9%), à forte proportion musulmane (80%), l’on arrive à 43%.

Une population « musulmane » stable, voire en diminution.

    La population « musulmane » en France ne peut donc pas s’accroître puisqu’on ne constate pas de conversions, que le flux migratoire « musulman » est stable et que le taux de natalité des immigrés « musulmans » rejoint rapidement celui de la population française.

    On peut même imaginer une réduction de la population « musulmane » dans la mesure où nombre de descendants d’immigrés « musulmans » quitte la religion musulmane au profit du christianisme ou d’aucune religion.

    C’est ce qu’atteste le tableau ci-dessous résumant la situation des quatre principales origines géographiques d’immigrés « musulmans ». Comme on le voit, il y a 10 à 20 % de musulmans de moins chez les descendants d’immigrés que chez les immigrés. En particulier, l’on constate une baisse d’environ 22% pour les trois principaux pays d’immigration « musulmane ».

Source : Trajectoire et Origines (TeO) : Enquête sur la diversité des populations de France, Ch. 16, p 125, INED-INSEE, 2008.

   Ces chiffres de l’INED-INSEE sont confirmés par l’enquête IFOP/La Croix qui atteste que 26% des descendants d’une famille musulmane se déclarent non musulmans (22%), d’une autre religion (1%) ou sans religion (3%) (source :  » ANALYSE : 1989-2011, Enquête sur l’implantation et l’évolution de l’Islam de France », p.7, IFOP, juillet 2011).

   De son côté le Pew Research Center, dans son rapport intitulé «Le futur de la population musulmane globale» (en anglais, 2011), se fondant sur les données du document cité ci-dessus  « Trajectoires et origines » ,  conclut que « pour la France, la projection basse pour 2030 tourne autour de 9,8 % de population de religion musulmane. Et autour de 10,9 % pour la projection haute, les variables essentielles étant le taux de fécondité et le rythme de l’immigration. ».   La projection haute conduit à une part de la population se déclarant musulmane très minoritaire (10,9%), bien inférieure à celle des chrétiens (45% en 2008).

Si la proportion de musulmans en France n’augmente pas, l’aspect qualitatif constituerait-il cette présumée islamisation de la France ?

    En attendant de plus amples développements, voir ce document, cette video et/ou ce livre. Du même auteur, lire l’article Le mythe de l’invasion arabo-musulmane (Raphaël Liogier, Mai 2014).

    Mais je me permets de douter d’un quelconque risque : en 1905, lorsque a été décidé la laïcité de la République Française, la proportion de catholiques en France représentait 90 % de la population.

     En outre, la multiplicité des courants musulmans en France bride toute possibilité d’organisation. D’ailleurs, n’assiste-t-on pas à des guerres entre populations musulmanes, essentiellement sunnites vs chiites, plutôt que vis à vis de  populations non musulmanes ?

    Si l’on établit le nombre d’établissements scolaires confessionnels rapportée à la population de la confession concernée (cf. 1er tableau ci-dessus) , on obtient :

  • 564 établissements de confession juive (282 établissements pour 0,5% de résidents français de 18 à 60 ans se déclarant de confession juive) ;
  • 197 établissements de confession catholique (8485 établissements pour 43% de catholiques) ;
  • 3,75 établissements de confession musulmane (30 établissements pour 8% de musulmans).

…………………

    Difficile d’en déduire une islamisation par l’enseignement, pas plus que par un présumé communautarisme d’ailleurs. Lire à ce propos l’article de janvier 2015 d’Olivier Roy : «La communauté musulmane n’existe pas»

    Une couverture de magazine telle celle de gauche ci-dessous laisse accroire une réalité qui n’est donc que pur fantasme. Celle de droite est un montage (il y en a d’autres ICI) afin de se rendre mieux compte de l’objectif stigmatisant de telles couvertures.

Actualisation (janvier 2015) : quelques courbes et données pertinentes sur le site du Monde : Petites et grandes erreurs factuelles d’Eric Zemmour sur l’immigration

En 2016, les 1 % les plus riches du monde possèderont plus que les 99% restant

Je publie ici l’article du même nom posté par Jean Gadrey sur son blog ce mardi 20 janvier 2015. N’hésitez pas à commenter ci-dessous.

En 2016, les 1 % les plus riches du monde possèderont plus que les 99% restant puisqu’il possèderont plus de la moitié de la richesse mondiale !

C’est l’un des résultats d’une étude d’Oxfam, « Insatiable richesse », qui vient d’être mise en ligne. La part du patrimoine mondial détenue par les 1 % les plus riches est passée de 44 % en 2009 à 48 % en 2014, et dépassera selon toute probabilité les 50 % en 2016. En 2014, les membres de cette élite internationale possédaient en moyenne 2,7 millions de dollars par adulte. Vive la crise !

Les estimations utilisent les meilleures sources mondiales disponibles sur les patrimoines, dont celles du Crédit Suisse. D’autres chiffres renforcent le vertige devant la démesure, dont ce graphique, qui montre que si, en 2010, 388 milliardaires (le haut du classement Forbes) étaient aussi riches que la moitié la plus pauvre de la population mondiale, en 2014, il « n’en faut plus » que 80.

La concentration de la richesse vers le haut produit le dénuement « en bas » et même aux étages intermédiaires de la hiérarchie. C’est ainsi que les 80 % les moins riches ne détiennent que 5,5 % de la richesse mondiale totale des ménages.

Cette étude consacre d’importants développements aux mécanismes économiques, politiques, fiscaux, etc. de cet insatiable enrichissement, et en particulier à l’intense et très coûteux (mais hyper rentable) lobbying de cette oligarchie de taille infime mais au pouvoir immense… tant que les pouvoirs politiques s’en rendent complices ou, dans « le meilleur des cas », ne font rien de sérieux.

Extrait :
« En 2013, le secteur de la finance a dépensé plus de 400 millions de dollars dans des activités de lobbying aux États-Unis, soit 12% du montant total consacré aux activités de lobbying dans le pays cette même année, tous secteurs confondus. Par ailleurs, dans le cadre des élections de 2012, les entreprises de ce secteur ont dépensé 571 millions de dollars pour financer certaines campagnes électorales. D’après le Centre for Responsive Politics, c’est le secteur de la finance qui a apporté la plus grande contribution aux partis et aux candidats fédéraux. Les milliardaires américains représentent environ la moitié des milliardaires de la liste Forbes ayant des intérêts dans le secteur financier. Ce nombre est passé de 141 à 150 aux États-Unis, et leur fortune cumulée de 535 à 629 milliards de dollars, soit une augmentation de 94 milliards de dollars (17%) en l’espace d’un an. »

L’ensemble du patrimoine net des milliardaires ayant des intérêts dans le secteur pharmaceutique et de la santé a augmenté de 47 %. Eux aussi avaient dépensé 500 millions de dollars pour faire pression sur les responsables politiques à Washington et à Bruxelles, en 2013.

Oxfam craint que la force de lobbying de ces secteurs ne soit un obstacle majeur à la réforme du système fiscal international et n’impose des règles de propriété intellectuelle qui empêchent les plus pauvres d’accéder à des médicaments vitaux.

Oxfam appelle les États à adopter un plan en sept points pour lutter contre les inégalités :

– Mettre un frein à l’évasion fiscale des entreprises et des grandes fortunes
– Investir en faveur de la gratuité et de l’universalité de services publics comme la santé et l’éducation
– Répartir équitablement la charge fiscale, l’allégeant du côté du travail et de la consommation tout en taxant davantage le capital et les richesses
– Instaurer un salaire minimum et oeuvrer à un salaire décent pour l’ensemble des travailleuses et travailleurs
– Instaurer une législation en faveur de l’égalité salariale et promouvoir des politiques économiques assurant le traitement équitable des femmes
– Mettre en place une protection sociale suffisante pour les plus pauvres, notamment la garantie d’un revenu minimum
– Adopter l’objectif commun de lutter contre les inégalités à l’échelle internationale

Charlie à tout prix ? par Frédéric Lordon, 13 janvier 2015

Article repris du blog de Frédéric Lordon sur le site du Monde Diplomatique et publié ici pour d’éventuels commentaires et débat.
Que vous ayez été Charlie ou non, si vous êtes un défenseur de la liberté d’expression, alors je vous invite à vous détourner des médias du complexe militaroindustriel (Bouygues, Lagardère, Dassault, Bolloré, Rothschild, ….) et de soutenir des médias indépendants tel Le monde Diplomatique.
Bonne lecture et au plaisir d’échanger via les commentaires
Christophe

===================
Ce texte est tiré d’une intervention à la soirée « La dissidence, pas le silence ! », organisée par le journal Fakir à la Bourse du travail à Paris le 12 janvier 2015.
===================

Charlie à tout prix ? par Frédéric Lordon.

Lorsque le pouvoir de transfiguration de la mort, ce rituel social qui commande l’éloge des disparus, se joint à la puissance d’une émotion commune à l’échelle de la société tout entière, il est à craindre que ce soit la clarté des idées qui passe un mauvais moment. Il faut sans doute en prendre son parti, car il y a un temps social pour chaque chose, et chaque chose a son heure sociale sous le ciel : un temps pour se recueillir, un temps pour tout dire à nouveau.

Mais qu’on se doive d’abord à la mémoire de ceux qui sont morts n’implique pas, même au plus fort du traumatisme, que toute parole nous soit interdite. Et notamment pour tenter de mettre quelque clarification dans l’inextricable confusion intellectuelle et politique qu’un événement si extrême ne pouvait manquer, en soi, de produire, à plus forte raison sous la direction éclairée de médias qui ne louperont pas une occasion de se refaire la cerise sur le dos de la « liberté d’expression », et de politiques experts en l’art de la récupération.

Disons tout de suite que l’essentiel de cette confusion se sera concentré en une seule phrase, « Je suis Charlie », qui semble avoir tout d’une limpide évidence, quand tant d’implicites à problème s’y trouvent repliés.

« Je suis Charlie ». Que peut bien vouloir dire une phrase pareille, même si elle est en apparence d’une parfaite simplicité ? On appelle métonymie la figure de rhétorique qui consiste à donner une chose pour une autre, avec laquelle elle est dans un certain rapport : l’effet pour la cause, le contenu pour le contenant, ou la partie pour le tout. Dans « Je suis Charlie », le problème du mot « Charlie » vient du fait qu’il renvoie à une multitude de choses différentes, mais liées entre elles sous un rapport de métonymie. Or ces choses différentes appellent de notre part des devoirs différents, là où, précisément, leurs rapports de métonymie tendent à les confondre et à tout plonger dans l’indistinction.

Charlie, ce sont d’abord des personnes humaines, privées – par bonheur, on s’est aperçu rapidement que dire simplement « Charlie » pour les rassembler faisait bon marché de deux policiers, un agent de maintenance, un malheureux visiteur de ce jour là, et puis aussi de cinq autres personnes, dont quatre juives, tuées les deux jours d’après. Sauf à avoir rompu avec toute humanité en soi, on ne pouvait qu’être frappé de stupeur et d’effroi à la nouvelle de ces assassinats.

Mais l’émotion n’a été si considérable que parce qu’il était perceptible à tous que ce qui venait d’être attaqué excédait évidemment les personnes privées. Et voici donc le deuxième sens possible de « Charlie » : Charlie comme métonymie des principes de liberté d’expression, des droits à exprimer sans craindre pour sa sécurité, tels qu’ils sont au cœur de notre forme de vie.

On pouvait donc sans doute se sentir Charlie pour l’hommage aux personnes tuées – à la condition toutefois de se souvenir que, des personnes tuées, il y en a régulièrement, Zied et Bouna il y a quelque temps, Rémi Fraisse il y a peu, et que la compassion publique se distribue parfois d’une manière étrange, je veux dire étrangement inégale.

On pouvait aussi se sentir Charlie au nom de l’idée générale, sinon d’une certaine manière de vivre en société, du moins d’y organiser la parole, c’est-à-dire au nom du désir de ne pas s’en laisser conter par les agressions qui entreprennent de la nier radicalement. Et l’on pouvait trouver qu’une communauté, qui sait retourner ainsi à l’un de ses dénominateurs communs les plus puissants, fait une démonstration de sa vitalité.

Mais les choses deviennent moins simples quand « Charlie » désigne – et c’est bien sûr cette lecture immédiate qui avait tout chance d’imposer sa force d’évidence – quand « Charlie », donc, désigne non plus des personnes privées, ni des principes généraux, mais des personnes publiques rassemblées dans un journal. On peut sans la moindre contradiction avoir été accablé par la tragédie humaine et n’avoir pas varié quant à l’avis que ce journal nous inspirait – pour ma part il était un objet de violent désaccord politique. Si, comme il était assez logique de l’entendre, « Je suis Charlie » était une injonction à s’assimiler au journal Charlie, cette injonction-là m’était impossible. Je ne suis pas Charlie, et je ne pouvais pas l’être, à aucun moment.

Je le pouvais d’autant moins que cette formule a aussi fonctionné comme une sommation. Et nous avons en quelques heures basculé dans un régime de commandement inséparablement émotionnel et politique. Dès ses premiers moments, la diffusion comme traînée de poudre du « Je suis Charlie » a fait irrésistiblement penser au « Nous sommes tous américains » du journal Le Monde du 12 septembre 2001. Il n’a pas fallu une demi-journée pour que cette réminiscence se confirme, et c’est Libération qui s’est chargé de faire passer le mot d’ordre à la première personne du pluriel : « Nous sommes tous Charlie » — bienvenue dans le monde de l’unanimité décrétée, et malheur aux réfractaires. Et puis surtout célébrons la liberté de penser sous l’écrasement de tout dissensus, en mélangeant subrepticement l’émotion de la tragédie et l’adhésion politique implicite à une ligne éditoriale. Ceci d’ailleurs au point de faire à la presse anglo-saxonne le procès de se montrer hypocrite et insuffisamment solidaire (obéissante) quand elle refuse de republier les caricatures. Il fallait donc traverser au moins une mer pour avoir quelque chance de retrouver des têtes froides, et entendre cet argument normalement élémentaire que défendre la liberté d’expression n’implique pas d’endosser les expressions de ceux dont on défend la liberté.

Mais cette unanimité sous injonction était surtout bien faite pour que s’y engouffrent toutes sortes de récupérateurs. Les médias d’abord, dont on pouvait être sûr que, dans un réflexe opportuniste somme toute très semblable à celui des pouvoirs politiques dont ils partagent le discrédit, ils ne manqueraient pas pareille occasion de s’envelopper dans la « liberté de la presse », cet asile de leur turpitude. A l’image par exemple de Libération, qui organise avec une publicité aussi ostentatoire que possible l’hébergement de Charlie Hebdo. Libération, ce rafiot, vendu à tous les pouvoirs temporels, auto-institué dernière demeure de la liberté d’expression ! — peut-être en tous les sens du terme d’ailleurs. Et combien de la même farine derrière Libé pour faire de la surenchère dans le Charlisme ?

« Si cet homme qui, dit-on, riait de tout revenait en ce siècle, il mourrait de rire assurément », écrit Spinoza dans une de ses lettres. Et c’est vrai qu’il y a de quoi rire longtemps à voir ainsi les organes de la soumission à l’ordre social entonner avec autant de sincérité l’air de l’anticonformisme et de la subversion radicale. Rire longtemps… enfin pas trop quand même, car il faudra bien songer un jour à sortir de cette imposture.

Ce sera sans l’aide du pouvoir politique, qui n’a jamais intérêt au dessillement, et à qui l’union nationale a toujours été la plus fidèle des ressources. Union nationale, et même internationale en l’occurrence, dont une version carabinée nous aura été administrée. Fallait-il qu’elle soit incoercible la pulsion récupératrice de François Hollande de se faire reluire à la tête de Paris « capitale du monde » pour convier, de proche en proche, jusqu’à Orban, Porochenko, et puis Netanyahu, Lieberman, etc. de hautes figures morales, connues pour se partager entre défenseurs de la liberté de la presse et amis du dialogue interconfessionnel [1].

Par bonheur, il s’est déjà trouvé suffisamment de voix pour s’inquiéter des usages, ou plutôt des mésusages, que ce pouvoir ne manquera pas de faire d’une mobilisation de masse qu’il s’empressera de considérer comme un mandat.

Espérons qu’il s’en trouvera également pour recommander à quelques éditorialistes un court séjour en cellule de dégrisement, et pour leur apporter le café salé. Dans la concurrence pour être à la hauteur de l’Histoire, et même – pente aussi fatale que grotesque de l’information en continu – pour être les premiers à « annoncer » l’Histoire, il était logique que tous criassent à l’Histoire et à l’Historique à propos de la manifestation d’hier. S’il est permis d’en rire, on dira que, historique, elle l’a sans doute été sous quelque rapport, au moins pour être la première du genre où le comptage de la police avait une chance d’être supérieur à celui des organisateurs. On ne sache pas cependant qu’il soit resté grand-chose des manifestations monstres de Carpentras et du 1er mai 2002, effusions collectives qui avaient déjà hystérisé le commentariat, mais dont on doit bien reconnaître que la productivité politique aura été rigoureusement nulle.

On aimerait beaucoup qu’il en aille autrement cette fois-ci, mais on ne peut pas s’empêcher de poser en toute généralité la question de savoir s’il n’y a pas un effet de substitution entre le degré de l’unanimité et sa teneur politique possible. Par construction, arasant toute la conflictualité qui est la matière même de la politique, la masse unie est tendanciellement a-politique. Ou alors, c’est que c’est la Révolution – mais il n’est pas certain que nous soyons dans ce cas de figure…

Il y aurait enfin matière à questionner la réalité de l’« union nationale » qu’on célèbre en tous sens. Tout porte à croire que le cortège parisien, si immense qu’il ait été, s’est montré d’une remarquable homogénéité sociologique : blanc, urbain, éduqué. C’est que le nombre brut n’est pas en soi un indicateur de représentativité : il suffit que soit exceptionnellement élevé le taux de mobilisation d’un certain sous-ensemble de la population pour produire un résultat pareil.

Alors « union nationale » ? « Peuple en marche » ? « France debout » ? Il s’agirait peut-être d’y regarder à deux fois, et notamment pour savoir si cette manière de clamer la résolution du problème par la levée en masse n’est pas une manière spécialement insidieuse de reconduire le problème, ou d’en faire la dénégation. A l’image des dominants, toujours portés à prendre leur particularité pour de l’universel, et à croire que leur être au monde social épuise tout ce qu’il y a à dire sur le monde social, il se pourrait que les cortèges d’hier aient surtout vu la bourgeoisie éduquée contempler ses propres puissances et s’abandonner au ravissement d’elle-même. Il n’est pas certain cependant que ceci fasse un « pays », ou même un « peuple », comme nous pourrions avoir bientôt l’occasion de nous en ressouvenir.

Il y a une façon aveuglée de s’extasier de l’histoire imaginaire qui est le plus sûr moyen de laisser échapper l’histoire réelle — celle qui s’accomplit hors de toute fantasmagorie, et le plus souvent dans notre dos. Or, l’histoire réelle qui s’annonce a vraiment une sale gueule. Si nous voulons avoir quelque chance de nous la réapproprier, passé le temps du deuil, il faudra songer à sortir de l’hébétude et à refaire de la politique. Mais pour de bon.

Notes

[1] Lire Alain Gresh, « D’étranges défenseurs de la liberté de la presse à la manifestation pour “Charlie Hebdo” », Nouvelles d’Orient, 12 janvier 2015.

Continuer la lecture

[Reprise] Répartition des revenus et croissance, par Philippe Waechter, Directeur de recherche économique chez Natixis

   Selon une étude de l'OCDE de 2014 : " Une augmentation des inégalités dans la distribution des revenus a un impact négatif durable sur la croissance. "

   Dans son article du 10 décembre 2014, Philippe Waechter, Directeur de recherche économique de la banque Natixis, met en exergue le principal enseignement d'une étude de l'OCDE de décembre 2014. Je le reproduis ici : " Dans un travail récent l'OCDE apporte des éléments de réponse à cette question qui taraude les économistes de longue date: faut il des inégalités afin de créer des incitations favorables à la croissance ? Ou bien est ce qu’une distribution resserrée des revenus n’est elle pas finalement favorable à la croissance moyenne ?
La réponse de l’OCDE est sans ambiguïté : une augmentation des inégalités dans la distribution des revenus a un impact négatif durable sur la croissanc
e. "

   Retrouvez ce passage dans l'article de l'auteur reproduit intégralement ci-dessous.

Répartition des revenus et croissance

Publié le 10 décembre 2014 par Philippe WAECHTER

Verbatim de ce podcast.

   La répartition des revenus est devenu un sujet majeur en raison de la persistance des effets de la crise.

   On se souvient à l’automne 2011 du mouvement " Occupy Wall Street ". De manière plus récente le livre de Thomas Piketty donnait un cadre de réflexion pour comprendre et analyser les déformations dans la répartition des revenus.Piketty indiquait aussi que la dynamique de l’économie n’était pas spontanément équitable et que des mécanismes de correction étaient nécessaires.

   Cependant, on ne disposait pas d’une analyse formelle reliant l’évolution de la distribution des revenus à la croissance.

   Dans un travail récent (déc. 2014) l’OCDE apporte des éléments de réponse à cette question qui taraude les économistes de longue date : faut-il des inégalités afin de créer des incitations favorables à la croissance ? Ou bien est ce qu’une distribution resserrée des revenus n’est elle pas finalement favorable à la croissance moyenne ?

   Cette question est essentielle pour comprendre la dynamique des économies à moyen terme.

   La réponse de l’OCDE est sans ambiguïté : une augmentation des inégalités dans la distribution des revenus a un impact négatif durable sur la croissance.

   Une mesure simple et immédiate des inégalités est le rapport entre les 10 % des revenus les plus élevés et les 10 % des revenus les plus faibles. Du milieu des années 80 à maintenant ce rapport est passé de 7.5 à 9. La distribution des revenus est devenue plus inégalitaire sur cette courte période de temps.

   Des mesures par pays de la déformation dans la distribution des revenus, le coefficient de Gini, montrent que les inégalités se sont accrues dans 16 des 21 pays analysés (du milieu des années 80 jusqu’en 2011/2012). Elle ne se réduisent que dans deux pays: la Grèce et la Turquie. Elles sont stables pour trois pays: la Belgique, les Pays-Bas et La France.
L’impact sur la croissance de ces changements dans les inégalités de revenus est significatif. L’étude suggère que l’impact a été d’environ 10 % au Mexique et en Nouvelle Zélande, de 9 points au Royaume Uni et de 6 à 7 points aux USA, en Italie et en Suède.

   En d’autres termes, la hausse des inégalités a pénalisé la croissance au Royaume Uni en lui ôtant 9 points de croissance sur la période. A inégalités inchangées sur la période 1990-2010 le PIB britannique aurait été 9 % plus élevés en fin de période. C’est loin d’être négligeable.

   Pour la France, l’OCDE indique que l’impact des inégalités sur la croissance n’est pas significative car pour le Think Tank du Château de la Muette il n’y a pas eu de déformation significative dans la distribution des revenus.

   L’OCDE explique que le lien entre distribution des revenus et croissance passe notamment par l’accès à l’éducation. Les plus défavorisés ont un accès plus limité à l’éducation et donc une possibilité moindre d’améliorer leur capital humain.

   L’OCDE indique aussi que l’effet de l’éducation n’est pas limité aux 10 % les plus pauvres mais aux 40 % les plus défavorisés dans la distribution des revenus.

   L’accès à l’éducation est donc l’élément clé dans l’amélioration de la dynamique de croissance. Cela doit donner un rôle majeur à l’Etat pour favoriser la mise en place de ces conditions.

   L’innovation qui est au coeur des processus de croissance passe d’abord par les hommes avant de passer par les process. C’est pour cela que l’éducation et la formation sont les éléments clé de la croissance et de l’amélioration des conditions de vie.

Préjugé sur le lien entre chômage et minima sociaux

   L’on entend parfois dire, jusque dans les hautes sphères politiques, que les minima sociaux (RSA, . . . ) contribueraient au chômage, certains bénéficiaires préférant s’en contenter plutôt que de rechercher un emploi.

Mais alors, cela doit se constater au niveau du taux de chômage, non ?

Voyons voir ce que dit ce premier graphique qui met en relation le montant des minima sociaux (relativement au seuil de pauvreté à 60 % de chacun des pays) et le taux de chômage pour 14 pays de l’Union Européenne en 2003.

Corrélation chomage minima sociaux en 2003 pour 14 pays U

Légende : les montants de prestations-types d’assistance sociale nettes sont rapportés aux seuils de pauvreté à 60 % du niveau de vie des ménages en 2003. Il s’agit ici du cas d’un couple avec deux enfants. Pour d’autres cas voir tableau en fin de page.

Lecture : en France, les minima sociaux pour un couple avec deux enfants représentaient en 2003 72% du seuil de pauvreté à 60% et le taux de chomage était de 8,9%.

Sources : pour les minima sociaux, OCDE repris dans le rapport « Un panorama des minima sociaux en Europe », p. 8, revue « Etudes et résultats », DREES, N° 464, février 2006. Pour le chômage : base de données en ligne d’Eurostat.

   Si corrélation il y a, il semblerait plutôt qu’elle soit négative : plus les minima sont élevés, plus le taux de chômage est faible.

Il est à noter qu’en France, le pouvoir d’achat du RMI/RSA-socle n’a augmenté que de + 3 % entre 1990 et 2010, tandis que celui du Smic horaire progressait de 29 % et le niveau de vie médian de 27 % (source : Contre la pauvreté, l’emploi ne suffit pas , Alternatives Economiques n° 319 – décembre 2012).

   Cette étude comparative sur les minima sociaux est la plus récente (cf. tableau ci-dessous). Si vous trouvez des données plus récentes que ce tableau de la p.8 du rapport « un panorama des minima sociaux en Europe », je suis preneur.

Tableau_minima_sociaux_Europe-2003_DREES-2006.jpg

   Ci-dessous, le classement de ces quatorze pays selon les trois situations familiales du tableau : personne seule, parents avec deux enfants, parent isolé avec deux enfants.

Minima sociaux pour personne seule - 14 pays UE - 2003 DRE

  • La France se situe en 6e position, juste au dessus de la moyenne européenne, pour une personne seule.

Minima sociaux pour un couple avec deux enfants-14 pays UE-

  • La France se situe en 5e position, sous la moyenne européenne, pour un couple avec deux enfants.

Minima sociaux pour un parent isolé avec deux enfants-14 p

  • Et enfin, la France se situe en 7e position, sous la moyenne de l’UE-14, pour un parent seul avec deux enfants.

Relativement au SMIC, le RMI-RSA a perdu 23% de sa valeur entre 1990 et  2013, soit de 66,5 à 51,2 heures de travail au Smic brut. Pour en savoir plus : lire cet article de Jean Gadrey : Le grand retour de « l’assistanat » : sur quelques idées fausses

Sur les minima sociaux, montant et modalités d’attributions, nombre de bénéficiaires, voir aussi : Préjugés sur les minima sociaux.

Sur d’autres idées reçues sur les raisons du chômage :

accessibles à partir de l’article général : Préjugés sur les raisons du chômage

________________________

Mots clés : chômage – emploi – habitant – actif – volume de travail – heures travaillées – ouvrées – classement – comparaison internationale – OCDE – Union europeenne – 35 heures – préjugé – idée reçue – minima sociaux – indemnisation – SMIC – RSA.

Liste des idées reçues au sujet des causes du chômage

Préjugé sur le lien entre chômage et durée annuelle du travail

   La relation entre quantité de travail annuelle des travailleurs et taux de chômage, établie sur 34 pays de l’OCDE (année 2012), montrent plutôt que plus les actifs travaillent durant l’année, plus le taux de chômage est important.
Quoique la corrélation ne soit pas très significative, le graphique ci-dessous illustre cela. Donc jusqu’à preuve du contraire, augmenter la durée du travail annuel, ne réduit pas le chômage.

   Et pourtant, le 24 septembre 2009, le Medef proposait un plan choc pour créer un million d’emplois. Parmi les mesures : revenir sur les 35h, supprimer deux jours fériés sur 11. Autrement dit : « travailler plus ».
Et pourtant, peu après le gouvernement Hollande-Valls par la voix de son Ministre de l’économie, E. Macron, ex-banquier d’affaireassouplissait la législation sur le travail du Dimanche. Autrement dit : « travailler plus » également.

Taux_de_chomage_vs_volume_travail_par_actif_employe_avec_no.jpg   Pour l’accés aux sources de données OCDE, voir liens en fin d’article. L’année est 2012

   Commentaire du graphique :
La durée annuelle de travail des actifs en Allemagne, Danemark, Norvège et au Pays Bas est moindre qu’en France. Le taux de chômage aussi. A l’opposé, la Grèce, l’Espagne et le Portugal, où les actifs en emploi travaillent plus, connaissent des taux de chômage importants. Bien sûr il y a des exceptions telles que la Corée et le Mexique.
Maintenant, ceci est pour l’année 2012. Je tâcherais prochainement d’approfondir la question en étudiant cette relation pour différentes années et différentes périodes, si les données sont disponibles.

Sur d’autres idées recues sur des causes de chômage, lire mes billets :

accessibles à partir de l’article général : Préjugés sur les raisons du chômage
____________________
Les sources des données OCDE ayant permis l’établissement du graphique sont en accès libre ici :
* Taux de chômage harmonisé
* Heures moyennes annuelles ouvrées par travailleur

________________________

Mots clés : chômage – emploi – habitant – actif – volume de travail – heures travaillées – ouvrées – classement – comparaison internationale – OCDE – Union europeenne – 35 heures – préjugé – idée reçue – minima sociaux – indemnisation – SMIC – RSA.

La France, cancre de l’emploi ! Vraiment ?

   Selon le Xerfi, ce constat est FAUX : pour la période 2000-2013, la France, depuis l’année 2000 fait mieux que les Pays-Bas, l’Italie, et le Royaume-Uni, beaucoup mieux que les États-Unis et le Danemark, comme l’atteste le graphique ci-dessous relativement à sept pays souvent cités en modèle (Allemagne, Suède, Pays-Bas, Italie, Royaume-Uni, Danemark, États-Unis).

Volume_travai_par_pop_age_travail_8_pays_base2000-2012_Xerf.png

Lecture du graphique :  Le volume de travail représente le nombre d’heures de travail effectuées dans l’année par la population en âge de travailler. En effet, ces huit pays présentant des dynamiques démographiques différentes, ne pas en tenir compte serait non pertinent en terme de comparaison.

.

   Notons que le Danemark a été longtemps vanté pour sa « flexisécurité », flexisécurité vers laquelle nous avons fait un pas. À raison ?

   L’Allemagne, le nouveau « bon élève », fait certes mieux que la France. Mais à quel prix ? Tout le monde a en mémoire les emplois à 1 € par exemple !

   Il n’en reste pas moins qu’en France, le taux de chômage actuel, et en particulier celui des jeunes, et la qualité des emplois créés sont loin d’être satisfaisants. Cependant, quoiqu’il en soit, il est des causes à ce chômage que l’on ne peut pas retenir : indemnités chômage trop généreuses, minima sociaux trop élevés, rigidité du code de travail, … Je vous invite à lire cet article et ceux qui y sont reliés sur ces non-causes du chômage.

   Un prochain billet tentera d’identifier les causes potentielles du chômage et de proposer d’autres pistes que la précarisation de l’emploi et l’austérité pour les plus pauvres.

   Le graphique ci-dessus est extrait de la vidéo La France cancre de l’emploi ? C’EST FAUX du Xerfi que je vous suggère de visionner. J‘en propose cependant une synthèse à partir des principaux graphiques qui y sont présentés et commentés.

Résumé de la vidéo La France cancre de l’emploi ? C’EST FAUX

   Au vu des taux de chômage harmonisé (graphique ci-dessous), on pourrait penser la France incapable de créer du travail.

Taux_chomage_harmonise_UE_T3_2014_Xerfi.png

   Or, en terme de création d’emploi total, la France fait aussi bien que nombre de « bons élèves » (Allemagne, États-Unis, Pays-Bas), le Royaume-Uni et la Suède restant de loin meilleurs.

Emploi_total_base_2000-2014_8_pays_Xerfi.png
Mais il y a emploi et emploi. Ainsi par exemple, au Royaume-Uni existent des contrats de travail qui ne garantissent aucun minimum de volume hebdomadaire de travail : celui qui en bénéficie peut très bien ne pas travailler du tout durant des périodes égales ou supérieures à une semaine, durée de référence pour différencier un chômeur d’un employé. On les appelle les contrats zéro heure (lire : Royaume-Uni : 1,4 million de « zéro heure », Alternatives économiques, juin 2014).

.

   C’est pourquoi, il est plus pertinent de mesurer le volume de travail créé, celui-ci pouvant se répartir en plus ou moins d’emplois temps partiels ou temps complets. C’est ce volume que représente le graphique ci-dessous.

Volume_horaire_de_travail_total_8_pays_base2000-2012_Xerfi.png

   Et comme les dynamiques démographiques ne sont pas les mêmes, il est nécessaire de rapporter à la population en âge de travailler :

Volume travai par pop age travail 8 pays base2000-2012 Xerf

________________________

Mots clés : chômage – emploi – habitant – volume de travail – heures – travaillées -ouvrées – classement – comparaison -OCDE – Union europenne – 35 heures  préjugé – idée reçue.

Préjugés sur les raisons du chômage

   Si les facteurs tels que générosité des minima sociaux et/ou des indemnités chômage, rigidité des contrats de travail, recherche d’emploi insuffisante de la part des chômeurs, … avaient une influence majeure sur les taux de chômage, comment s’expliqueraient les disparités importantes de ces taux à l’intérieur d’un même pays. En effet, ces dispositifs sont uniformes sur l’ensemble des territoires nationaux.

   Démonstration en trois cartes concernant la France, l’Allemagne et la Belgique !

Si des minima sociaux et/ou des indemnités chômage trop généreux, des contrats de travail trop rigides, des chômeurs trop fainéants, impactent le chômage alors . . .

   Dans quatre articles sur le chômage, je tente de démontrer – chiffres et comparaisons internationales à l’appui – que l’on ne saurait expliquer le chômage de masse français par la « fainéantise » de nos chômeurs et/ou par la difficulté à licencier.

   En effet, ces dernières années nous avons entendu diverses déclarations de ministres, tant du gouvernement Sarkozy-FIllon que celui de Hollande-Valls qui laissent sous entendre que le chômage de masse est  dû :

 . . . comment expliquer des disparités de taux de chômage aussi importantes à l’intérieur d’un même pays ?

  Les trois cartes ci-dessous suffisent à justifier la question suivante : si les prestations sociales, les  assurances chômage et la protection de salariés, uniformes sur ces territoires nationaux, sont les causes principales du chômage, alors comment expliquer qu’elles ne produisent pas les mêmes effets selon les régions de ces pays .

  Ci-dessous les cartes du taux de chômage en France, en Allemagne et en Belgique mettent en évidence ces importantes disparités :

  • France : de 6,5 à plus de 11% selon les départements
  • Allemagne (2012) : de 3,6 à 10,9% selon les régions ;
  • Belgique (2013) : de 4 à 20% selon les communes ;

Carte_chomage_en_France_2013.jpg

Carte_chomage_en_Allemagne_2012.jpg

 

Carte_Chomage_Belgique_2010.jpg

________________________

Mots clés : chômage – emploi – habitant – actif – volume de travail – heures travaillées – ouvrées – classement – comparaison internationale – OCDE – Union europeenne – 35 heures – préjugé – idée reçue – minima sociaux – indemnisation – SMIC – RSA.

Préjugé sur le lien entre chômage et « faux-chômeurs »

    M. Rebsamen, ministre du travail du gouvernement Hollande-Valls, a déclaré en septembre 2014 :

« 350.000 offres d’emploi ne trouvent pas preneur dans un pays qui compte 3,4 millions de chômeurs. C’est insupportable ! »

 

    Insupportable ? Vraiment ? Spécificité française ? Bien au contraire !

L’Allemagne a un taux d’emplois vacants près de CINQ fois supérieur à celui de la France !!!!!

   Ci-dessous les taux d’emplois vacants de 30 pays européens en 2014 (UE28, Suisse, Norvège, source : Eurostat, pour 2015 ICI).

    Cerclé de vert, ce bon élève – l’Allemagne – que l’on devrait imiter.
    Cerclé de rouge, la vilaine France !

Taux_d_emplois_vacants_2014_Eurostat.jpg

En terme de taux d’emplois vacants, la France est donc très bien placée, n’en déplaise à M. Rebsamen
Si tant est que ce soit réalisable, supprimer ces 0,6% d’emplois vacants réduirait le taux de chômage de 0,6% mais le coup n’est pas rejouable. On passerait donc de 10,8 à 10,2%. Géniaaallllll !!!
Rappelons que Pôle Emploi peut radier les chômeurs pour une dizaine de motifs différents dont le refus de deux « offres raisonnables d’emploi » consécutives.

Pour en savoir plus sur la mesure et les raisons de ces emplois vacants : Offres d’emploi non pourvues : la machine à fantasme.

Y a-t-il une corrélation entre taux de chômage et taux d’emplois vacants?

Voyons voir : le graphe ci-dessous met en relation le taux d’emplois vacants (abscisses) et le taux de chômage (ordonnée).

Chomage_correlation_Taux_vs_taux_emplois_vacants_UE_2012.jpg

Comme on pouvait s’y attendre: plus le taux de chômage est élevé, plus le taux d’emplois vacants est faible.

En effet, un taux de chômage faible signifie un taux important d’offres d’emplois et donc un taux d’emplois vacants également important : il y a toujours un délai entre la parution d’une offre d’emploi et son pourvoi.

Encore une rengaine néolibérale visant à stigmatiser les chômeurs servie cette fois, et c’est un comble, par un gouvernement «  » » » » de gauche «  » » » » !

Épilogue !

Et moi qui croyais que la stigmatisation des faibles et des minorités était l’apanage des gouvernements de droite, décomplexée ou non !

  On se souvient par exemple de cette déclaration de L. Wauquiez, ministre du gouvernement Sarkozy-Fillon :  « Un couple qui est au RSA, en cumulant les différents systèmes de minima sociaux, peut  gagner plus qu’un couple dans lequel il y a une personne qui travaille  au SMIC » (8 mai 2011). Une contrevérité démentie ICI .

Sur d’autres idées reçues sur les raisons du chômage :

accessibles à partir de l’article général : Préjugés sur les raisons du chômage

___________________________
* Fichier source Eurostat : http://epp.eurostat.ec.europa.eu/statistics_explained/index.php/File:Job_Vacancy_Rate_by_country_2014Q1.PNG

________________________________________________________________________
Mots clés : chômage – emploi – habitant – actif – volume de travail – heures travaillées – ouvrées – classement – comparaison internationale – OCDE – Union europeenne – 35 heures – préjugé – idée reçue – minima sociaux – indemnisation – SMIC – RSA.

"Bien informés, les hommes sont des citoyens, mal informés ils deviennent des sujets.", Alfred Sauvy.