novembre 15, 2014

Philippe LACOUDE de 1995 à 2014...Evolution vers la Liberté !!

L'Université Liberté, vous convie à lire ce nouveau message. Des commentaires seraient souhaitables, notamment sur les posts référencés: à débattre, réflexions...Merci de vos lectures, et de vos analyses.


Oui Philippe a Lacoudée franche,

 Trop d'impôt. Le symptôme !
En France, un cadre payé 200 000 francs par an en coûte 300 000 à son entreprise et ne reçoit que 116 000 francs après cotisations et prélèvements. 

Une idée pour en sortir 
Et si on appliquait un taux unique de 15 %... 
Depuis quelques mois, les Américains ne parlent plus que d'elle : la flat tax, si elle était adoptée, serait un véritable big-bang fiscal. Il s'agirait de remplacer l'actuel impôt sur le revenu progressif par un impôt à taux unique (à 17 %, selon les parlementaires républicains qui sont à l'origine de la proposition). Une idée totalement iconoclaste en France, où la progressivité de l'impôt est un dogme intangible. Elle a pourtant certains avantages. D'abord celui de la simplicité : la déclaration de revenus tiendrait sur une carte postale, puisque le projet est de supprimer les tranches et toutes les déductions et abattements. Surtout, les économistes qui ont développé ce concept assurent que cela doperait fortement la croissance, l'allègement de la pression favorisant les revenus et l'épargne.  

Philippe Lacoude a bâti une simulation pour la France à partir d'un taux unique de 15 %, avec suppression de tous les avantages fiscaux et un abattement de 6 000 francs par foyer fiscal (variant avec le quotient familial). Selon ses calculs, cette réforme, si elle avait été appliquée en 1990, aurait permis d'accroître les recettes fiscales de 390 milliards de francs au bout de cinq ans, grâce à la hausse de l'activité. La flat tax pose néanmoins un problème d'équité sociale. Il est indéniable qu'un impôt proportionnel est par nature plus injuste puisqu'une partie des classes moyennes serait sans doute plus lourdement taxée qu'aujourd'hui. Mais dans sa forme actuelle, l'impôt français n'est pas vraiment un modèle de justice, compte tenu des niches fiscales qui bénéficient aux plus aisés.

 Par Véronique Le Billon



"Les préjugés tenaces" 
dans Français, n’ayez pas peur du libéralisme par Pascal Salin
 Ce livre démontre que l'impôt élevé détruit l'activité économique, or une amélioration de la situation économique ne peut justement venir que d'une réforme fiscale de grande ampleur.


Depuis plus de vingt ans, les hommes politiques nous promettent le grand soir fiscal lorsque des marges de manoeuvre auront été dégagées. Pourtant, une amélioration durable de la situation économique ne peut justement venir que d'une réforme fiscale de grande ampleur. Ce livre démontre que le discours de ceux qui nous gouvernent relève d'une mystification électoraliste à courte vue plus que d'une gestion responsable de l'Etat. A l'étranger comme en France, en théorie comme en pratique, les hausses de l'impôt tuent l'impôt. A contrario, dans le passé, toutes les baisses d'impôt ont conduit à un accroissement des revenus et donc des recettes fiscales : l'impôt élevé détruit l'activité économique. Nos institutions conduisent à la manipulation de l'information et de l'idéologie ambiante. Antidote, ce livre est conçu comme un ensemble de munitions intellectuelles à l'usage de ceux qui produisent encore malgré le fantastique racket dont ils sont victimes.




Theories of "Endogeneous Growth": a Critique

Philippe Lacoude1
1Université Paris, Dauphine
 December 1995

 Les thèses dites de la “croissance endogène” mettent fort justement en avant le rôle clef d’un certain nombre de secteurs économiques dans le phénomène de croissance des revenus. Cependant, la modélisation qui s’y rattache conduit parallèlement à émettre un certain nombre de jugements normatifs erronés quant au rôle légitime de la puissance publique.En particulier, la structure même des modèles de croissance endogène interdit de rendre compte du caractère subjectif de la valeur et néglige les aspects profondément individuels de l’accumulation de capital. Par conséquent, elle ne s’intéresse qu’aux aspects matériels de cette dernière.Loin de justifier l’intervention publique en vue d’augmenter statistiquement le PIB (ou le PNB), les connaissances apportées par la théorie autrichienne conduisent à préférer la propriété naturelle et la liberté de contracter qui en découle comme véritable moyen de faire croître, à un rythme soutenu, les capitaux matériels et immatériels des individus.

Journal des Économistes et des Études Humaines

Editor-in-Chief: Garello, Pierre
Ed. by Gentier, Antoine

Philippe Lacoude

De Wikiberal
Philippe Lacoude est un économiste libéral français. Il a obtenu un doctorat en économie à l'université de Paris IX Dauphine en 1998, avec une thèse intitulée "Incidence de l'évolution des prélèvements obligatoires sur les recettes fiscales en France", sous la direction de Pascal Salin et Jean-Pierre Aubin. Il y montre en particulier une vérification de l'effet Laffer, une hausse des recettes fiscales en cas de baisse des impôts.
Il est installé aux États-Unis. Il est actuellement vice-president du cabinet de conseil Algonkian Technologies Inc.
Il participe à la revue libertarienne Reason.

Publications

  • 1996, Le défi fiscal français, Action ou taxation, avec Frédéric Sautet
  • What Social Security Will Pay: Rates of Return by Congressional District

Liens externes

Better Than a Bailout

Audit des finances publiques

Ayn Rand

https://www.contrepoints.org/author/philippe-lacoude
Voici ses posts au sein de la rédaction  Contrepoints

et ci-dessous ceux concernant spécifiquement le financier ou tout ce qui y touche:

Une interview de 1996 de Gary Becker, Prix Nobel d’Économie décédé samedi, brulante d’actualité. Il y parle de l’euro, des 35 heures, et des hausses d’impôts avant que ces malheurs économiques ne frappent l’économie de la France et ses citoyens. La lucidité de Gary Becker avec 20 ans de recul est impressionnante. Vu aussi ici: http://www.lasyntheseonline.fr/macro/civilisations_et_culture/l_interview_choc_de_gary_becker_prix_nobel_d_economie,31,3618.html

Texte et interview de Philippe Lacoude

 À la fin mars 2014, l’INSEE vient de nous apprendre que la dette publique s’établissait officiellement à 1985,9 milliards d’euros. Depuis août, nous sommes au moins à 2000 milliards d’euros.

Par Philippe Lacoude.



Par Philippe Lacoude.



Grégoire Canlorbe se définit comme un libéral classique, avec des sympathies libertariennes il est auteur au sein du Québécois Libre mais aussi auprès de l'institut Coppet, voici un de ses derniers post sur ce dernier, une interview avec Philippe Lacoude.

Installé aux États-Unis, Philippe Lacoude est mathématicien et économiste, ancien enseignant à l’Université de Paris (Dauphine), où ses travaux ont notamment consisté à mesurer l’effet Laffer.

Il a travaillé comme Senior Policy Analyst à la Heritage Foundation où il était en charge des modèles de micro-simulation du budget fédéral et des retraites publiques. Pendant dix ans, il a participé chaque année à l’élaboration de l’Index of Economic Freedom (publié par la Heritage Foundation et le Wall Street Journal).

Depuis 2000, comme consultant indépendant, il aide au développement de modèles mathématiques et informatiques pour divers organismes financiers, publics et privés.


Grégoire Canlorbe : Vous avez écrit dans votre livre de 1996 à propos du déficit budgétaire que « si la France vit une telle situation de faillites élevées, de déficits considérables et de chômage persistant, cela ne peut s’expliquer que par un phénomène de grande ampleur, à savoir la hausse des prélèvements obligatoires. Ces derniers sont en augmentation (presque) perpétuelle depuis maintenant des années et il faut toute la mauvaise foi de notre élite politique pour ne pas reconnaître le lien entre l’atonie de l’économie et la resplendissante dépense étatique. Il ne sert à rien d’attendre la baisse des taux d’intérêt si l’on s’obstine à augmenter la pression fiscale. La reprise ne peut provenir que d’un retour du droit de produire, c’est-à-dire du retour à une fiscalité plus basse. » Que diriez-vous 18 ans plus tard ?

Philippe Lacoude : A peu près la même chose, hélas !
Ce livre a été écrit à la suite des débâcles économiques de 1993 et de 1995. A l’époque, comme les recettes fiscales ne rentraient pas, les gouvernements Balladur et Juppé augmentaient les impôts. En parallèle, ils expliquaient la « crise » par les taux d’intérêt élevés : la Banque de France menait la politique du « franc fort » pour éviter une nième dévaluation face au mark allemand. Si les choses allaient si mal, c’était la « faute aux taux » et la faute au « franc fort ».

Deux aspects sont à retenir à propos de la situation de l’époque.
Le premier est que les taux des emprunts d’Etat à 10 ans étaient alors à environ 7,5 % pour 1995, une valeur très proche de la moyenne historique de 7,8 % des 40 dernières années en France. Les taux en question étaient donc loin d’être une anomalie alors que ce sont les taux actuels qui en sont une. Rétrospectivement, l’explication officielle par les politiques à l’époque ne peut donc pas être prise au sérieux. D’autre part, puisqu’il aurait suffi d’une baisse des taux pour « relancer » la croissance, nous devrions être en plein boum économique puisque nous sommes à un minimum historique, tant sur les taux courts que sur les taux longs. Enfin, il est intéressant de se demander ce qui va arriver lorsque les taux d’intérêt de la dette nationale vont revenir à leur niveau moyen historique de 7,8 % ? Comment l’Etat va-t-il payer les intérêts de sa dette colossale qui atteint maintenant plus de 2040 milliards d’euros ? Où va-t-il donc trouver plus de 155 milliards d’euros par an ? Le coût de financement de la dette n’a jamais été aussi bas mais la dette n’a jamais été aussi mal gérée : le Trésor ne profite pas vraiment des taux bas pour emprunter à très long terme. La maturité moyenne de la dette française est de seulement 7 ans : ceci signifie que chaque année, un septième des 2040 milliards de dette française arrive à maturité et doit être réemprunté sur les marchés ! Pour le moment, tout va bien dans un contexte de taux bas mais cette bévue aux proportions épiques va se retourner contre l’Etat quand les taux reviendront à leurs niveaux moyens historiques. A 7,8 %, il faudrait alors emprunter les 24 milliards de déficit primaire, 155 milliards pour les intérêts et un septième de 2040 milliards pour le refinancement, soit 470 milliards d’euro à lever sur les marchés, chaque année.

Le deuxième aspect à retenir est la continuité politique : pour combler des déficits qui se creusent, les énarques socialistes de tous les partis continuent d’assommer le contribuable. Cette recette éculée ne fonctionnait déjà plus en 1996. Elle fonctionne encore moins en 2014 parce qu’elle porte en elle les fruits de sa propre inefficacité. Il est futile d’augmenter un taux d’imposition déjà élevé : à chaque augmentation, la base fiscale se réduit par fraude, par réduction de l’activité concernée ou par évitement. Une augmentation d’impôt supposée rapporter une quantité 10 finit par rapporter 9, puis 8, puis 5, puis presque zéro. Au-delà, on augmente l’impôt et l’assiette fiscale se réduit tellement que la hausse de taux entraîne une baisse de recette. C’est l’effet Laffer du nom de l’économiste américain qui a popularisé ce concept connu depuis fort longtemps.

Grégoire Canlorbe : Existe-t-il un effet Laffer en France ?

Philippe Lacoude : En France, certains revenus constituent la base fiscale de plusieurs impôt ou taxes. En particulier, le travail sert d’assiette fiscale à l’impôt sur le revenu, indirectement à la TVA, aux cotisations de l’assurance maladie et de l’assurance vieillesse. Depuis 40 ans, lorsqu’un gouvernement a un besoin de fonds pour l’assurance maladie, il augmente le taux de cotisation. Lorsqu’il manque de l’argent dans les caisses de l’Etat, il augmente la TVA. Ce faisant, il réduit l’assiette fiscale. Les individus travaillent moins. Comme le travail constitue l’assiette de nombreux impôts, ceci entraîne un amoindrissement des recettes des autres taxes, qui sont alors augmentées à leur tour, perpétuant le cercle vicieux. A aucun moment, les membres de la brillante oligarchie administrative qui dirige le pays ne semblent comprendre ce phénomène. Econométriquement, il est pourtant relativement aisé de montrer qu’une hausse des recettes de l’Etat entraîne une baisse des recettes de la Sécurité Sociale et vice-versa : en 1998, j’avais déjà consacré un chapitre complet de ma thèse à ce phénomène pour la période 1970-1995. J’ai tout lieu de croire que ce syndrome s’est amplifié puisque la pression fiscale globale a augmenté. En 2013, l’Etat a accru presque tous les impôts sauf la TVA et s’est retrouvé avec « un manque à gagner » – selon l’expression consacrée – sur la TVA.


Les finances publiques sont arrivées à un point où leurs trois composantes principales – recettes, dépenses et dettes – jouent toutes à plein contre la croissance économique. En France, les recettes, les dépenses et les dettes sont devenues le boulet de l’impôt, le boulet de la dépense et le boulet de la dette.

Le boulet des impôts est de plus en plus lourd à traîner. Prenons l’exemple américain de la hausse de 1993 du taux supérieur d’imposition sur les revenus de 31 % à 36,9 % : dans une étude à ce propos, Martin Feldstein de l’Université de Harvard a calculé que la perte sèche de cette taxe s’élevait à la marge à près de deux dollars par dollar prélevé. En d’autres termes, pour chaque dollar pris aux contribuables, l’économie subit une perte de bien-être économique imposée par la taxe supérieure à deux dollars. Cette perte se répartit – un peu au hasard de ce que les économistes appellent les élasticités – entre les contribuables et les consommateurs de leurs services potentiels. Pour les contribuables les plus riches, Martin Feldstein a calculé qu’une suppression de cette hausse aurait conduit à une hausse des recettes de 2 milliards de dollars en même temps qu’à une baisse de 23 milliards de dollars de la perte sèche associée à la taxe. Pour la tranche supérieure de l’impôt sur le revenu, l’Etat n’a donc reçu aucune recette supplémentaire grâce à cette hausse des taux d’imposition et aurait même vu une réduction de ses revenus. Il y a vingt ans, il fallait donc détruire à peu près 12 dollars de valeur économique pour lever 1 dollar d’impôt sur le revenu aux taux marginaux américains de l’époque, en gros la moitié du taux marginal français maximal de 75 % ! Martin Feldstein nous dit qu’aux États-Unis, avant l’Internet, avant les délocalisations, à seulement la moitié du taux français, trop d’impôt tuait déjà l’impôt et que les effets étaient massifs.

Ceci n’est pas vraiment une surprise : la baisse de 77 à 24 % du taux marginal d’imposition initiée par Andrew Mellon dans les années 1920 aux Etats-Unis s’est traduite, en seulement quatre ans, par une augmentation des recettes fiscales de 134 %. La division des taux par trois doubla les recettes fiscales ! Sur sept années, l’assiette fiscale sur les hauts revenus progressa de 512 %. La division des taux par trois sextupla les recettes fiscales sur les « riches » ! En conséquence, le déficit budgétaire abyssal de 1921 se transforma en un excédent record de plus de 43 % des dépenses budgétaires.

Lorsque les taux d’imposition sont élevés, ce phénomène se répète pour de nombreuses époques – baisse des impôts sous John Kennedy et Ronald Reagan ou hausse sous George Bush Sr., Bill Clinton et Barack Obama – et de nombreux pays – Etats-Unis, Royaume Uni, Autriche, ou Nouvelle Zélande. En France, il y a peu de données à part une « Etude empirique de l’effet Laffer en France au cours des années 1980 » que j’ai faite en 1994. A la suite de la réduction du taux marginal de 65 % à 56,8 % en 1987, nous constatons que les 1 % de foyers fiscaux aux revenus les plus élevés ont augmenté – et non pas baissé – leur contribution fiscale. Entre 1984 et 1988, la part des hauts revenus dans le total de l’impôt payé est passée de 25,05 % à 28,55 % des recettes de l’impôt sur le revenu malgré une décroissance du taux supérieur du barème. Ceci ne peut s’expliquer que par une hausse des revenus concomitante à la baisse de l’impôt.

L’alternance de 1986 avait causé les suppressions du taux marginal de 65%, de la majoration exceptionnelle et de l’impôt sur les grandes fortunes. Or ce dernier était précisément payé par un effectif voisin de celui de l’échantillon des 0,5 % de français les plus riches en termes d’impôt par part. Il est donc probable que, sur les 125000 foyers que nous avions étudiés, une grande partie ait cumulé ces deux impôts. Bien sûr, un impôt sur le capital ne joue pas – à court terme – sur le partage entre travail et loisir. En revanche, il joue clairement dans le partage que les individus font entre la consommation et l’épargne. De plus, il existait une disposition du code général des impôts – l’article 885 V bis du Code Général des Impôts – qui limitait la somme de l’impôt sur le revenu et de l’impôt de solidarité sur la fortune à 85 % du revenu imposable. Aujourd’hui, après 30 ans de novlangue, on appellerait ceci du doux nom de « bouclier fiscal ». De ce fait, si le montant d’impôts à acquitter au titre de l’impôt sur les grandes fortunes était important et excédait le revenu imposable, tout nouveau revenu était réellement taxé au taux de 85 % ! Il n’y a décidément rien de plus déraisonnable qu’un « bouclier fiscal » mis en place par un politicien de gauche à part, sûrement, un « bouclier fiscal » mis en place par un politicien de droite. La suppression de l’impôt sur les grandes fortunes et la baisse de près de 10 % du taux marginal de l’impôt sur le revenu ont donc entraîné une baisse réelle du taux marginal de 85 % à 56,8 % pour de nombreux contribuables « aisés ».



Le boulet des dépenses tient au fait qu’au-delà d’une certaine taille de l’Etat, l’activité étatique réduit l’activité économique de la sphère privée. La dépense publique siphonne les talents. Elle détruit l’initiative. Elle tue la prise de risque, mère de la croissance économique. En fait, à partir de données américaines, Robert Barro et Charles Redlick de l’université de Harvard ont montré qu’un dollar de dépenses du gouvernement fédéral – s’il est financé par le déficit public – produit beaucoup moins d’un dollar de croissance économique – entre 60 et 70 cents selon les périodes. Si ce même dollar de dépenses du gouvernement fédéral est financé par l’impôt, l’économie se contracte alors de 1,10 dollar ! La dette et la dépense publiques américaines, si elles sont très préoccupantes, sont tout de même plus faibles qu’en France où le même effet ne peut donc être qu’amplifié.

Le boulet de la dette résulte du poids qu’il faut consacrer à financer cette dernière. A près de 100 % de dette publique en pourcentage du PIB, à 2 ou 3 %, les intérêts de la dette absorbent toute la croissance si elle est aussi de 2 ou 3 %. Dans cette zone, si le déficit primaire est nul, le taux d’intérêt de la dette doit rester inférieur (ou égal) au taux de croissance économique pour diminuer (ou maintenir) constant le ratio dette sur PIB. Dans le cas français de 2014, le déficit primaire est d’au moins 25 milliards, les taux d’intérêt sont bas mais très supérieurs au taux de croissance et la dette s’accroît donc exponentiellement. Ceci n’est pas sans conséquence. Selon les recherches empiriques de Christiane Nickel et Isabel Vansteenkiste publiées par la Banque centrale européenne en 2008, lorsque le niveau de la dette d’un pays se situe entre 44 et 90 pour cent du PIB, un euro supplémentaire de dépense publique conduit à moins d’un euro de croissance économique. Lorsque la dette dépasse 90 % du PIB, les multiplicateurs budgétaires tendent vers zéro ; aucune croissance n’émerge de la dépense. Dans ces situations, une augmentation des déficits aujourd’hui réduit les dépenses privées demain, d’au moins le même montant. Dans une série de publications de 2010 et 2011, les économistes Carmen Reinhart et Ken Rogoff de l’université de Harvard et Thomas Herndon, Michael Ash et Robert Pollin de l’Université du Massachussetts, ont montré que les pays dont le ratio de dettes publiques rapportées au PIB était compris entre 0 % et 30 % croissaient à 4,1 % en moyenne et ceux entre 30 % et 90 % croissaient à 2,8 % en moyenne. Les pays comme la France dont le ratio de dettes publiques rapportées au PIB était au-delà de 90 % croissaient à peine à 2,2 % par an en moyenne. À cause d’une erreur initiale dans les résultats et du caractère controversé de la conclusion de Carmen Reinhart et Ken Rogoff, un nombre considérable d’études similaires ont été faites et refaites, entre autres par la Banque Centrale Européenne, le Fonds Monétaire International et la Réserve Fédérale. Toutes arrivent aux mêmes chiffres à quelques décimales près. Plus la dette publique est élevée, moins l’économie croît.

Pour ces trois causes, – le boulet de l’impôt, le boulet de la dépense et le boulet de la dette –, la croissance annuelle moyenne du PIB per capita, à prix constants, en dollars, à parité de pouvoir d’achat, est passée en France de 4,6 % dans les années 1960 à 3,1 % dans les années 1970, à 1,8 % dans les années 1980, à 1,5 % dans les années 1990, à 0,5 % dans les années 2000, pour finir aujourd’hui à 0 % pour cette décade déjà à moitié écoulée…

Les Français vivent ainsi dans une économie à somme nulle où les gains monétaires d’un individu sont les pertes d’un autre. Une majorité d’électeurs est paralysée par l’idée même de réformes parce qu’elle est devenue complètement incapable de raisonner dans le cadre d’une économie en croissance permanente à 4,6 % par an. Cette majorité faite de tous les détenteurs de minuscules privilèges étatiques bloque le changement, toute arc-boutée qu’elle est sur ses minces « acquis sociaux ».

Grégoire Canlorbe : On entend souvent dire que la crise financière de 2008 constitue la preuve indéniable de l’instabilité intrinsèque des marchés. La plupart des commentateurs s’accordent à reconnaître qu’une déréglementation systématique de la finance a été instaurée dans les années 1980 et 1990, dont nous paierions le prix aujourd’hui. Dans quelle mesure souscrivez-vous à cette vision des choses ?

Philippe Lacoude : Si seulement nous avions eu une déréglementation dans une quelconque industrie que ce soit ! Ce n’est pourtant pas le cas.

Premièrement, entre le moment où Bush a pris ses fonctions en 2001 et le moment où il les a quittées en 2008, il y a eu une augmentation de 13 pourcent du nombre annuel de nouvelles règles. Selon une étude de Véronique de Rugy, le nombre de règlements administratifs – l’équivalent américain des décrets d’application français – a donc non seulement continué à croître mais à un rythme plus élevé que sous Clinton, lui-même un recordman en la matière. Une autre façon de mesurer les choses est de regarder le volume de ces décrets d’application sous forme de papier : sous l’administration républicaine, une augmentation significative de l’activité de réglementation a conduit à une augmentation du « Federal Register », – l’équivalent américain du Journal Officiel français – de 64438 pages en 2001 à de 78090 pages en 2007. L’infortuné président américain n’était hélas pas conseillé par Michel Sapin, un socialiste à la trempe d’airain dont Homère faisait ses héros, ancien Ministre du Chômage devenu Ministre de la Parcimonie, qui avait proclamé dans un instant de génie fulgurant qu’« il suffit d’écrire [les codes] plus petits pour qu’ils soient moins gros » !

Deuxièmement, tout ce papier supplémentaire pourrait consister à dire « Laissez faire les entrepreneurs ! Laissez passer les biens ! ». Surprise ! Il n’en est rien. Comme chaque département américain est obligé de faire une étude d’impact, nous pouvons additionner les coûts de ces nouvelles réglementations : en 2007, ils étaient bien plus élevés que ce qu’ils étaient avant 2001. Parmi toutes ces nouvelles règles, 159 étaient « économiquement significatives », ce qui signifie qu’elles coûtent au moins 100 millions de dollars par an. C’était une augmentation de 10 % du nombre de règles coûteuses par rapport à 2006, ou 70 % d’augmentation depuis 2001. A la fin de 2007, 3882 réglementations étaient déjà à différents stades de leur mise en œuvre, dont 757 ciblaient les petites entreprises. Bush a donc été un super-réglementateur. Il a continué à créer des réglementations, à un rythme supérieur à celui de ses prédécesseurs.

Troisièmement, le secteur financier n’a évidemment pas échappé à ce phénomène. Le nombre de réglementations y a augmenté, à un rythme supérieur aux autres secteurs et à un rythme supérieur à la décennie précédente. Comme l’a également montré Véronique de Rugy, le nombre de fonctionnaires affecté au contrôle des institutions financières s’est accru dans toutes les administrations : la Federal Reserve, le Federal Deposit Insurance Corporation, l’ex-Office of Thrift Supervision et l’Office of the Comptroller of the Currency.

Quatrièmement, la complexification des réglementations est, à mon sens, une cause majeure de la crise. Je vais prendre un exemple simple, les accords de Bâle. J’ai eu la chance de travailler brièvement pour une grande banque à Singapour lors de l’implémentation de la première mouture, en 1991. La version finale des accords de juillet 1988 tenait en quelques 30 pages. Les accords étaient simples mais incomplets. Les réglementateurs se sont donc réunis pour pondre une seconde version. Je travaillais à ce moment-là comme consultant pour l’une des quatre agences fédérales citées ci-dessus. La version finale des accords Bâle II de juin 2006 tenait en quelques 347 pages. Le calcul des différentes mesures de risque et des ratios financiers était devenu franchement ardu. Qu’à cela ne tienne ! Les accords de Bâle III rajoutent 53 et 77 pages pour le seul calcul des règles sur le capital et sur le calcul des liquidités, respectivement. Le réglementateur moyen a un manuel de plus de 1000 pages. La moitié des concepts le dépasse totalement. C’est la porte ouverte à des surprises financières retentissantes. C’est aussi la porte ouverte à l’arbitraire gouvernemental et aux petits arrangements entre amis dans le dos du grand public.

A ce sujet, j’ai une anecdote amusante que je ne raconte généralement qu’en privé mais je vais faire une exception sans donner trop de noms. Avec un ami, nous avons implémenté un modèle économétrique basé sur le calcul d’une vingtaine de ratios financiers généralement considérés comme reflétant la santé d’une banque. A l’aide d’un modèle relativement simple, notre client gouvernemental pouvait dire quel ratio sortait de l’ordinaire. Les auditeurs gouvernementaux étaient envoyés en priorité dans les banques à problèmes. Les institutions financières en pleine santé voyaient moins souvent leur réglementateur. Ceci faisait une économie évidente. Dès 2003, quatre ans avant la crise, il apparaissait qu’une des plus grandes banques mondiales violait un certain nombre de seuils. Elle opérait de façon, disons, dangereuse. Elle n’était pas la seule mais elle était la pire. Nous avions décidé de faire apparaître un petit drapeau rouge à côté des « mauvais » chiffres sur tous les rapports. Notre client gouvernemental nous a fait enlever les petits drapeaux rouges pour toutes les banques au-dessus d’une certaine taille de bilan. Sans doute, la banque en question n’avait-elle pas pris nos petits drapeaux rouges avec sympathie ? La décision a été rationalisée en considérant que les très grandes banques étaient si amplement diversifiées qu’elles ne risquaient point d’avoir d’ennui même avec des bilans chancelants. Cette banque a depuis puisé massivement dans les lignes de crédit ouvertes par la Federal Reserve à l’occasion du Troubled Asset Relief Program… La banque aurait dû mourir. Elle n’a été sauvée que par ses connections politiques.

En résumé, nous pouvons donc établir avec certitude que, premièrement, le nombre de règles n’a cessé de croître, que, deuxièmement, ces règles sont devenues de plus en plus coûteuses, que, troisièmement, l’Etat a embauché une armée de fonctionnaires pour les faire respecter, que, quatrièmement, les règles sont devenues ingérables par les intéressés et que, cinquièmement, les fonctionnaires n’avaient pas trop envie de secouer le cocotier qui les nourris.

Ces cinq faits pré-datent la venue de la crise.
Ce mythe de la déréglementation enterré, nous devons chercher d’autres causes à la crise.
Si on regarde les taux directeurs – je parle du « federal funds rate » – de la Federal Reserve de 1990 à 2014, on voit une rapide décrue à partir de la récession correspondant à la première guerre du Golfe Persique. Au début de l’ère Clinton, les taux sont à 3 %. On emprunte à pas cher et on crée une première bulle financière : la bulle Internet ou bulle technologique. Au moment même où Alan Greenspan parlait de « l’exubérance irrationnelle » des marchés, il était en train de financer cette dernière. Après avoir eu des taux trop bas à 3 % pendant un an, ils ont été relevés à 6,5 %, exactement au moment où le NASDAQ atteignait son apogée. A ce taux, de nombreux projets économiques n’étaient plus rentables ; on s’est retrouvé avec un crash. Qu’à cela ne tienne, la Federal Reserve a redescendu brutalement son taux directeur à la valeur historiquement basse de 1 %, en juillet 2003. A cette valeur, les prêts immobiliers à taux variable, sans remboursement du principal et sans apport personnel, permettent d’acheter une maison de un million de dollars avec des traites hypothécaires mensuelles de seulement 833 dollars, hors impôt foncier, hors assurance. C’est le début de l’envolée des subprimes, ces prêts pour clients à problèmes. C’est aussi l’inflexion exponentielle de la courbe des prix de l’immobilier. En juillet 2004, dans sa grande sagesse, la Federal Reserve commence à remonter le taux directeur qui passe lentement de 1 % à 5,25 % en août 2006, date approximative où les prix de l’immobilier culminent. Les prêts à taux variables sont devenus impayables pour tous les individus qui avaient misé sur une hausse continuelle du prix de l’immobilier accompagnée de taux toujours plus bas. On connaît très bien le reste de l’histoire. Toute l’histoire de la Grande Récession est d’origine monétaire, c’est-à-dire d’origine étatique.

A ce sujet, je voudrais en partie disculper Fannie Mae et Freddie Mac. Pour être tout-à-fait honnête, je dois mentionner que j’ai travaillé comme consultant pour l’une d’entre elles au sein du groupe en charge de ses modèles financiers pendant près de cinq ans durant la crise. Contrairement à l’idée répandue, les deux entreprises sponsorisées par l’Etat – Government Sponsored Enterprises (GSE) en anglais – ont perdu moins d’argent sur leur portefeuille de garanties de prêts immobiliers que les institutions financières privées. L’agence gouvernementale qui les supervise, la Federal Housing Finance Agency, a montré que c’était vrai aussi bien sur les 37 ans, de 1971 à 2007, qui ont précédé la crise que sur les années de crise, de 2008 à 2011. De même, sur les fameux prêts subprimes, les deux agences gouvernementales ont eu de meilleurs résultats financiers et ont perdu des parts de marché juste avant la crise. Ceci signifie qu’elles émettaient moins de prêts pourris que leurs compétitrices privées. En revanche, elles faisaient tout ceci avec des fonds propres qui n’étaient statutairement que de 2 % : avec 2 dollars, elles pouvaient en prêter ou en garantir 100. D’autre part, bien que cotées en bourse, elles n’étaient pas supervisées par la Securities and Exchange Commission – la SEC, autorité de marché – et elles faisaient leurs petites affaires à l’abri des regards indiscrets. C’était une bonne chose car la loi obligeait Fannie Mae et Freddie Mac à acheter des prêts pourris – soi-disant pour « aider » les indigents – à la fin de chaque année. Quand on obtient le droit de prêter 100 dollars avec seulement 2 dollars de fonds propres, on est certain de faire faillite si seulement 2 % des prêts ne sont pas remboursés. Cette sous-capitalisation de Fannie Mae et Freddie Mac, mais aussi de Lehman, Goldman Sachs, Merrill Lynch et autres géants financiers américains a contribué à exacerber la crise d’origine monétaire. Non seulement la réglementation a augmenté sur cette période mais certains de ses aspects étaient parfaitement idiots, hélas, probablement par dessein.

La structure de l’actionnariat des banques a probablement également joué. Prenez Microsoft ou Oracle. Tout le monde connaît le nom des principaux actionnaires. Ils sont clairement identifiés et ont mis leur propre argent dans leurs entreprises. Au contraire, les banques systémiques ont un actionnariat entièrement atomistique. Le contrôle interne s’en trouve fortement affaibli. Il est plus difficile d’aligner les intérêts de court terme des dirigeants et les intérêts de long terme des institutions qu’ils gèrent. Ceci est apparent dans tous les scandales qui ont eu lieu dans cette industrie au cours de la dernière crise. Les plus grosses banques sont trop grosses au regard de la taille des économies qu’elles servent : leurs autorités de régulation seraient bien inspirées de revoir leurs règles prudentielles qui sont grandes contributrices de ce phénomène relativement nouveau.

Grégoire Canlorbe : Il est généralement reconnu que le principal problème avec le système des soins de santé américains est que les prix sont continuellement à la hausse, rendant ainsi les soins de santé inabordables à une fraction toujours plus grande de la population. La Loi sur la Protection du Patient et de l’Accessibilité aux Soins, communément appelée la Loi sur les Soins abordables, ou encore « Obamacare », est souvent décrite et révérée comme un moyen d’améliorer cette situation. En tant que Français établi aux Etats-Unis, que pensez-vous d’Obamacare ?

Philippe Lacoude : Je vais vous choquer. J’aimerais que dès demain la France adopte « Obamacare » et que les Etats-Unis y renoncent.

Pourquoi ?
Contrairement à l’opinion du Français moyen, abreuvé d’idées fausses par ses médias gavés de subventions publiques, Obamacare repose sur des assurances santé privées. Très schématiquement, Obamacare est un système semi-étatique semi-privé qui repose sur 1) une subvention à l’achat d’assurance privée, 2) un faux « marché » dans chaque Etat, 3) une obligation de s’assurer sous peine d’amende, le fameux « individual mandate » qui a été reconnu constitutionnel parce qu’analogue à une taxe, 4) une foultitude de règlements contraignant ces assureurs privés, 5) le surdéveloppement de Medicare et 6) l’interdiction d’acheter son assurance dans l’Etat voisin même si elle est moins chère.

Ce dernier point, complètement absurde, existait déjà avant Obamacare et empêchait les habitants du New Jersey d’acheter leur assurance maladie dans le Nevada où les prix étaient pourtant environ trois fois moindres. Il réduit la concurrence entre assureurs qui remercient vivement la puissance publique en déversant des tombereaux de dollars malodorants sur les politiciens véreux de tous les partis, ceci à chaque élection. Dans certains Etats, où le marché est étroit parce que la population y est faible, il n’y a qu’un assureur. Par exemple, PreferredOne qui était l’assureur le moins cher dans le Minnesota et qui avait réussi à gagner 59 pourcent de part de marché « Obamacare » en 2013 a décidé de jeter l’éponge, laissant 30000 foyers sans assurance santé. Avec un seul assureur, il est vain d’espérer un abaissement de prix par les effets bénéfiques de la concurrence !

La subvention à l’achat d’assurance est nouvelle : plus les revenus d’un individu sont faibles, plus la subvention est forte. Les riches paient pleinement leurs primes. Les pauvres sont aidés. En dehors du fait que l’argent doit bien être pris à une victime du fisc, ce système est pervers car il faut savoir quel est le revenu des individus. Dans un pays avec 50 systèmes d’aides sociales, plus un régime fédéral, des retraites privées ou publiques, des pans entiers d’assurés déjà couverts en tant que vétérans, fonctionnaires, ou employés, déterminer les « faux droits » de chacun relève de l’exploit. Il faut donner à la puissance publique un droit de regard sur la vie privée intime des individus.

Et là intervient le second volet, le faux « marché » dans chaque Etat de l’Union : Obamacare a mis en place 50 sites web, fournis soit par l’Etat fédéral, soit par les Etats eux-mêmes selon leur vœu, pour calculer ces subventions. Les sites en question puisent leurs données dans de multiples bases de données gouvernementales, le fisc, la Social Security (retraites publiques), les aides sociales, pour déterminer le « juste prix ». Le tout est surveillé par 16000 nouveaux employés du fisc qui vérifient si les « consommateurs » ont honnêtement rempli leurs déclarations. Bien sûr, en plus de l’atteinte à la vie privée de chacun, les catastrophes, aisément prévisibles, n’ont pas tardé : les sites ont connu tous les déboires propres aux projets informatiques gouvernementaux bien connus des Français. Ils ont coûté des fortunes en informatique et certains comme dans l’Oregon ou le Maryland n’ont jamais fonctionné malgré des dépenses respectives de 305 et 171 millions de dollars ! A Hawaii, le site a coûté 23899 dollars par contrat d’assurance souscrit. Certains ont failli lamentablement pendant près de six mois et ont, inévitablement, été piratés comme le site HealthCare.Gov en juillet 2014. Pendant des semaines, le président faisait conférence de presse après conférence de presse pour assurer à ses électeurs qu’ils allaient enfin pouvoir acheter un contrat, ou que les contrats perdus par le système informatique allaient être honorés, ou que les dates limites de paiements allaient être repoussées. Au même moment, HealthCare.Gov plantait comme une vieille version de Windows 95 et se trouvait être la risée de la Silicon Valley. Impossible de créer un compte. Impossible de se loguer. Impossible de trouver les prix. Impossible de payer. L’histoire retiendra le « rollout » d’Obamacare comme le moment où le président techno-cool super-chébran a perdu toute sa superbe. Il a décroché dans les sondages et ne s’en est jamais remis.

Le troisième volet est l’obligation de s’assurer sous peine d’amende, le fameux « individual mandate ». A priori, une obligation légale d’acheter un produit est interdite par la constitution américaine. Toutefois, cette obligation a pris la forme d’une taxe à payer par ceux qui ne sont pas assurés. Le président Obama n’en voulait pas et avait juré pendant sa campagne des primaires qu’il n’en serait pas question. Malheureusement, si on interdit aux assureurs de varier leurs prix en fonction de l’état de santé des assurés, il suffirait que ces derniers attendent d’être malades pour souscrire une assurance. Les compagnies d’assurance fermeraient toutes leurs portes. Il faut donc punir les récalcitrants. Il faut les obliger à s’assurer.

Ce fait micro-économique simple a forcé l’adoption d’un quatrième volet, la réglementation à outrance du marché médical. La loi fait 2300 pages. Personne ne l’a lue. Elle s’accompagne de 11500 pages de décrets d’application. Personne ne les a lus. En particulier, la présidente de la Chambre des Représentants des États-Unis, Nancy Pelosi, architecte de la loi, a eu ce moment de candeur rare chez ceux de sa classe lorsqu’elle a dit : « nous devons adopter [Obamacare] pour que vous puissiez découvrir ce que cette loi contient ». La loi garantit que tous les malades seront assurés au même tarif que les biens portants. Elle garantit que les enfants seront assurés par l’assurance de leurs parents jusqu’à 26 ans. Elle oblige les entreprises à assurer tous les employés s’ils travaillent plus de 30 heures par semaine. Elle oblige les entreprises de plus de 10 personnes à assurer leurs salariés. Elle force la couverture d’un large nombre de conditions qui ne sont pas des impératifs médicaux.

Les effets sont assurément prévisibles. Selon John Goodman, économiste de la santé, qui a compilé des études des Réserves Fédérales de Philadelphie, de New York et d’Atlanta, environ une entreprise sur cinq a diminué le nombre de ses salariés. Plus embêtant pour ces derniers, il y a de plus en plus d’emplois à temps partiel, les employeurs ayant recours à ces derniers pour passer sous la barre des 30 heures hebdomadaires. Une entreprise sur dix a développé le recours à la sous-traitance. Les petites entreprises tentent de rester sous la barre des 10 employés à temps plein.

Si plusieurs millions de personnes sont maintenant couvertes par Obamacare, il n’en reste pas moins que plusieurs millions de personnes ont perdu les assurances santé qu’elles avaient dans le passé. Le bilan final est un faible accroissement du nombre net des assurés, le tout à un coût additionnel considérable aussi bien pour ces derniers que pour le contribuable. Selon un rapport officiel intitulé « National Health Interview Survey » mené par « National Center for Health Statistics » (du « Centers for Disease Control »), le nombre de personnes se déclarant sans assurance est passé de 14,4 à 13,1 pourcent de la population, soit environ 3,8 millions d’individus. Cependant, ce chiffre est à prendre avec précaution : une partie de ces derniers ne sont pas assurés tant qu’ils n’ont pas documenté leurs « droits » et tant qu’ils n’ont pas payé. Or, il y avait au moins 115000 personnes sans preuve de citoyenneté et entre 1,2 et 1,4 million de personnes dont les revenus déclarés étaient incompatibles avec les subventions reçues. Au final, une bonne partie de ces gens sortiront des 3,8 millions de nouveaux assurés.

Le système devait régler le sort des 40 millions d’Américains qui auparavant n’achetaient pas d’assurance maladie. Obamacare a donc atteint un peu moins de 10 % de son objectif. Si rater 90 % de son objectif peut sembler franchement exécrable, il faut se rappeler que nous parlons d’un programme gouvernemental. Ceci est donc extraordinairement satisfaisant.
Je plaisante.

L’avenir d’Obamacare est sérieusement obéré.
Premièrement, les professionnels de la santé n’en veulent pas. Une étude portant sur 20000 médecins a montré que 46 pourcent d’entre eux donnent une note de D ou de F à ce programme. Seul un petit quart lui donne un A ou un B.

Deuxièmement, de plus en plus de gens détestent Obamacare. On leur a vendu un système sous le prétexte que les prix baisseraient. Ils montent. Et malgré cette hausse, les assureurs ne peuvent plus assurer même à des prix élevés tant il y a de conditions médicales à couvrir. Près de 14000 personnes vont perdre leur couverture au début 2015 dans le Kentucky. Environ 800 en Alaska selon certaines projections. Selon l’Albuquerque Journal, les plans de 30000 personnes seront annulés dans le Nouveau Mexique. Ceci fait suite aux annulations massives d’octobre 2013 où 800000 Californiens, pour ne citer qu’eux, ont perdu leur assurance santé.

Troisièmement, il va falloir trouver des sous pour payer toutes ces subventions. Il manque environ 1000 milliards à l’appel pour les années futures malgré – ou à cause ? – d’une avalanche de nouvelles contributions fiscales. Comme 71 pourcent des nouveaux assurés sont soit vieux soit malades, un taux de 11 pourcent supérieur aux prévisions roses du gouvernement, les plans d’assurance fonctionnent à perte. Ce n’est pas la Sécurité Sociale française. Nous parlons d’assurances privées. Soit les prix augmentent. Soit elles font faillite. Soit elles arrêtent de vendre. Moody’s a d’ailleurs baissé ses perspectives sur le marché boursier pour l’industrie de la santé à « négatif ». Il faudra peut-être renflouer les assureurs. Après tout, on renfloue bien les banques. Le conte de fées loufoque du Président Obama selon lequel son beau système serait en équilibre ressemble de plus en plus à celui du Président Johnson qui avait dit dans les années 1960 que l’assurance maladie publique pour les personnes âgées (Medicare) ou indigentes (Medicaid) coûterait quelques milliards. Ce système est aujourd’hui en déficits cumulés de plusieurs dizaines de milliers de milliards de dollars. Quid d’Obamacare ? Il faudra faire des coupes drastiques des taux de subvention d’Obamacare et des taux de remboursement de Medicare et Medicaid.

Il existe des solutions reposant sur le marché libre. A un moment donné, il faudra laisser les individus libres d’acheter une assurance dans l’Etat de leur choix et donc laisser la concurrence baisser les prix. Il faudra revenir à un système où les assureurs ne sont tenus d’assurer que les risques graves. Le numerus clausus et les assurances en responsabilité des médecins devront probablement être libéralisés.

Tout ceci dit, un système subventionné et ultra-réglementé d’assurances privées payant pour des frais d’hôpitaux privés, – même s’il est une catastrophe pour les Etats-Unis –, est toujours meilleur qu’un système de pseudo-assurance publique payant pour des frais d’hôpitaux publics. La France devrait adopter Obamacare comme première étape vers la privatisation totale du marché de la santé.


Grégoire Canlorbe: Les politiques démocrates ou même républicaines insistent généralement sur le besoin de recourir à toutes sortes d’interventions gouvernementales dans l’économie. Quelle est votre conception du rôle propre du gouvernement ?

Philippe Lacoude : Le rôle que l’on accorde à l’Etat découle de la morale que l’on adopte.
Si l’on considère que ceux que l’on désigne par le vocable de « riches » doivent subventionner avec les fruits de leur travail ceux que l’on aura désigné comme « pauvres », alors, l’Etat aura une taille considérable. Il devra s’intéresser à la vie de tout un chacun pour ranger les individus dans des catégories d’ayant droit et d’ayant devoir, il devra lever une armée pour le recouvrement de l’impôt et une autre armée pour protéger la première. Une troisième armée sera en charge de désarmer les citoyens : après tout l’histoire a montré que la plèbe, toute ingrate qu’elle est, peut se révolter pour de simples raisons de subsistance. Même s’il fournit une éducation à peine passable au vulgum pecus, l’Etat devra quand même s’assurer de recruter l’élite à son service de façon à s’assurer son allégeance. Les « intellectuels » et les « journalistes » qui en usurpent les titres seront bichonnés. Enfin, il devra créer toutes sortes de mécanismes économiques complexes pour corriger les effets désincitatifs de l’impôt et les effets pervers de la subvention lorsqu’elle conduit à l’oisiveté.

Si au contraire, on pense que les droits de propriété sont inaliénables, l’Etat n’a pas de « rôle » puisqu’on ne peut pas trouver une définition du vol qui ne s’applique pas aussi à l’impôt. Dans ce cadre moral, il ne devrait simplement pas exister.

Le « rôle » de l’Etat ou son absence de rôle découle donc pour ma part de l’adoption des droits de propriété comme fondement du Droit. Le droit de propriété diffère des pseudo-droits gauchistes, les « droits à ». Le « droit à un logement ». Aux dépens de qui ? Le « droit à l’éducation ». Qui paie ? Le « droit aux transports ». Qui s’en acquitte ? Le droit de propriété n’est pas le « droit à » un objet. C’est le droit d’agir en vue de produire ou de gagner un objet. C’est le droit de faire usage de cet objet. C’est le devoir de faire face aux conséquences de cet usage sur autrui s’il y a lieu. Il n’est pas une garantie qu’un homme gagnera une propriété mais seulement une garantie qu’il en sera bien le propriétaire s’il la gagne. C’est le droit d’acquérir, de conserver, d’utiliser et de disposer des valeurs matérielles. A 100 pourcent. Sans interférence fiscale dans les processus de production et d’acquisition.

En fait, je ne suis pas un absolutiste du droit de propriété. Comme Ayn Rand, je pense que le droit à la vie est la source de tous les droits — et le droit de propriété est leur seule implémentation. Étant donné que l’homme doit maintenir sa vie par ses propres efforts, l’homme qui n’a pas droit au produit de son effort n’a aucun moyen de soutenir sa vie. L’homme qui produit tandis que d’autres disposent de son produit est un esclave. L’absolu est « life, liberty and the pursuit of happiness » comme disait Thomas Jefferson. De là viennent le droit de propriété comme moyen et les autres droits naturels subordonnés comme conséquence pratique. Je suis pour le droit d’expression parce que je crois que l’on devrait avoir le droit d’imprimer et de diffuser ce que l’on veut sur le papier que l’on possède. Je suis en faveur de la liberté de rassemblement parce qu’elle découle simplement de l’usufruit de la propriété foncière. Sans les droits de propriété, aucun autre droit n’est possible.

L’Etat, son mode de fonctionnement et sa taille sont donc le reflet du code moral de l’électeur médian. Parle-moi de ton Etat et je te dirai avec quel genre de dépravés tu vis ! Si l’Etat est centralisateur et important, l’électeur médian a une morale de voleur. Si l’Etat s’immisce rarement dans la vie intime du citoyen moyen, l’électeur médian se lève probablement tôt tous les jours et s’occupe productivement.

Ceci est d’autant plus vrai que la démocratie est plus aboutie. Dans une république, où la majorité n’a rien à dire sur les goûts des multiples minorités – surtout la plus petite d’entre-elles, l’individu –, il peut y avoir un décalage entre les vues morales de l’électeur médian et le rôle de l’Etat, au moins temporairement. L’électeur médian ne peut pas élire un politicien qui violerait certains droits de certaines minorités. Par exemple, l’électeur médian peut être contre la pornographie et les fusils semi-automatiques – et c’est probablement le cas de l’électeur médian américain – mais il ne peut pas changer le rôle de l’Etat sur ces questions. La Constitution l’en empêche. Elle protège, respectivement, la liberté d’expression et la liberté de posséder des armes. Dans une démocratie pure – heureusement, elles ne le sont presque jamais – l’électeur médian peut décider de tout et, notamment, de n’importe quoi.

Murray Rothbard disait que « ce serait un exercice instructif pour un sceptique de formuler une définition de l’impôt qui ne s’applique pas aussi au vol ». 

Même si on est en faveur d’un Etat minimal, il est impossible d’échapper au fait qu’il sera nécessairement fondé sur un crime originel, le vol. Même si on décide que le jeu en vaut la chandelle, c’est un fait philosophique qu’il est bon de garder à l’esprit. Si tous les politiciens traitaient les deniers « publics » en gardant constamment cette idée à l’esprit, on ne serait pas dans la situation actuelle. « Dois-je utiliser cet euro d’argent ‘public’ à telle ou telle fin sachant que j’ai dû faire usage du monopole étatique de la violence et commis un vol pour l’obtenir ? » Toutes les institutions devraient être construites pour forcer à cette constante évaluation.

Lorsque plus de la moitié de l’économie est accaparée par l’Etat – comme en France avec une dépense publique à 57 ou 58 pourcent du total de l’économie – l’électeur médian vit en partie de l’Etat, c’est-à-dire de la minorité que ce dernier spolie : plus la démocratie est pure et plus le résultat est pitoyable. A défaut de mieux, je suis donc contre la démocratie et en faveur de la république avec des droits civils et économiques inaliénables, une solide séparation des pouvoirs et la plus grande décentralisation publique possible. La république ne moralise pas l’action de l’Etat mais elle a le bon goût de limiter les élucubrations potentielles de l’électeur médian. Je pense que toutes les constitutions devraient être revues à l’aune des connaissances en sciences sociales que nous possédons aujourd’hui et qui faisaient partiellement défaut à Charles-Louis de Montesquieu, Thomas Jefferson, Emmanuel Joseph Sieyès, Nicolas de Condorcet, ou James Madison. Une vraie république serait fondée sur les idées qu’a développées Friedrich Hayek dans « Droit, Législation et Liberté ». La constitution inciterait le législateur à réduire plutôt qu’à augmenter la taille et donc le rôle de l’Etat. Le droit constitutionnel est beaucoup trop sérieux pour être laissé aux seuls juristes, surtout quand ils sont aussi inaptes que les faux érudits qui ont rédigé la constitution française actuelle, à contre-sens complet des enseignements de ceux que je viens de mentionner.

En matière d’Etat, je pense donc qu’il faut transposer en droit l’ordre spontané du marché. Il est à mon avis stérile de passer du temps à une discussion entre minarchistes et anarchistes sur le périmètre de l’Etat. Pour deux raisons. D’une part parce que, dans nos sociétés ultra-socialistes, si vous êtes anarchiste, les minarchistes sont vos meilleurs alliés politiques et vice-versa : les uns et les autres ont intérêt à cheminer ensemble vers plus de liberté. D’autre part, parce que définir le périmètre constitutionnel de l’Etat en matière régalienne est une approche fallacieuse. Si je suis d’accord pour dire qu’il n’existe aucune définition du vol qui ne s’applique pas à l’impôt, je ne suis pas sûr que nous soyons à même d’imaginer les formes juridiques pour nous amener à zéro dans le calme alors même que nous sommes incapables d’imaginer celles qui nous ramèneront de 57 % à 55 % de l’économie sans conflits sociaux graves.

Prenons trois domaines souvent considérés comme régaliens pour lesquels la privatisation fait sortir les minarchistes de leurs gonds : la justice, la police et l’armée.

Peut-on privatiser la justice ? Que nenni s’écrient les minarchistes ! Il vaudrait mieux garder la justice monopolistique d’Etat inféodée aux syndicats, avec ses biais idéologiques, ses lenteurs et ses jugements parfois dépourvus de sens. C’est aller un peu vite en besogne. Idéalement, nous souhaiterions au contraire pouvoir tirer parti des mécanismes de marché : il faudrait instaurer une forme de concurrence entre institutions judiciaires, pour faire en sorte que les plus mauvaises disparaissent au profit des meilleures. L’indépendance des juges vis-à-vis de l’arbitraire politique isole ces derniers et les protège vis-à-vis du consommateur de justice : l’élection des juges au scrutin universel n’est sûrement pas la panacée mais peut-on imaginer qu’un procureur mou, qu’un juge laxiste ou qu’un juge d’application des peines permissif puissent relâcher des multirécidivistes comme ils le font parfois aujourd’hui sans subir les foudres de leur électorat ? N’en déplaise aux minarchistes, il est pourtant évident que la justice a été en partie privatisée. Même aujourd’hui, en pleine France socialiste, les sociétés d’arbitrage sont autant de remplaçants de Saint Louis rendant la justice. On entend le peuple se plaindre constamment de la justice étatique mais presque jamais de la justice privée des tribunaux d’arbitrage. Communément, un mauvais arbitre disparaît faute de client, sans même l’intervention incompétente d’une ex-Ministre des Finances reconvertie dans l’affairisme bancaire international. Sans complètement privatiser la justice au premier jour, nous pourrions donc intégrer systématiquement ce qui marche ailleurs : plus de choix des électeurs, plus de choix des clients, plus de variété de recrutement, etc… Moins de monopole de l’emploi des juges, moins de monopole géographique, moins de monopole étatique. Moins de syndicalisme. On pourrait probablement réduire la fonction publique judiciaire à une peau de chagrin tout en améliorant grandement la qualité du produit.



Peut-on privatiser la police ? Là encore, la question est mal posée. Pourquoi a-t-on besoin de la police ? Pour assurer la sécurité des personnes et de leurs biens a priori (dissuasion) et a posteriori (élucidation des délits et des crimes). L’efficacité de la police n’est pas mesurée à l’aune du nombre d’arrestations mais à celle de l’absence de crime. Là aussi, nous pourrions imaginer de faire systématiquement appel au privé pour tendre vers l’absence de crime. La France est victime d’une déferlante criminelle semblable à celle qui a frappé les Etats-Unis dans les années 1970 et 1980 : le parallèle, avec un décalage de trente ans, est saisissant quand on s’intéresse à la criminologie. Les Etats-Unis ont connu une hausse du crime de plus de trois décennies suivie d’une décrue rapide sur les vingt années récentes. La réponse à cette vague de crime a consisté à augmenter les forces policières et pénitentielles : c’est un fait connu et reconnu. Moins notoire est la réponse privée à ce problème : les services de sécurité ont fleuri, la technologie a évolué et les citoyens se sont protégés. D’après l’ouvrage de Bruce Benson, The Enterprise of Law – Justice Without the State –, les sociétés de gardiennage représentent aux Etats-Unis un plus grand nombre de travailleurs que les polices locales, d’Etat et fédérales réunies. Le législateur facilite leur rôle ; moyennant formations et certifications, les employés, en uniforme, peuvent être armés. Il suffit de se rendre dans n’importe quel grand bâtiment public ou privé pour être confronté à leur présence. La réponse technologique a surtout pris forme de systèmes vidéo et d’alarme : là aussi le législateur aide le particulier et un individu peut relier son alarme à la police sur simple déclaration écrite. Les ménages ainsi protégés sont passés de 5 à 25 pourcent entre 1990 et 2010. Enfin, les citoyens se sont défendus : 1993 a concomitamment marqué le début d’une énorme vague d’acquisition d’armes à feu et le début de la rapide chute du taux de meurtres. Les citoyens et les policiers commettent environ 280 et 390 homicides justifiés chaque année. L’usage est parcimonieux puisque les 10 millions de porteurs d’arme ont un taux de criminalité plus faible que celui des forces de police. Pour détourner la célèbre formule de Sir Robert Peel, je dirais que « la police est le public et le public est la police ». Même sans complètement privatiser la police, on pourrait imaginer d’en réduire drastiquement le budget en faisant appel au privé.



Peut-on privatiser l’armée ? Apparemment François Hollande et Manuel Valls considèrent que la réponse est affirmative puisqu’ils ont décidé de louer une partie de son matériel à des entreprises privées. Là encore, il y a d’autres moyens de remplir la fonction tout en réduisant les coûts. Nous pourrions bien sûr commencer par ne plus se mêler des affaires intérieures des autres pays mais pourquoi s’arrêter en si bon chemin ? Une société libre penserait tout son programme de défense comme elle pense le droit individuel à l’auto-défense : Israël, la Suisse et les Etats-Unis sont de bons exemples de pays qu’il serait malsain d’envahir. 

« Je ne peux pas envahir les Etats-Unis : il y aurait un fusil derrière chaque brin d’herbe » pour reprendre la citation vraisemblablement apocryphe de l’amiral Yamamoto.

Dans chacun de mes trois exemples, j’ai parlé de processus évolutifs. Pas de grande révolution. Les changements à la marge sont un élément clef. Plutôt que de fixer légalement ce que l’Etat devrait faire, il faut créer les conditions de la substitution de ses tâches vers le privé. Le débat « minarchistes » versus « anarchistes » n’a pas de sens dans ce contexte…

Une constitution ne doit donc pas être une transcription écrite de 482 pages de bouillie mentale d’un énarque polytechnicien devenu ex-Président de la République. Qui peut sérieusement penser que l’article 70 d’une constitution européenne idéale devrait prévoir :

« qu’en cas de perturbation du rail, les autorités doivent se concerter pour maintenir la fluidité du trafic en accordant la priorité aux charges sensibles tels que les aliments périssables » ? 

Il faut sortir de ce qu’Albert Venn Dicey appelait la « rigidité des constitutions françaises », il y a déjà plus de cent ans.

La constitution doit être un bref ensemble de méta-règles simples destinées à faire émerger un nombre toujours plus succin de lois efficaces. Une constitution optimale est celle qui protège les citoyens de la soif de pouvoir des politiciens tout en maintenant les vertus civiques des citoyens.

Il y a heureusement tout un corpus récent sur le sujet. Les chercheurs qui travaillent sur cette question ont même leur revue « Constitutional Political Economy » dans laquelle ils posent la question « Is There an Optimal Constitution? ». Dans le Journal of Public Economics, on peut lire des articles intitulés : « Optimal Taxation and Fiscal Constitution ». Le prestigieux éditeur Elgar a récemment publié un livre au titre évocateur de « The Optimal Decentralisation of Government Activity: Normative Recommendations for the European Constitution ». Toute l’« école des choix publics » est tournée vers la recherche d’institutions politiques optimales ainsi que l’étude des institutions politiques sous optimales.

La clef du succès libéral est de transposer au droit ce que nous avons appris en sciences économiques à propos de l’ordre spontané du marché. Le terme ordre spontané désigne un ordre qui naît spontanément de l’apparent chaos des comportements individuels sans qu’il soit nécessaire de l’imposer par la puissance publique. Le système des prix, qui permet à l’offre de produits de rencontrer sa demande, est l’expression économique d’un ordre spontané. Le respect des droits de propriété et le respect des contrats sont les deux métarègles qui permettent l’émergence de cet ordre, le Spontane Ordnung cher à Friedrich Hayek.

Aucune règle ne spécifie les prix. Aucune règle ne fixe l’innovation. Aucune règle ne spécifie « qu’en cas de perturbation du rail, [...] la priorité [ira] aux charges sensibles tels que les aliments périssables ». Les prix émergent. L’iPhone 6 remplace l’iPhone 5. Les denrées périssables atteignent les étals sans périr. Les énarques polytechniciens reconvertis dans le charabia pseudo-constitutionnel sont inutiles.

Appliqué à la politique, il faut établir un Spontane Ordnungspolitik : un ensemble de métarègles politiques minimalistes qui permettent de faire évoluer les lois dans la « bonne » direction quant au rôle de l’Etat. Des « règles simples pour un monde complexe », pour reprendre le titre d’un bel ouvrage de Richard Epstein. On ne veut pas vraiment que le budget soit en déficit de 3 % du PIB, que le taux maximal d’imposition soit de 30 %, et que le budget de l’armée soit à un maximum de 3 % du PIB. On veut que le budget soit de plus en plus en équilibre, que le taux maximal d’imposition soit en baisse régulière, et que le budget de l’armée soit le plus faible possible.

Friedrich Hayek nous en a donné les pistes dans ses travaux précurseurs du troisième tome de « Law, Legislation and Liberty » : nous souhaiterions que ceux qui votent les recettes ne soient pas ceux qui votent les dépenses, que leurs mandats soient limités, qu’ils ne soient pas politiciens à vie, etc… Le rôle de l’Etat, avec les bonnes métarègles, émergerait spontanément. Il faut réécrire la déclaration universelle des droits de l’homme en repartant du modèle du Comte de Mirabeau et de George Mason, à l’aune des progrès philosophiques du vingtième siècle, épurée du galimatias socialo-marxiste. En établissant la « présomption de liberté » à la Randy Barnett, la Constitution protégerait les droits sans avoir à les énumérer. Il suffit de rendre la croissance étatique pénible et sa métastase actuelle absolument insupportable pour le législateur.


Grégoire Canlorbe : Etes-vous plutôt optimiste ou pessimiste quant à l’avenir économique et géopolitique des Etats-Unis ? Etes-vous davantage optimiste pour les Etats-Unis que vous ne l’êtes pour la France ?

Philippe Lacoude : Je suis extrêmement pessimiste à propos de la France. Elle n’a pas d’avenir ni économique, ni démographique. La crise économique – qui provient d’une subvention étatique de la paresse et d’une imposition toujours plus forte du talent – engendre des flux migratoires de calamité sociétale vers l’intérieur et d’aptitude entrepreneuriale vers l’extérieur. Ceux qui se plaignent de l’immigration, sans aucunement se plaindre de cette émigration encore plus grave, n’ont généralement rien compris. Ils s’attaquent à un symptôme de l’Etat providence en faillite. Le pire est qu’ils sont usuellement ultra-socialistes de tous les bords extrêmes et favorisent donc de fait ce même Etat providence. Aucun pays ne peut supporter le poids de 30 à 40 pourcent d’oisifs, surtout quand le nombre des créateurs féconds s’amenuise. Les sémillants ministres en charge d’une agitation toujours plus volcanique n’y changeront rien.

Pour reprendre la désormais célèbre formule de HSeize Hashtable,

  « ce pays est f…u » ! 

La formule est bien sûr un raccourci facile : le pays n’a pas d’existence propre. Seuls les êtres humains existent. La « France » est un territoire où vit une culture bimillénaire qui peut d’ailleurs fort bien être exportée. La « France » survivra. En revanche, son Etat est « f…u » et sa chute entraînera de profonds conflits, sûrement internes, peut-être externes, vraisemblablement violents et probablement armés.

Pour ce qui est des Etats-Unis, je suis également pessimiste. Je pense qu’ils vont suivre une trajectoire sous-optimale pendant au moins trois ou quatre décennies : la direction sera la bonne mais le mouvement sera nonchalant. La crise fiscale est profonde : comme ailleurs, en Europe et au Japon, les retraites publiques par répartition et les soins médicaux étatiques sont en faillite complète. Cette faillite est masquée par l’emprunt, par la création de monnaie surnuméraire et par la tricherie comptable d’un Etat qui refuse obstinément de provisionner les dépenses futures comme une entreprise devrait le faire. Comme dirait François Hollande, « ça ne coûte rien, c’est l’Etat qui paie » mais, comme l’aurait ajouté Lady Thatcher, « l’ennui avec le socialisme, c’est que vous finissez par manquer de l’argent des autres ». Le remplacement de ces systèmes putréfiés va diminuer la croissance pour au moins une génération. Contrairement à l’Italie et au Japon, la démographie est moins délétère aux Etats-Unis et les modèles montrent que le trou budgétaire total représente environ 4 % de tous les revenus nationaux futurs actualisés. Ce chiffre est de près de 15 % dans le cas français selon mes calculs.

Trois évolutions géopolitiques majeures attendent les Etats-Unis.
Premièrement, le pays va devenir auto-suffisant énergétiquement : après des années de distribution généreuse de permis de forage sous George Bush, les nouveaux puits de pétrole produisent enfin, créant un désintérêt des élites pour les problèmes du Moyen-Orient. Les intérêts de l’oligarchie qui dirige les Etats-Unis vont donc se réaligner sur celle du peuple. C’est la fin de la doctrine Monroe étendue au Moyen-Orient.

La Chine a remplacé les Etats-Unis comme le plus gros client de l’Arabie Saoudite. Elle ne sera probablement pas aussi patiente que le Département d’Etat avec les financiers du wahhabisme. L’économie de l’Arabie Saoudite souffre de la révolution du gaz de schiste et de la fracturation hydraulique en Amérique du Nord : alors que les PIB américain et saoudien per capita étaient pratiquement les mêmes en 1974, le premier a plus que doublé pendant que le second baissait de plus de 12 %, en termes réels. Peu à peu, les saoudiens retournent sous la tente. Les attentats du 11 septembre 2001 – qui ont impliqué plus de Saoudiens que de citoyens de tout autre pays – correspondent à un point bas de la courbe du revenu par tête de ce pays. Le PIB par habitant des Emirats Arabes Unis suit un chemin encore plus dramatique, avec une division par trois et demi entre le second choc pétrolier et 2013. Les Américains n’auront plus autant besoin de leur présence militaire actuelle. Les Européens risquent de le découvrir à leurs dépens.

La deuxième évolution géopolitique majeure concerne l’épicentre de population. Entre la naissance du Christ et l’an mille, le barycentre de la population mondiale est resté à peu près au même endroit en Asie Mineure, avant de se déplacer très lentement vers l’Europe de l’Est au cours des 8 siècles suivants. Il n’a pas vraiment bougé jusqu’à 30 ans en arrière. Aujourd’hui, il est retourné en Asie Mineure et se déplace vers l’Est à la plus grande vitesse jamais enregistrée dans l’histoire de l’humanité. L’Europe n’est plus le centre démographique du monde.

Cette oscillation de la fertilité des peuples s’accompagne de notre troisième évolution géopolitique majeure : l’avènement de la révolution industrielle en Inde et en Chine. Alors que ces deux pays représentaient environ la moitié du PIB mondial de l’an 1 à 1820, ils ont peu à peu perdu du terrain sur l’occident (au sens large). En fait, leurs économies ont stagné pendant que l’Angleterre, l’Allemagne, la France, les Etats-Unis et le Japon se développaient. Cette ascension relative de l’Occident de 1820 à 1970 va faire place à un déclin relatif de l’Occident de 1970 à 2070. Ce déclin est inéluctable. Je pense qu’il précédera un déclin relatif combiné de l’Asie et de l’Occident au profit de l’Afrique d’ici la fin de ce siècle. Nous vivons au cœur du quart de millénaire le plus intéressant de l’histoire de l’humanité.

Les révolutions industrielles en Chine, puis en Inde, puis au Vietnam, un jour en Afrique présentent tous les travers de celles de l’Angleterre de Dickens et de la France de Zola. Un développement excessivement inégal des villes et des campagnes. Une corruption rampante généralisée, aussi importante chez les élites que chez les petits chefs locaux. Peu de considération pour la vie humaine et encore moins pour l’environnement. La qualité des produits chinois est à peu près la même que celles des fameux premiers câbles reçus par John A. Roebling pour la construction du Brooklyn Bridge : si ça passe un vague test visuel, le client serait bien inspiré de ne rien trouver à redire. Mais ne nous y trompons pas : un jour viendra rapidement où les produits « made in China » seront synonymes de qualité comme le sont devenus le « made in Japan » et le « made in Korea » de notre temps.

Les Etats-Unis vivent donc la fin de l’âge d’or de l’Occident. Chaque petite inflexion du graphique ci-dessus raconte un petit morceau de l’histoire du monde, du moins de l’histoire qui compte en monnaie sonnante et trébuchante. Mis à part durant la grande dépression, les Etats-Unis ont continuellement pris de l’ampleur dans le PIB mondial. La seconde guerre mondiale – avec le flot d’or massif vers les Etats-Unis – a placé ces derniers dans une situation de complète précellence. L’effondrement de l’ex-URSS, facilement notable, a renforcé cette hégémonie. Le graphique ci-dessus montre d’ailleurs fort bien les effets des deux guerres mondiales. Il n’y a pas besoin de lire les 970 pages d’élucubrations de Thomas Piketty où une théorie néo-marxiste de sous-préfecture de province est à la recherche de mesures d’inégalités de revenus plus ou moins fantaisistes. Tout est là en une image : les réserves mondiales d’épargne sont finalement pratiquement reconstituées après cent ans d’anomalies dues aux dizaines de millions de morts et de la destruction totale du capital physique à un point du globe.

L’Afrique sera le dernier continent à vivre sa révolution industrielle : selon mes estimations ci-dessus, utilisant un mélange de chiffres de la Banque Mondiale et de PricewaterhouseCoopers, le PIB du Nigéria surpassera celui de la France dans quelques décennies.

Nous sommes sur la fin d’un lent retour à la normale plurimillénaire où les hommes des différents points géographiques ont une structure du capital et des revenus moins disparates qu’en août 1945. Un impact géopolitique probable est que les Etats-Unis vont peu à peu perdre l’intérêt et surtout la capacité d’intervenir à tout va. Même si certains Américains confondent encore isolationnisme et non-interventionnisme en politique étrangère, ces deux philosophies gagnent du terrain politique.

Enfin, même si ce n’est pas tout-à-fait le sujet de votre question, j’attire l’attention sur le prix incommensurable du communisme : alors que les pays de l’ex-URSS voyaient leurs économies prendre une part croissante du PIB mondial entre 1820 et 1917 – la Russie tsariste rattrapait son retard technique –, la révolution d’Octobre y a mis fin. Un siècle et 30 millions d’assassinats étatiques plus tard, de l’Oural au Kamchatka, la reprise se fait vainement attendre.



Grégoire Canlorbe : Au-delà de la seule science économique, vous avez étudié les mathématiques et la logique formelle. Une position récurrente parmi les économistes Autrichiens consiste à définir la science économique comme une démarche exclusivement aprioriste à l’instar des mathématiques ou de la logique formelle. Selon cette méthodologie le raisonnement économique doit s’efforcer de tirer les implications directes et indirectes de la proposition jugée incontestable : « L’homme agit, i.e. mobilise certains moyens en vue de certaines fins ». Il n’est pas nécessaire de confronter à la réalité les propositions ainsi obtenues: si le raisonnement déductif est rigoureux, alors ses conclusions sont vraies a priori, c’est-à-dire qu’il n’est pas nécessaire de les confronter à la réalité pour établir qu’elles sont vraies.
Dans quelle mesure souscrivez-vous à l’apriorisme méthodologique de la plupart des Autrichiens ?

Philippe Lacoude : Pour Ludwig von Mises, l’essentiel de la théorie économique se compose des concepts a priori, un ensemble de propositions – comme vous, je ne vais pas utiliser le mot axiome qui m’a toujours dérangé chez Murray Rothbard – auxquelles on aboutit par contemplation ou par simple introspection. A partir de la proposition que l’action humaine a une fin, on peut déduire que la valeur subjective guide les choix humains, que l’utilité doit être marginalement décroissante, etc. Je ne vais pas refaire le raisonnement qui prend 20 pages dans « Human Action » de Ludwig von Mises ou dans « Praxeology » de Murray Rothbard. Le fait est qu’à partir d’un tout petit nombre de propositions, on peut logiquement déduire le reste de la science économique.

Je pense qu’on peut arriver aux mêmes conclusions par le biais de recherches empiriques. Il ne devrait pas y avoir de dichotomie épistémologique en la matière. Certains économistes expérimentalistes, je pense en particulier à Edward Chamberlin et à Vernon Smith, ont reconstruit empiriquement certaines des conclusions de Ludwig von Mises et je ne pense pas qu’ils soient arrivés à une quelconque conclusion contraire. Que d’efforts ! C’est un peu comme essayer toutes les formes possibles et conclure qu’effectivement, la roue, bien ronde, remplit au mieux l’office qu’on lui avait assigné.

Au moins deux ensembles de propositions couvrent deux domaines qui me semblent encore complètement échapper à l’« économie empirique » : la théorie de l’entrepreneur kirznérien et la théorie économique du cycle. Pour la seconde, je vois un certain nombre de travaux empiriques encourageants. Pour la première, j’ai bien peur qu’il ne sorte jamais rien d’approchant de l’école de Chicago.

Grégoire Canlorbe : Etant à la fois un mathématicien et un économiste, comment concevez-vous l’utilisation propre des mathématiques dans la science économique ?

Philippe Lacoude : Comme je viens de le souligner la logique s’applique automatiquement à la science économique comme l’un de ses fondements épistémologiques. Or la logique est une branche des mathématiques, probablement la plus importante. N’importe quel thésard en mathématiques fait au moins quelques pas en logique formelle.

Pour ce qui est du reste des mathématiques, je pense que les équations différentielles et les statistiques peuvent être utiles à la modélisation et à l’économie appliquée, respectivement. Les premières sont des métaphores qui permettent d’exprimer une idée en quelques caractères. Les secondes permettent de mesurer quantitativement une idée particulière. Je n’ai pas cette allergie qu’ont certains économistes autrichiens pour les mathématiques.

Ceci dit, je pense qu’il y a un certain nombre de réserves de circonstance.
La première est que lorsque l’on peut illustrer une idée simplement à l’aide de quelques données brutes, il n’y a pas lieu de construire un « modèle » à 25 équations. Prenons l’exemple des indices de liberté économique dans le monde, celui de la Heritage Foundation / Wall Street Journal ou celui du Cato Institute / Fraser Institute, peu importe. On peut tracer la courbe reliant les taux de croissance économique et les degrés de liberté économique. C’est un modèle. Plus la liberté économique est limitée, moins l’économie croît. Soit, on peut toujours faire une régression, trouver les coefficients. 

Ce n’est pas terriblement opératoire. En pratique, le modèle nous dit que la France – qui est à peu près 70ème dans le classement de la Heritage Foundation / Wall Street Journal – serait bien inspirée de libéraliser son économie. On voit aussi qu’elle était environ 35ème avant l’élection de Nicolas Sarkozy. Peut-être cette chute vertigineuse est une des causes des maux récents du pays ? Lorsqu’une idée est utile, le « modèle » est généralement simple : beaucoup d’universitaires obscurcissent volontairement leurs idées simples à l’aide de modèles complexes. Ceci me semble justement l’opposé de ce qu’il faudrait faire.

La deuxième remarque est que les bonnes analyses sont en général celles qui nous parlent des dérivées. Les phénomènes économiques et démographiques sont dynamiques. En pratique, toutes les belles histoires économiques sont celles qui nous parlent de la seconde dérivée : l’accélération ou la décélération des phénomènes. Les journalistes parlent des niveaux ; ils adorent les comparaisons internationales. 

Exemple : le pays X a 2741 crimes avec violence par millions d’habitants alors que le pays Y en a 1562. L’histoire utile est souvent que le taux de crimes avec violence a baissé de moitié en 20 ans au pays X – justement après la libéralisation du port d’armes – alors qu’il a doublé au pays Y – dans les années qui ont suivi son interdiction absolue. Première dérivée. Encore plus intéressant, la décroissance s’accélère au pays X alors que la croissance du taux de crimes avec violence s’accélère au pays Y. Deuxième dérivée. Ça s’est des sciences sociales ! Je vous laisse deviner quels sont les deux pays en question…

Le troisième écueil lié à l’usage des mathématiques est que, bien souvent, en France en particulier, les « économistes » apprennent les mathématiques avant d’apprendre la praxéologie. Au lieu d’avoir des données à la recherche de la bonne explication théorique, on obtient quelques centaines de pages de « théories » à la recherche de données, quitte à inventer ou fausser ces dernières. Je ne vise bien sûr personne…

Le quatrième et dernier péril lié à l’usage des mathématiques est qu’un mauvais modèle utilisé par la puissance publique est une catastrophe nationale. Prenons le modèle 2003 de la commission européenne, créé par Frank Smets et Rafael Wouters. C’est un modèle d’équilibre général dynamique stochastique, d’inspiration néo-keynésien (où les prix s’équilibrent avec retard), qui utilise les dernières techniques statistiques, en l’occurrence un modèle vectoriel à correction d’erreurs. D’un pur point de vue mathématique, ce modèle est un achèvement intellectuel majeur. Le bât blesse parce que représenter les choix de 500 millions d’humains avec 12 équations n’est bien évidemment que très approximatif et que si une décision était prise par la Banque Centrale Européenne avec un tel outil, il en résulterait au mieux une catastrophe de plusieurs milliards d’euros et au pire de plusieurs centaines de milliards d’euros.

Mes amis autrichiens s’arrêtent là. Les mathématiques sont clairement répudiées, non ? En fait, je ne pense pas du tout que ce soit une répudiation de l’usage des mathématiques en sciences sociales. Au contraire, je suis assez admiratif des travaux de Frank Smets et Rafael Wouters. Même approximatifs, les résultats sont impressionnants pour un si petit nombre de variables.

En revanche, ceci est une claire répudiation de l’usage des mathématiques par la puissance publique. Si un de mes clients me demande de faire des simulations à partir d’un tel modèle, il prend le risque que son concurrent prenne une meilleure décision à partir d’une autre représentation nécessairement approchante et arbitraire du monde.

Je note au passage que les « bons » modèles donnent tous une prévision sous forme de distribution statistique du futur. A un moment donné, quelqu’un doit prendre une décision « pointwise » (comme disent les anglo-saxons) à partir d’une densité. Cette décision humaine est à la modélisation économique ce que la décohérence est à la physique quantique : on choisit un état particulier, on fait un pari sur l’avenir. L’acteur qui fait ce pari doit en subir les conséquences financières pratiques, éventuellement la faillite. Le fonctionnaire de la banque centrale ne peut pas le faire de façon socialement satisfaisante.

La solution à ce problème est fort simple : au lieu de jeter les modèles mathématiques avec les fonctionnaires qui les ont créés, il suffit de les utiliser dans le cadre de la concurrence. Ceci est pratique courante en finance depuis au moins 30 ans et dans le marketing de masse sur l’Internet depuis quelques années. Si un modèle est mauvais, il existera une niche, un pur profit kirznérien à saisir. Toutes les critiques sur la modélisation – la critique autrichienne sur l’usage des mathématiques, la critique sur les problèmes liés à la linéarité de la majorité d’entre eux, les problèmes d’asymétrie ou de kurtosis – sont intéressantes mais n’invalident pas l’utilité des modèles.
Je suis en revanche d’accord sur l’idée que la théorie ne supplante pas la pratique. L’économie théorique devrait être apprise avant l’économie appliquée. Science mathématique sans conscience économique n’est que ruine de l’âme.


Grégoire Canlorbe : Notre entretien touche à sa fin. Aimeriez-vous ajouter quelques mots ?

Philippe Lacoude : Nous sommes à un tournant historique.

Il a fallu deux siècles pour que les idées de John Locke permettent de libérer l’individu d’autorités religieuses étatiques. Les révolutions américaine et française ont marqué le début de la séparation de l’Eglise et de l’Etat. Nous vivons régulièrement quelques soubresauts réactionnaires à ce qui est devenu un état de fait mais nous avons gagné ce combat.

Il a fallu deux siècles pour que le plaidoyer d’Adam Smith, de Frédéric Bastiat et de Richard Cobden en faveur de la liberté commerciale gagne presque tous les points du globe. Certes, il existe quelques protectionnistes ici et là qui mènent un combat d’arrière-garde mais ils ont perdu la bataille des idées.

Il n’a fallu que soixante-dix ans pour détruire l’idée que l’on puisse allouer les ressources à l’échelle d’un pays de façon centralisée. Notons que le brillant Henri Guaino, sous-conseiller un peu spécial de Nicolas Sarkozy à des tâches indéfinies, est le dernier « Commissaire Général au Plan » de la planète, voire de notre galaxie, depuis la dissolution du Gosplan soviétique en avril 1991. Certains pensent que le débat entre Ludwig von Mises et Oskar Lange sur la possibilité du calcul économique en système socialiste a été adjugé en faveur du premier le jour où le mur de Berlin est tombé. C’est bien sûr complètement faux : Ludwig von Mises a gagné ce débat lorsque la première pierre du mur de la honte a été posée.

Le clou suivant planté dans le cercueil du statocratisme sous toutes ses formes va venir de l’effondrement de l’Etat-providence. La démographie, le niveau des dettes et la technologie interdisent que ce système perdure beaucoup plus longtemps. Ludwig von Mises, Milton Friedman et Friedrich Hayek ont détruit ses fondements économiques. Leurs disciples en ont détruit les thèses empiriques. Ayn Rand a démontré et brillamment popularisé son caractère immoral. Un peu partout, nous pouvons observer la radicalisation de ceux qui ont compris ceci. Ils ne rencontrent plus aucun argument sérieux de la part de leurs détracteurs. Ces derniers recourent aux images d’Epinal : le système est bon car le « monde entier nous l’envie ». C’est exactement la même défense rhétorique qui était utilisée par les maîtres de l’URSS. Avec les succès que l’on connaît.

Les derniers défenseurs de l’Etat-providence utilisent des mots destinés à culpabiliser leurs ennemis. Les socialistes français parlent du « vivre ensemble ». Ils prônent la « société multiculturelle ». Barack Obama nous explique que la « gentillesse nous unit ». François Hollande « rend hommage » à la « culture communiste ». Il n’y a rien derrière ces clichés. Ils sont complètement incapables d’expliquer comment leur système en faillite va produire les services médiocres qu’ils font payer à prix d’or. Ils ne se rendent pas du tout compte que l’on « vit ensemble dans une société multiculturelle » de façon bien plus satisfaisante dans une civilisation libérale que dans le machin qu’ils défendent. Les statocrates ne réalisent jamais que les libéraux sont justement motivés par la recherche de la vraie justice sociale. Le fait que les statocrates n’aient aucune idée de ce que pensent les libéraux est un signe encourageant. Je ne rencontre plus un seul gauchiste qui ait lu John Rawls et ils sont tout autant d’incompétents marxistes. Ils passent leur temps à reformuler les mêmes idées éculées sous une forme obscurément différente et sont tout surpris de perdre débat intellectuel après débat intellectuel : comme disent les Américains, 

« you put lipstick on a pig, it’s still a pig ».

La faillite économique d’un système lorsqu’elle s’accompagne de la faillite intellectuelle de ses thuriféraires est généralement le prélude à sa disparition.

Vive la liberté !

Je vous remercie pour cet entretien.

Philippe Lacoude interviewé par Grégoire Canlorbe
Diffusé aussi sur l'Institut Coppet, ...



 Aussi au sein du livre:

Leçons de politique budgétaire

 Par Bernard Landais
en rapport avec son étude empirique de l'effet Laffer en France année 80, ref: RFE de 1995


 Référence de ses livres:

003833917 : Action ou taxation : le défi fiscal français / Philippe Lacoude, Frédéric Sautet ; avec la collab. de Henri Lepage, Philippe Nataf, Véronique de Rugy... [et al.] ; préf. de Jacques Raiman / Paris : Ed. Slatkine , 1996

053651359 : INCIDENCE DE L'EVOLUTION DES PRELEVEMENTS OBLIGATOIRES SUR LES RECETTES FISCALES EN FRANCE [Texte imprimé] / PHILIPPE LACOUDE / [S.l.] : [s.n.] , 1998



L’arbitraire fiscal au sein du livre

L'Homme libre

Mélanges en l'honneur de Pascal Salin

Lacoude, Philippe, Engagements pour la réforme fiscale







Laffer de mon hôte Philippe LACOUDE 






Mieux qu'un renflouement

Mieux qu'un renflouement

Quatre étapes décideurs pourraient prendre pour aider les marchés financiers
Que devrait faire le gouvernement fédéral aurait fait à la place du plan de sauvetage $ 700000000000 signé dans la loi par le président George W. Bush? Voici quatre étapes de bon sens qui ne comportent pas la nationalisation partielle de l'industrie de la finance:
1) Augmenter le ratio de fonds propres pour government sponsored enterprises et d'autres banques d'investissement au moins le niveau imposé sur les banques commerciales, un solde de trésorerie de généralement 8 pour cent de la valeur de marché des actifs négociables de chaque entreprise pesé le risque de chaque actif. Dans un système de banque libre, il n'y a pas besoin d'artificiels, one-size-fits-all règles Securities and Exchange Commission. Dans un tel système, le montant de capital en main devrait être laissée aux banques elles-mêmes plutôt que les organismes de réglementation gouvernementaux. Malheureusement, nous ne sommes pas dans un système de banque libre. Nous avons une banque centrale, un prêteur de dernier ressort, et non seulement elle ne garantit implicitement les pertes de certaines banques, mais il ne les laisserons pas passer sous quand ils font des erreurs, ce qui crée certaines mauvaises pratiques de prêt.
Dans ce contexte, l'élévation du niveau de réserve obligerait les institutions à avoir suffisamment de capital pour faire face à une augmentation soudaine de leurs taux de défaut au cours de resserrement du crédit. La loi de sauvetage ne fait rien pour répondre à cette question.
2) accroître les gains en capital et les dividendes réduction d'impôt après 2010, quand il arrive à échéance en vertu du droit actuel. Cela porterait le taux de rendement des actifs financiers à peu de frais pour le Trésor et donner une forte incitation pour les contribuables de rester ou de revenir sur le marché.
3) Lever toutes les cotisations et d'admissibilité limites Roth IRA pour le reste de 2008. Parce que les contributions Roth IRA ne sont pas déductibles d'impôt, cette mesure n'a pas de coût immédiat pour le Trésor, mais il serait probablement injecter des milliards de dollars dans un marché tendu.
Ces mesures simples auraient permis au marché de poursuivre la réorganisation de son secteur financier à absolument aucun coût pour les contribuables. Cela étant dit, si le président et le Congrès ont été Dead Set sur l'injection directe de liquidités dans le système bancaire, ils pourraient même avoir fait d'une manière qui aurait exposé les contribuables à beaucoup moins d'incertitude:
4) Si le Congrès est absolument déterminé à passer de $ 700 000 000 000 le plan de sauvetage, il doit envoyer des chèques d'une valeur de $ 3600 pour les 191 millions de contribuables américains à la place. Ces contrôles devraient alors être déposés dans un certain type de compte de retraite immobilisé ou être soumis à des règles de distribution de l'IRA prématurés de l'Internal Revenue Service. Les personnes les plus averses au risque pourraient investir cette manne dans des fonds du marché monétaire relativement sûrs, empêchant ainsi la crise du crédit prévu par les experts. Certains acheter des instruments tels que les fonds communs de placement, lesquels pourraient être fondées sur le marché. Investisseurs avertis, ou du moins ceux avec un seuil élevé de risque, profiteraient de la faiblesse des prix sur Wall Street pour acheter des actions dans les banques en difficulté.
Une telle mesure aurait un grand succès auprès d'un électorat qui ne font pas confiance aux politiciens et technocrates mêmes qui pendant des années ignoré les signes avant-coureurs d'une crise du logement imminente. Et il l'aurait fait sans socialiser un gros morceau de Wall Street, une intervention risquée et sans précédent sur les marchés dont les effets complets ne seront pas clair pour de nombreuses années à venir.
Philippe Lacoude est le président de la société de conseil Algokian. Collaborateur à la rédaction Véronique de Rugy est un chercheur principal au Centre Mercatus à l'université George Mason. Cette colonne est apparu au Reason.com.
- See more at: http://translate.googleusercontent.com/translate_c?depth=1&hl=fr&prev=search&rurl=translate.google.fr&sl=en&u=http://reason.org/news/show/better-than-a-bailout&usg=ALkJrhj0kr8U-bJU3V-RGcF-xvLFpSn9dg#sthash.0vNY4slR.dpuf

Mieux qu'un renflouement

Quatre étapes décideurs pourraient prendre pour aider les marchés financiers
Que devrait faire le gouvernement fédéral aurait fait à la place du plan de sauvetage $ 700000000000 signé dans la loi par le président George W. Bush? Voici quatre étapes de bon sens qui ne comportent pas la nationalisation partielle de l'industrie de la finance:
1) Augmenter le ratio de fonds propres pour government sponsored enterprises et d'autres banques d'investissement au moins le niveau imposé sur les banques commerciales, un solde de trésorerie de généralement 8 pour cent de la valeur de marché des actifs négociables de chaque entreprise pesé le risque de chaque actif. Dans un système de banque libre, il n'y a pas besoin d'artificiels, one-size-fits-all règles Securities and Exchange Commission. Dans un tel système, le montant de capital en main devrait être laissée aux banques elles-mêmes plutôt que les organismes de réglementation gouvernementaux. Malheureusement, nous ne sommes pas dans un système de banque libre. Nous avons une banque centrale, un prêteur de dernier ressort, et non seulement elle ne garantit implicitement les pertes de certaines banques, mais il ne les laisserons pas passer sous quand ils font des erreurs, ce qui crée certaines mauvaises pratiques de prêt.
Dans ce contexte, l'élévation du niveau de réserve obligerait les institutions à avoir suffisamment de capital pour faire face à une augmentation soudaine de leurs taux de défaut au cours de resserrement du crédit. La loi de sauvetage ne fait rien pour répondre à cette question.
2) accroître les gains en capital et les dividendes réduction d'impôt après 2010, quand il arrive à échéance en vertu du droit actuel. Cela porterait le taux de rendement des actifs financiers à peu de frais pour le Trésor et donner une forte incitation pour les contribuables de rester ou de revenir sur le marché.
3) Lever toutes les cotisations et d'admissibilité limites Roth IRA pour le reste de 2008. Parce que les contributions Roth IRA ne sont pas déductibles d'impôt, cette mesure n'a pas de coût immédiat pour le Trésor, mais il serait probablement injecter des milliards de dollars dans un marché tendu.
Ces mesures simples auraient permis au marché de poursuivre la réorganisation de son secteur financier à absolument aucun coût pour les contribuables. Cela étant dit, si le président et le Congrès ont été Dead Set sur l'injection directe de liquidités dans le système bancaire, ils pourraient même avoir fait d'une manière qui aurait exposé les contribuables à beaucoup moins d'incertitude:
4) Si le Congrès est absolument déterminé à passer de $ 700 000 000 000 le plan de sauvetage, il doit envoyer des chèques d'une valeur de $ 3600 pour les 191 millions de contribuables américains à la place. Ces contrôles devraient alors être déposés dans un certain type de compte de retraite immobilisé ou être soumis à des règles de distribution de l'IRA prématurés de l'Internal Revenue Service. Les personnes les plus averses au risque pourraient investir cette manne dans des fonds du marché monétaire relativement sûrs, empêchant ainsi la crise du crédit prévu par les experts. Certains acheter des instruments tels que les fonds communs de placement, lesquels pourraient être fondées sur le marché. Investisseurs avertis, ou du moins ceux avec un seuil élevé de risque, profiteraient de la faiblesse des prix sur Wall Street pour acheter des actions dans les banques en difficulté.
Une telle mesure aurait un grand succès auprès d'un électorat qui ne font pas confiance aux politiciens et technocrates mêmes qui pendant des années ignoré les signes avant-coureurs d'une crise du logement imminente. Et il l'aurait fait sans socialiser un gros morceau de Wall Street, une intervention risquée et sans précédent sur les marchés dont les effets complets ne seront pas clair pour de nombreuses années à venir.
Philippe Lacoude est le président de la société de conseil Algokian. Collaborateur à la rédaction Véronique de Rugy est un chercheur principal au Centre Mercatus à l'université George Mason. Cette colonne est apparu au Reason.com.
- See more at: http://translate.googleusercontent.com/translate_c?depth=1&hl=fr&prev=search&rurl=translate.google.fr&sl=en&u=http://reason.org/news/show/better-than-a-bailout&usg=ALkJrhj0kr8U-bJU3V-RGcF-xvLFpSn9dg#sthash.0vNY4slR.dpuf

Mieux qu'un renflouement

Quatre étapes décideurs pourraient prendre pour aider les marchés financiers
Que devrait faire le gouvernement fédéral aurait fait à la place du plan de sauvetage $ 700000000000 signé dans la loi par le président George W. Bush? Voici quatre étapes de bon sens qui ne comportent pas la nationalisation partielle de l'industrie de la finance:
1) Augmenter le ratio de fonds propres pour government sponsored enterprises et d'autres banques d'investissement au moins le niveau imposé sur les banques commerciales, un solde de trésorerie de généralement 8 pour cent de la valeur de marché des actifs négociables de chaque entreprise pesé le risque de chaque actif. Dans un système de banque libre, il n'y a pas besoin d'artificiels, one-size-fits-all règles Securities and Exchange Commission. Dans un tel système, le montant de capital en main devrait être laissée aux banques elles-mêmes plutôt que les organismes de réglementation gouvernementaux. Malheureusement, nous ne sommes pas dans un système de banque libre. Nous avons une banque centrale, un prêteur de dernier ressort, et non seulement elle ne garantit implicitement les pertes de certaines banques, mais il ne les laisserons pas passer sous quand ils font des erreurs, ce qui crée certaines mauvaises pratiques de prêt.
Dans ce contexte, l'élévation du niveau de réserve obligerait les institutions à avoir suffisamment de capital pour faire face à une augmentation soudaine de leurs taux de défaut au cours de resserrement du crédit. La loi de sauvetage ne fait rien pour répondre à cette question.
2) accroître les gains en capital et les dividendes réduction d'impôt après 2010, quand il arrive à échéance en vertu du droit actuel. Cela porterait le taux de rendement des actifs financiers à peu de frais pour le Trésor et donner une forte incitation pour les contribuables de rester ou de revenir sur le marché.
3) Lever toutes les cotisations et d'admissibilité limites Roth IRA pour le reste de 2008. Parce que les contributions Roth IRA ne sont pas déductibles d'impôt, cette mesure n'a pas de coût immédiat pour le Trésor, mais il serait probablement injecter des milliards de dollars dans un marché tendu.
Ces mesures simples auraient permis au marché de poursuivre la réorganisation de son secteur financier à absolument aucun coût pour les contribuables. Cela étant dit, si le président et le Congrès ont été Dead Set sur l'injection directe de liquidités dans le système bancaire, ils pourraient même avoir fait d'une manière qui aurait exposé les contribuables à beaucoup moins d'incertitude:
4) Si le Congrès est absolument déterminé à passer de $ 700 000 000 000 le plan de sauvetage, il doit envoyer des chèques d'une valeur de $ 3600 pour les 191 millions de contribuables américains à la place. Ces contrôles devraient alors être déposés dans un certain type de compte de retraite immobilisé ou être soumis à des règles de distribution de l'IRA prématurés de l'Internal Revenue Service. Les personnes les plus averses au risque pourraient investir cette manne dans des fonds du marché monétaire relativement sûrs, empêchant ainsi la crise du crédit prévu par les experts. Certains acheter des instruments tels que les fonds communs de placement, lesquels pourraient être fondées sur le marché. Investisseurs avertis, ou du moins ceux avec un seuil élevé de risque, profiteraient de la faiblesse des prix sur Wall Street pour acheter des actions dans les banques en difficulté.
Une telle mesure aurait un grand succès auprès d'un électorat qui ne font pas confiance aux politiciens et technocrates mêmes qui pendant des années ignoré les signes avant-coureurs d'une crise du logement imminente. Et il l'aurait fait sans socialiser un gros morceau de Wall Street, une intervention risquée et sans précédent sur les marchés dont les effets complets ne seront pas clair pour de nombreuses années à venir.
Philippe Lacoude est le président de la société de conseil Algokian. Collaborateur à la rédaction Véronique de Rugy est un chercheur principal au Centre Mercatus à l'université George Mason. Cette colonne est apparu au Reason.com.
- See more at: http://translate.googleusercontent.com/translate_c?depth=1&hl=fr&prev=search&rurl=translate.google.fr&sl=en&u=http://reason.org/news/show/better-than-a-bailout&usg=ALkJrhj0kr8U-bJU3V-RGcF-xvLFpSn9dg#sthash.0vNY4slR.dpuf

novembre 14, 2014

Un budget France insuffisant pour une priorité, la cyber-sécurité !!

L'Université Liberté, vous convie à lire ce nouveau message. Des commentaires seraient souhaitables, notamment sur les posts référencés: à débattre, réflexions...Merci de vos lectures, et de vos analyses.



Grande cause nationale, le déploiement des politiques de cyber-sécurité se heurte au manque de moyens des ministères. Un indicateur du gouvernement montre clairement le retard pris en la matière. Les annexes au projet de loi de finances pour 2015, qu’a publiées récemment le gouvernement (lire à partir de la page 30), font ressortir le dilemme dans lequel se trouve plongée l’Anssi (Agence nationale de la sécurité des systèmes d’information) : si elle bénéficie d’efforts budgétaires importants – reflétant la volonté de la France de faire de la cyber-défense une priorité nationale -, la mise en œuvre de sa politique se heurte, dans les ministères, au manque de moyens de ces derniers. Dans un document répertoriant l’avancée de différents projets portant sur la performance de l’administration, le gouvernement livre l’évolution d’un indicateur mesurant la maturité globale des différents ministères en matière de cyber-sécurité. Le constat est sans appel : alors que l’Etat prévoyait de parvenir à une note de 3,8 sur 5 en 2014, il n’a atteint que 3,4. Désormais, le gouvernement espère parvenir à un indice de 3,6 en 2017, à comparer à 3,1 en 2013. 

Un critère qui passe après les coûts
Cet indicateur, calculé sur la base d’un guide méthodologique et d’un questionnaire établis par l‘ANSSI en collaboration avec les RSSI ministériels, reste à un niveau « insuffisant », reconnaît le gouvernement. En cause selon ce dernier: «l’insuffisance de ressources financières et humaines dans les ministères, l’évolution de la menace, l’ouverture des systèmes d’information (utilisateurs extérieurs à l’administration, nomadisme, ...) et le fait que le critère de la sécurité passe généralement loin derrière ceux des coûts et de la facilité d’usage dans les investissements ou dans l’affectation de ressources humaines ». D’où une projection assez prudente de l’évolution de cet indicateur d’ici à 2017. « Selon le degré de prise en compte de la cyber-défense dans les ministères, cette cible pourra être dépassée ou au contraire non atteinte », précise le document. Traduction en langage clair : l’Anssi est aujourd’hui dans le brouillard quant à la prise en compte réelle de la « priorité nationale » au sein des ministères. nEt ce même si tout n’est pas forcément noir. Les responsables de la sécurité informatique au sein des ministères signalent ainsi l’accroissement des homologations de systèmes ou la mise en œuvre de plus en plus fréquente de plans de continuité et de reprise d’activité (PCA et PRA). Le retard pris par les ministères s’affiche également dans un autre indicateur, suivant le niveau d’avancement des grands projets interministériels en matière de sécurité des systèmes d’information. Même s’il faut considérer cet indice avec des pincettes, puisque ce dernier vient d’être réévalué pour tenir compte de l’accroissement des besoins, lié notamment à l’évolution des cyber-menaces. Les grands projets ministériels (raccordement des passerelles au centre gouvernemental de détection des attaques informatiques, déploiement des systèmes d’information sécurisés comme le réseau téléphonique Rimbaud ou l’intranet Isis, utilisation des produits certifiés Anssi) doivent être achevés à 81 % en fin d’année. Le gouvernement s’est fixé pour objectif de parvenir à 85 % l’année prochaine. Et à 89 % en 2017. Si l’Anssi doit donc composer avec les autres priorités ministérielles – à commencer par les réductions de budget -, l’agence elle-même bénéficie d’investissements importants. Elle représente plus de la moitié des budgets de personnel et des efforts d’investissement gérés par le SGDSN (secrétariat général de la défense et de la sécurité nationale), auquel elle est rattachée. Une proportion appelée à encore augmenter, explique le gouvernement.

Par Reynald Fléchaux
Silicon

Cyber-sécurité : une priorité nationale...qui se heurte à la réalité budgétaire

MESSAGE DU MINISTRE DE LA DÉFENSE - L'Etat français nouveau "gendarme du monde" ?

L'Université Liberté, vous convie à lire ce nouveau message. Des commentaires seraient souhaitables, notamment sur les posts référencés: à débattre, réflexions...Merci de vos lectures, et de vos analyses.



MINISTÈRE DE LA DÉFENSE
 
MESSAGE DU MINISTRE DE LA DÉFENSE
Paris, le mercredi 12 novembre 2014,

Les opérations extérieures de nos armées sont un investissement de la Nation pour sa sécurité, la défense de ses valeurs et de ses responsabilités dans le monde 

Hier, 11 novembre 2014, le nom des sept militaires morts en opérations extérieures pendant l’année écoulée a retenti au pied de l’Arc de Triomphe. A l’occasion de cette cérémonie émouvante, la Nation s’est remémorée les combats meurtriers de la première guerre mondiale et a rendu hommage à ceux de nos soldats qui ont fait le sacrifice de leur vie ces derniers mois pour garantir notre sécurité et défendre nos valeurs. 

Je mesure chaque jour l’engagement de nos armées. Les Français en connaissent la valeur. Nos militaires interviennent sur plusieurs théâtres de crise dans le monde. Ces opérations extérieures des armées françaises font l’objet d’une dotation budgétaire annuelle fixée à 450 millions d’euros dans la loi de programmation militaire 2014-2019. Ministre de la Défense, je suis le garant de l’exécution de cette loi. Cette enveloppe, imputée à la mission Défense du budget de l’État, correspond aux déploiements de nos armées hors du territoire national, sur le continent africain, dans le golfe Persique, au Liban ou encore au large de la Corne de l’Afrique. 



D’autres engagements extérieurs, par nature imprévisibles, marquent ces douze derniers mois. 

Dès le 5 décembre 2013, la France s’est engagée en Centrafrique pour empêcher les massacres de masse et les confrontations intercommunautaires. Grâce à notre intervention rapide, une force internationale composée de près de 8 500 soldats et policiers ainsi qu’une force européenne de 700 soldats ont pu se déployer pour stabiliser et sécuriser le pays. C’est l’honneur de la France. 

En 2014, le Président de la République a souhaité que nos armées se maintiennent au Mali en plus grand nombre que prévu pour accompagner le processus politique malien. Elles ont ainsi permis le déroulement sans encombre de l’élection présidentielle et, cette année, des élections législatives sur l’ensemble du territoire malien. La France a fait évoluer son déploiement au Sahel-Sahara pour organiser la lutte contre les groupes armés terroristes. L’opération appelée Barkhane a pris le relais de l’opération Serval, destinée à libérer le Mali de cette menace majeure pour la survie de l’État malien. Ce qui se joue au cœur de l’Afrique, c’est la sécurité de la France. 

En 2014, le Président de la République a engagé nos forces en Irak pour lutter contre le fanatisme destructeur et meurtrier du groupe terroriste appelé « état islamique ». Aux côtés de nos alliés arabes et occidentaux, nos militaires renseignent les troupes irakiennes et kurdes et frappent des cibles ennemies. C’est la responsabilité de la France. 

Ces engagements représentent une dépense nette supérieure de 605 millions d’euros à la dotation inscrite à l’automne 2013 dans le budget 2014 de la Défense. D’une part, 450 millions d’euros ont été inscrits dans le budget dont j’ai la charge, en stricte conformité avec la loi de programmation militaire. D’une autre, la dépense supplémentaire de la France pour sa sécurité et la défense de ses valeurs se voit intégralement compensée par le budget général de l’État, là aussi, comme le prévoit la loi de programmation militaire en son article 4. 


Ce montant de 605 millions d’euros sera intégralement ouvert par décret d’avance sur le programme « Préparation et emploi des forces » qui a supporté cette dépense, dans le cadre du schéma de fin de gestion 2014 prochainement examiné par le Parlement. 

Chacun connaît les périls qui menacent la paix et notre sécurité. Les Français consentent chaque année un investissement important, 31,4 milliards d’euros, au profit de la Défense nationale. Mon ministère délivre régulièrement les informations opérationnelles et politiques nécessaires à l’appréciation de l’effort engagé par nos forces. 

Notre implication militaire sur plusieurs théâtres ne nous exonère évidemment pas d’un examen rigoureux de leur financement. Que celui-ci se fasse dans un esprit constructif, serein, conscient de l’urgence qui détermine souvent l’engagement de nos soldats à plusieurs milliers de kilomètres de nos terres. 

Jean-Yves Le Drian, ministre de la Défense. 




L'histoire  secrète  du  méga-contrat d'armement français au Liban

par Vincent LAMIGEON

La France va livrer à l'armée libanaise pour 2,4 milliards d'armement, soit l'équivalent d'un tiers de ses exportations annuelles. Un contrat financé par l'Arabie saoudite et regardé de près par Israël.  Cette  fois,  c'est  signé.  Le  ministère  saoudien  des  finances  et  la  société  française d'exportation d'armement ODAS ont paraphé mardi 4 novembre l'énorme contrat de livraisons d'armements  français  au  Liban,  un  accord  destiné  à  renforcer  les  forces  libanaises  face  au risque de contagion de la crise syrienne. 

Les premiers équipements seront livrés dès le premier trimestre  2015.  Les  dernières,  celles  des hélicoptères,  auront lieu  fin 2018.  Le  contrat  prévoit notamment la vente de véhicules de l'avant blindés (VAB) MkIII et des véhicules blindés légers (VBL) de Renault Trucks Défense, des navires patrouilleurs de CMN, des missiles Mistral, des canons  Caesar,  des  hélicoptères  Gazelle  et  Cougar,  mais  aussi  des  drones  tactiques,  très probablement les SDTI de Sagem.

Un financement saoudien
Original, ce contrat l'est à plusieurs titres. Par sa taille, d'abord : avec 3 milliards de dollars (2,4 milliards  d'euros),  il  représente  à  lui  seul  un  tiers  des  exportations  d'armement  annuelles françaises  (6,9  milliards  d'euros  en  2013).  Mais  c'est  surtout le  caractère  tripartite  de l'accord qui  le  rend  unique  :  c'est  bien  l'Arabie  saoudite,  soucieuse  de  renforcer  les  forces  libanaises face  à  Daesh  mais  aussi  face  au  Hezbollah,  qui  finance  leur  modernisation  avec  des équipements français.

L'accord, forcément complexe, a été long à se dessiner. "Les Saoudiens ont mis des exigences claires : ils ne voulaient pas de déperdition d'argent, et ont insisté pour que la France assure la formation opérationnelle des forces libanaises, au-delà de la formation technique effectuée par les industriels", explique-t-on de source proche du dossier. En intégrant la formation et le soutien, l'accord implique ainsi la France sur une dizaine d'années.

Une véritable course contre la montre
La  signature  de  l'accord  est  l'épilogue  -même si  les  derniers  ajustements  techniques  doivent être réglés dans les trente jours – d'une négociation de presque un an. L'idée d'un renforcement de l'armée libanaise émerge en octobre 2013, lors d'un entretien entre le roi Abdallah d'Arabie Saoudite  et  le  ministre  de  la  défense  Jean-Yves  Le  Drian.  Deux  mois  plus  tard,  la  décision formelle de ce contrat tripartite est prise lors de la visite de François Hollande à Riyad : l'Arabie saoudite  financera  un  colossal  plan  de  modernisation  de  l'armée  libanaise  de  3  milliards  de dollars. La France fournira les équipements et la formation. C'est le début d'une véritable course contre  la  montre. 

 Définie  en  partant  d'un  plan  d'équipement  publié  par  l'armée  libanaise  de 2013, la liste de matériels prend peu à peu forme entre février et mars 2014. Blindés, artillerie lourde, moyens anti-chars, patrouilleurs, hélicoptères de transport et de combat, systèmes de commandement  et  de  communication...  Les  débats  font  rage  entre  les  partenaires,  le  chef d'état-major  de  l'armée  libanaise  Jean  Kahwaji  faisant  régulièrement  part  de  son  impatience. 

Des intermédiaires locaux tentent de s'inviter à la table des négociations, sans succès. En avril, la "shopping list" est enfin validée à Riyad.

Les Israéliens très attentifs à l'arsenal livré
L'interface  avec  les  industriels  est  toute  trouvée  :  l'organisme  ODAS,  codétenu  par  l'État français  et  les  industriels  de  la  défense,  créé  à  l'origine  pour  représenter  la  France  dans  les grandes ventes d'armes en Arabie Saoudite. Dirigé par l'ancien chef d'état-major des armées, l'amiral  Edouard  Guillaud, ODAS se  charge  de  conduire  l'opération,  avec  des  appels  d'offres express  adressés  aux  industriels.  

En  un  mois,  une  vingtaine  de  sociétés  sont  sélectionnées.
Reste  à obtenir l'aval  du  ministère  des  finances  saoudien  : l'accord  est  trouvé  en  juillet,  juste avant la grande coupure du Ramadan. Si le montant de 3 milliards est confirmé, sur demande expresse saoudienne, l'armée française sera mise à contribution, aux frais de la France, pour la formation  opérationnelle  de  son  homologue  libanaise.  En  coulisses,  les  tractations  se succèdent.  L'Iran,  soutien  du  Hezbollah  libanais,  suit  avec  attention  l'avancée  du  processus. Israël regarde aussi avec inquiétude les négociations franco-saoudo-libanaises, pressant Paris de limiter la liste des équipements français transférés, notamment les missiles, craignant qu'ils puissent être récupérés par le Hezbollah. «"Israël est un pays ami de la France, ses questions sont légitimes, mais cela n'a modifié en rien le projet", assure une source proche du ministère de la défense. Après des semaines de doutes, le contrat est finalement signé le 4 novembre à Riyad entre l'Arabie Saoudite et ODAS, en présence du chef d'état-major de l'armée libanaise. Les premières livraisons concerneront des véhicules terrestres d'occasion de l'armée française, dès le premier trimestre 2015.

 
 

novembre 13, 2014

Rapport d'octobre 2014 sur les finances publiques locales

L'Université Liberté, vous convie à lire ce nouveau message. Des commentaires seraient souhaitables, notamment sur les posts référencés: à débattre, réflexions...Merci de vos lectures, et de vos analyses.


Voici ici la présentation de ce rapport comme sa conclusion. En ce qui concerne le détail du rapport comme les différentes réactions, décisions des présidents locaux, voire leurs non-participations respectives cliquez le lien: Télécharger
 
Pour la deuxième année consécutive, la Cour des comptes présente un rapport public consacré aux finances publiques locales. Fruit d’un travail commun de la Cour et des chambres régionales des comptes, ce rapport vise à analyser la situation financière des collectivités territoriales et des établissements publics de coopération intercommunale (EPCI) ainsi que les enjeux qui s’y attachent. 

Chaque année, la Cour publie des rapports sur la gestion du budget de l’État, sur la sécurité sociale et sur la situation et les perspectives des finances publiques prises dans leur ensemble. La publication en outre d’un rapport annuel spécifique sur les finances publiques locales se justifie pleinement au regard de leur importance. 

Selon les données de la comptabilité nationale, les dépenses des administrations publiques locales (APUL)1 se sont élevées à 252 Md€ en 2013, soit 21 % des dépenses des administrations publiques alors que celles des administrations centrales (principalement l’État) en ont représenté 32 %, et celles des administrations sociales 47 %.

1 Le champ des administrations publiques locales (APUL) est constitué à 90 % des collectivités territoriales (communes, départements, régions) et des groupements de communes à fiscalité propre (communautés urbaines, communautés d’agglomération, communautés de communes). Cependant, il inclut aussi les syndicats intercommunaux et les syndicats mixtes chargés de services administratifs. Il s’y ajoute également des organismes divers d’administration locale (ODAL), correspondant à diverses catégories d’organismes à compétence spécialisée sur le territoire d’une commune ou d’un département, et aux chambres consulaires. Les APUL ne couvrent pas la totalité du secteur public local : celui-ci comprend en outre des organismes classés en sociétés non financières, tels que les régies à autonomie financière et dotées de la personnalité morale, les syndicats intercommunaux relevant du secteur marchand, les offices publics de l’habitat (ex-offices publics d’aménagement et de construction et offices publics d’habitations à loyer modéré) ou encore les caisses de crédit municipal.


Poids respectif des dépenses des administrations publiques

Administrations publiques locales 21 %
Administrations sociales 47 %
Administration centrale (principalement État) 32 %
 
À la différence de l’État et des organismes de sécurité sociale, les collectivités locales ne peuvent recourir à l’emprunt que pour financer leurs investissements et non leurs dépenses de fonctionnement. La dette locale (182,3 Md€ en 2013) représente 9,5 % de la dette totale des administrations publiques, constituée en outre de celle des administrations centrales dont principalement l’État (79,5 %), et de la sécurité sociale (11 %). 

Poids respectif de la dette des administrations publiques
 
Administrations sociales 11 %
Administrations publiques locales 9,5 % 
Administration centrale (principalement État) 79,5 % 

Les transferts financiers annuels de l’État aux collectivités territoriales dépassent 100 Md€.
Enfin, les impôts locaux représentent environ 12,7 % des prélèvements obligatoires à côté des impôts nationaux (34 %) et des prélèvements sociaux (52 %)2.
2 Le solde est perçu par les organismes divers d’administration centrale (ODAC). 
 
Ces données mettent en évidence le poids des finances publiques locales et, en conséquence, la nécessité de les associer à l’effort de redressement des comptes publics. 

1 - Les finances locales : un enjeu majeur du redressement des comptes publics
Le secteur public local a vocation à prendre sa part dans l’effort de réduction des déficits publics. Autant que l’État et la sécurité sociale, il est concerné par les engagements européens de la France, inscrits notamment dans le traité sur la stabilité, la coordination et la gouvernance (TSCG) du 2 mars 2012, qui prévoit le retour à l’équilibre des comptes publics nationaux pris dans leur ensemble. Traduction en droit national de ce traité, la loi organique du 17 décembre 2012 relative à la programmation et à la gouvernance des finances publiques s’applique aux administrations publiques locales. 
 
Dans son prolongement, la loi de programmation des finances publiques du 31 décembre 2012, puis le programme de stabilité pour la période 2013-2017 transmis en avril 2013 à la Commission européenne et celui de mai 2014 pour la période 2014-2017, ont prévu des trajectoires de redressement des comptes publics impliquant l’évolution des dépenses, des recettes, du solde et de la dette des collectivités locales. 

L’évolution de la situation financière d’ensemble des collectivités territoriales trouve sa traduction en comptabilité nationale dans les comptes des administrations publiques locales (APUL), qui constituent une partie des administrations publiques (APU). Ces données permettent de mesurer leur contribution aux déficits publics et à la dette publique, notifiés au titre des engagements européens de la France. 

En 2013, les dépenses des APUL ont progressé de 3,4 % et leurs recettes de 1,1 %. Leur déficit est passé de 3,7 Md€ en 2012 à 9,2 Md€ en 2013. En conséquence, il a représenté l’année dernière 10,4 % de l’ensemble des déficits publics contre 3 % l’année précédente, et 0,4 % du produit intérieur brut (PIB) au lieu de 0,15 %. La dette des APUL a augmenté de 6,2 Md€ (+ 3,5 %) mais sa part (9,5 %) dans le total de la dette publique n’a pas varié. 

Du fait de ces évolutions, les collectivités territoriales n’ont pas apporté en 2013 la contribution attendue à la réduction des déficits publics, comme l’a déjà relevé la Cour en juin 2014 dans son rapport annuel sur la situation et les perspectives des finances publiques.
La trajectoire des finances publiques, définie par le programme de stabilité 2013-2017 d’avril 20133, prévoyait, pour les APUL, un déficit de 0,2 % du PIB en 2013 et en 2014, puis un retour à l’équilibre à compter de 2015. En fait le solde des APUL s’est écarté de cette trajectoire puisqu’il s’est creusé à 0,4 % du PIB en 2013. Il a ainsi contribué pour un tiers au retard pris dans la réduction des déficits publics de la France, qui se sont établis à 4,3 % du PIB alors que l’objectif fixé était de 3,7 % du PIB. 

Cette évolution de la situation financière des collectivités locales est très préoccupante car elle rend plus difficile le respect par la France de ses engagements européens en venant limiter la portée des efforts de maîtrise de leurs dépenses accomplis par l’État et les organismes de sécurité sociale. 


3 Programme adopté en Conseil des ministres le 17 avril 2013, soumis le 23 avril à l’Assemblée nationale et le 24 avril au Sénat, puis adressé à la Commission européenne à la fin du mois d’avril 2013.

2 - Des limitations pour l’analyse des finances locales4

4 Sur la problématique d’ensemble de la fiabilité des comptes locaux, voir, Cour des comptes, Rapport public thématique : Les finances publiques locales, Chapitre III, p. 105 et suivantes, La Documentation française, octobre 2013, 475 p., disponible sur www.ccomptes.fr 

L’analyse des finances locales se heurte à un certain nombre de limitations qui résultent de l’imparfaite fiabilité des données comptables et de l’absence d’outils de prévision.
- L’imparfaite fiabilité des données comptables
L’agrégation nationale des données financières locales repose sur la seule centralisation des comptes de gestion des comptables publics, effectuée par la direction générale des finances publiques. Dans le cadre d’un accord conclu avec la Cour des comptes, la direction générale des finances publiques (DGFiP) met à sa disposition les balances comptables des collectivités territoriales et des établissements publics locaux, extraites de son infocentre. Des requêtes appropriées ont ainsi pu être effectuées sur les données de 2013 et des années antérieures5.

Toutefois, les écritures censées rendre compte des différents transferts intervenant soit entre un budget principal et des budgets annexes, soit entre des communes et leur groupement, manquent encore de fiabilité. Par ailleurs, des manquements ou des anomalies affectant le rattachement à l’exercice sont encore fréquemment constatés par les chambres régionales des comptes. Il en va de même en ce qui concerne les dotations aux amortissements des immobilisations. Une méconnaissance des principes de constitution de provisions a pu être observée. Des imputations comptables erronées sont régulièrement relevées. 

L’imparfaite qualité et fiabilité des données comptables
La connaissance par les collectivités de leur patrimoine apparaît souvent lacunaire, voire inexistante. Les travaux des chambres régionales des comptes conduisent à relever l’insuffisance des inventaires physiques voire, dans certains cas, leur inexistence. Le rapport de la Cour des comptes de juillet 2011 sur la gestion de la dette publique locale a rappelé combien il était important, pour les assemblées délibérantes, de disposer d'informations complètes et intelligibles sur la nature des contrats en cause et sur l’ampleur des risques encourus. Il a parfois été relevé que les éléments relatifs à la dette et décrits dans le compte administratif ne concordaient pas avec le compte de gestion, pour des montants significatifs.
En dépit de la référence réaffirmée aux règles de comptabilité générale, les comptes des collectivités territoriales ne disposent pas d’une annexe unique et indissociable de l’information comptable, telle que le prévoit le plan comptable général et qui recenserait notamment les engagements hors bilan. L’information actuellement délivrée dans les annexes budgétaires, par la complexité de sa présentation et son absence d’exhaustivité, n’est pas en mesure de satisfaire à cette exigence.

5 Le périmètre retenu, qui est identique à celui utilisé par l’administration pour ses analyses et ses publications, ne prend pas en compte les opérations imputées sur des budgets annexes. L’analyse est conduite à partir des opérations réelles en recettes et en dépenses, c’est-à-dire celles ayant donné lieu à encaissement ou décaissement. 

Par ailleurs, les données de comptabilité générale ne rendent pas compte des dépenses associées aux politiques publiques, ce qui limite l’analyse des déterminants de la dépense locale. Les collectivités territoriales disposent de deux modalités d’adoption de leur budget : par nature de dépenses ou de recettes ou par grandes fonctions. Si l’adoption du budget par fonctions est retenue par la quasi-totalité des régions, elle reste peu développée pour les départements et le secteur communal. En outre, la répartition fonctionnelle des dépenses n’étant pas homogène entre les collectivités qui y recourent, la centralisation de ces données présente un caractère peu fiable qui en limite l’utilisation. 

La qualité, l’exhaustivité et la lisibilité de l’information financière, tout au long du cycle budgétaire et comptable, sont en effet essentielles à la transparence de la gestion et fondent l’ensemble des travaux en cours. À cet égard, le Conseil de normalisation des comptes publics (CNOCP), aux travaux duquel participe la Cour des comptes, développe une réflexion, d’une part, sur l’articulation entre la comptabilité générale et la comptabilité budgétaire des entités du secteur public local et, d’autre part, sur les perspectives d’amélioration de la lisibilité de leurs états financiers. Une charte nationale relative à la fiabilité des comptes locaux a par ailleurs été signée le 21 mars 2014 par les ministres concernés, les présidents des associations d’élus locaux et la Cour des comptes. Cette charte formalise la méthodologie et précise les objectifs poursuivis par les signataires dans la perspective d’un renforcement de la fiabilité des comptes locaux. Des résultats concrets en sont attendus. 

- La nécessité d’élaborer des prévisions fiables d’évolution des finances locales
Les lois de programmation des finances locales mentionnent des objectifs indicatifs se rapportant aux finances locales. La fixation d’objectifs en ce qui concerne l’évolution des recettes, des dépenses, du solde et de la dette des administrations publiques locales, dans le cadre de la trajectoire de redressement des comptes publics, nécessite la construction d’outils d’analyse et de prévision de ces différentes composantes qui soient plus précis que ceux dont disposent actuellement l’administration, d’une part, et les collectivités territoriales, d’autre part. À titre d’exemple, ces outils n’ont pas permis d’anticiper la forte croissance annuelle de l’investissement local entre 2003 et 2008, son ralentissement entre 2009 et 2011 et sa forte reprise en 2012 et 2013. 

Une meilleure connaissance des déterminants de l’investissement des collectivités territoriales et de son impact sur l’évolution des dépenses de fonctionnement, de même que l’identification des facteurs exogènes et des causes endogènes de la croissance des dépenses contribueraient à une meilleure programmation des finances locales. 

Le besoin d’outils de prévision plus précis en matière de recettes et de dépenses est d’autant plus nécessaire que l’évolution de la situation financière des collectivités territoriales et de leurs groupements est de plus en plus différenciée selon les catégories de collectivités et au sein d’une même catégorie. En conséquence, l’amélioration de la prévision passe par l’élaboration d’analyses prospectives par catégorie, voire même par strate de collectivités. 

3 - Un travail commun de la Cour et des chambres régionales des comptes
Le présent rapport a été élaboré dans le cadre d’une formation commune à la Cour et aux chambres régionales des comptes. Les travaux de cette formation ont été alimentés notamment par les rapports d’observations produits par les chambres régionales au terme des contrôles exercés sur les collectivités locales de leur ressort. Au total, 136 collectivités ont été concernées :
  • −  15 régions d’une population totale de 38 891 000 habitants ;
  • −  12 départements d’une population totale de 10 665 000 habitants ;
  • −  42 groupements à fiscalité propre d’une population totale de 4 691 000 habitants ;
  • −  et 67 communes d’une population totale de 4 262 000 habitants.
Le présent rapport résulte aussi d’enquêtes conduites auprès des administrations centrales de l’État et d’échanges avec cinq associations nationales d’élus locaux6.
Il a été rédigé alors que ne sont pas encore effectifs les changements de l’organisation territoriale introduits par la loi MAPTAM7 qui, en particulier, crée de nouvelles métropoles et reconnaît le rôle de chefs de file des régions, et que sont engagées d’autres réformes majeures à travers le projet de loi portant nouvelle organisation territoriale de la République (NOTR) et le projet de loi relatif à la délimitation des régions, aux élections régionales et départementales et modifiant le calendrier électoral. 

Le premier chapitre présente la situation financière des collectivités locales en 2013, par catégorie (communes, intercommunalités, départements et régions) et prises dans leur ensemble. 

Le deuxième chapitre étudie les conditions d’une meilleure maîtrise des finances publiques locales au regard des tendances d’évolution de leurs dépenses et de leurs recettes, en tenant compte notamment du mouvement de baisse du montant annuel des dotations de l’État de 1,5 Md€ dans la loi de finances pour 2014 puis de 11 Md€, prévu au terme de la période 2015-2017, soit une réduction supplémentaire de 3,67 Md€ par an à compter de 2015. 

Le troisième chapitre examine les perspectives de rationalisation financière au sein du «bloc communal», c’est-à-dire de l’ensemble formé par les communes et leurs intercommunalités. Ces dernières constituent désormais un échelon supplémentaire d’administration locale dont l’extension à l’ensemble du territoire a eu pour effet non de ralentir mais au contraire d’accélérer les dépenses du « bloc communal ».

6 L’Association des maires de France (AMF), l’Assemblée des départements de France (ADF), l’ Association des régions de France (ARF), l’ Assemblée des communautés de France (AdCF) et l’Association des communautés urbaines de France (ACUF)..
et d'affirmation des métropoles.



7 Loi n° 2014-58 du 27 janvier 2014 de modernisation de l'action publique territoriale 

Le quatrième chapitre examine les conditions de l’équilibre financier des régions compte tenu de la modification de la structure de leurs dépenses et de leurs recettes, sous l’effet des transferts de compétences décidés en 2004 et de la réforme de la fiscalité locale de 2010. 
Enfin, le cinquième chapitre insiste sur la nécessité de simplifier et de développer la péréquation financière, compte tenu notamment de l’accélération de la réduction des dotations de l’État aux collectivités territoriales, pour accompagner l’instauration d’une meilleure maîtrise des finances publiques locales.




Conclusion générale 

Les finances publiques locales sont étroitement liées à celles des autres administrations publiques. Pour plus de 40 %, les ressources des collectivités locales sont constituées de dotations de l’État sous la forme de subventions sur crédits budgétaires ou de fiscalité transférée. Le niveau des impôts locaux affecte la situation d’ensemble des ménages et des entreprises. L ’ augmentation des dépenses des collectivités territoriales et des établissements publics de coopération intercommunale participe de la hausse généralisée des dépenses publiques qui entraîne des déséquilibres importants des comptes publics. Dans ce contexte, l’État a engagé une baisse significative de ses dotations aux collectivités territoriales qui, en 2017, devraient être inférieures de 11 Md€ à leur montant de 2014. 

Le deuxième rapport public que la Cour et les chambres régionales des comptes consacrent aux finances publiques locales analyse en premier lieu l’évolution de la situation financière des collectivités territoriales en 2013, à la veille de cette baisse inédite des concours financiers de l’État. Il apparaît que cette évolution a contrarié l’effort national de redressement des comptes publics. 

Globalement, la baisse modeste (- 0,6 %) des concours financiers de l’État en 2013 n’a pas eu d’effet modérateur sur l’évolution des dépenses des collectivités locales qui ont continué de progresser plus vite que leurs recettes, entraînant une diminution de leur épargne brute. Malgré la baisse de l’autofinancement qui en a résulté, les communes et leurs groupements, en fin de cycle électoral, ainsi que les régions ont accru leurs investissements en puisant dans leur trésorerie mais aussi en augmentant leur endettement. 

Comme déjà relevé par la Cour en juin 2014 dans son rapport annuel sur la situation et les perspectives des finances publiques, les collectivités territoriales n’ont pas apporté en 2013 la contribution attendue à la réduction des déficits publics. En comptabilité nationale, le déficit des APUL est passé de 3,7 Md€ en 2012 à 9,2 Md€ en 2013. Il a atteint 10,4 % de l’ensemble des déficits publics contre 3 % en 2012. La dette des APUL s’élevait à 182 Md€ à la fin de 2013 en hausse de 3,5 %. 

En deuxième lieu, le rapport s’efforce de prévoir l’impact de la baisse des dotations de l’État de 11 Md€, inscrite dans le programme de stabilité 2014-2017 afin de provoquer un infléchissement du même montant des dépenses des collectivités locales.


La Cour relève d’abord qu’en 2014, la réduction de 1,5 Md€ des dotations de l’État stricto sensu devrait finalement être sans effet car elle a été compensée par l’octroi de ressources nouvelles aux départements et aux régions. En revanche, du fait de son ampleur et de sa durée, la baisse de 3,7 Md€ par an, répétée sur trois ans, peut modifier la trajectoire financière des collectivités locales. Appliquée au « bloc communal », par exemple, dans les mêmes conditions qu’en 2014, elle équivaudrait à un recul de 20 % de sa DGF en 2017. 

Cette baisse risque d’abord de se traduire par un recul de l’investissement public local. Pour autant, son impact va dépendre de plusieurs facteurs. Les communes et intercommunalités et, dans une moindre mesure, les départements peuvent bénéficier de rentrées fiscales supplémentaires grâce au dynamisme des bases des impôts « ménages » ou au relèvement des taux, même si l’évolution de la fiscalité indirecte est plutôt orientée à la baisse. Pour maintenir leur niveau d’investissement, les collectivités locales peuvent aussi choisir d’emprunter davantage, l’offre de crédit étant redevenue particulièrement attractive. 

Le risque existe donc que la baisse des dotations de l’État n’ait qu’un impact atténué sur l’évolution des dépenses du secteur public local alors que, comme la Cour l’a déjà relevé dans son rapport public d’octobre 2013, des pistes d’économies existent en ce qui concerne les dépenses de rémunération et les autres charges de gestion. Aussi, il paraît souhaitable d’instaurer de nouvelles conditions de gouvernance des finances locales, partagées entre l’État et les collectivités territoriales, dans le respect de leur libre administration. Dans cette perspective pourrait être adoptée par le Parlement une loi de financement des collectivités territoriales retraçant l’ensemble de leurs relations financières avec l’État.
Pour une large part, les marges d’économies permettant d’accompagner la baisse des dotations de l’État devraient être trouvées dans la rationalisation administrative et financière du « bloc communal ». 

La carte des établissements publics de coopération intercommunale (EPCI) s’étend désormais à l’ensemble du territoire mais sa rationalisation n’est pas terminée. Il reste à rehausser la taille critique des communautés de communes (comme prévu dans le projet de loi OTR) et surtout à réduire l’enchevêtrement des différentes formes d’intercommunalités en supprimant une partie des syndicats (10 000 syndicats intercommunaux et 3 000 syndicats mixtes) dont les compétences doivent être reprises par les EPCI. 

Encore trop faible, l’intégration du « bloc communal » doit être renforcée. La mutualisation administrative doit être poursuivie, intensifiée, mieux ciblée et évaluée. Les compétences transférées aux EPCI doivent cesser d’être parcellaires et partagées avec leurs communes-membres. Elles doivent être transférées par champ entier d’intervention afin que les EPCI aient la pleine maîtrise des politiques publiques relevant de leur responsabilité sur leur territoire. Compte tenu de l’importance croissante des flux croisés et des liens entre leurs impôts directs, des pactes de gouvernance financière et fiscale doivent être conclus au sein des EPCI. Dans le cadre de la réforme de la DGF, il conviendrait de créer une DGF unique pour le « bloc communal », perçue par les intercommunalités puis répartie entre leurs communes-membres. Sans attendre les effets de ces mesures structurelles, des mesures de gestion doivent être prises à court terme. Le « bloc communal » doit infléchir dès 2015 l’évolution de ses dépenses de fonctionnement, prioritairement de personnel, afin de s’adapter à la baisse des dotations de l’État (plus de 2 Md€ par an pendant trois ans). 

Les régions, quant à elles, sont au cœur d’importantes réformes visant à étendre leurs attributions (loi MAPTAM du 27 janvier 2014 et projet de loi OTR) et à accroître leur taille (projet de loi de délimitation des régions). Dans ce contexte, elles doivent faire un effort accru de maîtrise de leurs dépenses de fonctionnement (+ 10 % en quatre ans). 

La structure des dépenses et des recettes des régions a beaucoup évolué depuis dix ans. Leurs dépenses ont fortement augmenté du fait principalement des transferts de compétences issus de la loi de 2004 relatives aux responsabilités locales. Sous le coup de la réforme de la fiscalité économique locale en 2010 et du gel des dotations de l’État, leurs ressources de fonctionnement sont devenues moins dynamiques et moins modulables. Elles ne connaissent en moyenne qu’une faible érosion de leur épargne brute depuis 2010 mais leurs situations individuelles des régions se sont fortement différenciées. 

Désormais, les régions doivent se recentrer sur leur « cœur de métier ». En particulier, des marges d’économies existent sur les dépenses afférentes aux compétences non « exclusives » (ou issues de la clause générale de compétences), décelables au vu de la grande disparité des coûts moyen par habitant, traduisant des niveaux différents d’intervention. À cet égard, en cas de regroupement des régions, il conviendra de veiller à ce que l’alignement « par le haut » des modes de gestion interne et des politiques publiques ne compromette pas la recherche des gains d’efficience. 

La priorité doit en effet être donnée à l’inflexion de l’évolution des dépenses en évitant d’affaiblir l’effet de levier de la baisse des dotations de l’État. Le transfert de nouvelles compétences aux régions lié à la réforme de l’organisation territoriale pourrait justifier de réexaminer leur structure de financement à prélèvements obligatoires constants. 

Enfin, il apparaît que la péréquation financière doit être renforcée dans un double objectif d’efficacité et d’équité de l’effort de redressement des comptes publics. 

D’une grande complexité, les dispositifs de péréquation sont actuellement inefficaces. Face aux inégalités de ressources et de charges au sein de chaque catégorie de collectivités locales, des mécanismes ont été superposés sans cohérence d’ensemble. Si un effet de réduction des inégalités de situation est observé, il découle non des mécanismes de péréquation mais de la part forfaitaire de la DGF. 

La refonte de l’ensemble des mécanismes de péréquation apparaît indispensable pour accompagner la baisse des dotations de l’État qui devrait prendre davantage en compte les capacités contributives des collectivités territoriales. Dès lors, l’ensemble des dispositifs de péréquation (près de 10 Md€ au total) devrait être revu afin de veiller à sa cohérence avec les critères de répartition de la baisse des concours financiers de l’État. L’ampleur de la baisse des dotations comme de la réforme du système de péréquation devrait rendre inéluctable une réforme d’ensemble de la dotation globale de fonctionnement.
*
Les dépenses des collectivités locales, prises dans leur ensemble, ont continué de progresser à un rythme rapide ces dernières années. Pourtant, le respect des engagements européens de la France en matière de retour à l’équilibre budgétaire et de réduction de sa dette publique est un impératif auquel doit se soumettre l’ensemble des administrations publiques. La décision de l’État d’abaisser de 11 Md€ en trois ans les dotations qu’il verse chaque année aux collectivités locales contribuera à atteindre les objectifs du programme de stabilité 2014-2017 à condition qu’elle se traduise par un infléchissement à due proportion de leurs dépenses. 

Ce ralentissement indispensable de l’évolution des dépenses des collectivités territoriales et de leurs groupements ne sera obtenu qu’au prix d’un important effort d’adaptation des structures administratives, des méthodes de gestion et sans doute aussi des représentations collectives du rôle de la dépense publique locale. Pour y parvenir, les collectivités locales doivent rationaliser leur organisation, faire progresser leur management et définir des priorités plus strictes d’intervention et d’investissement. Cette nouvelle donne budgétaire s’inscrit en outre dans un ambitieux mouvement de réforme de l’organisation territoriale de la République qui, une fois parvenu à son terme, devrait permettre, en supprimant l’enchevêtrement des compétences entre différents niveaux de collectivités, de rendre à la fois plus efficace et plus efficient l’exercice des responsabilités locales. 

Liste des recommandations 

En ce qui concerne les perspectives de maîtrise des finances publiques locales :
  1. adopter des modalités de répartition, entre catégories de collectivités (régions, départements, bloc communal), de la baisse des dotations de l’Etat qui prennent mieux en compte l’existence de marges de manœuvre plus importantes au sein du bloc communal ;
  2. répartir la baisse des dotations de l’Etat, au sein d’une même catégorie, dans une logique de péréquation, en tenant compte de l’ensemble des ressources et des charges des collectivités ;
  3. adopter une loi de financement des collectivités territoriales retraçant l’ensemble de leurs relations financières avec l’État, fixant à titre prévisionnel des objectifs d’évolution des recettes, des dépenses, du solde et de la dette des différentes catégories de collectivités et comportant des dispositions prescriptives, notamment en matière de péréquation, de règles budgétaires et comptables et de contrôle ;
En ce qui concerne la rationalisation administrative et financière du « bloc communal » :
  1. poursuivre le regroupement des établissements publics de coopération intercommunale et la réduction du nombre des syndicats intercommunaux et des syndicats mixtes ;
  2. opérer les transferts de compétences des communes aux intercommunalités par champ entier d’intervention et non plus de façon parcellaire ;
  3. développer la mutualisation des services intercommunaux, prioritairement ceux des fonctions supports, au bénéfice des communes membres ;
  4. engager la stabilisation des dépenses de personnel du «bloc communal » par des réductions d’effectif, une pause des mesures de revalorisation indemnitaire, une meilleure maîtrise des déroulements de carrière et le respect de la durée légale du travail ;
     8. rendre obligatoire pour l’ensemble des groupements à fiscalité propre la conclusion        d’un pacte de gouvernance financière et fiscale prenant en compte les différents dispositifs d’intégration, de solidarité et de péréquation au sein du « bloc communal » ; 
 
En régions :
ce qui concerne les conditions de l’équilibre structurel des
  1. recentrer les interventions des régions sur leurs politiques publiques prioritaires ;
  2. à champs de compétences inchangés, stabiliser les dépenses de personnel ;
  3. en cas de regroupement des régions, veiller à ce que l’alignement des modes de gestion interne et des politiques publiques ne compromette pas la recherche des gains d’efficience ;
  4. allouer aux régions, à prélèvements obligatoires constants, une part plus importante de fiscalité, à l’occasion de la réforme de l’organisation territoriale ;
En ce qui concerne le développement de la péréquation financière :
  1. revoir les dispositifs de péréquation « verticale » et « horizontale » afin d’en réduire le nombre et de les faire reposer sur un nombre limité d’indicateurs de richesse, procédant de logiques cohérentes d’évaluation des niveaux de ressources et de charges des collectivités et veiller à poursuivre la montée en puissance des dispositifs de péréquation « horizontale » ;
  2. corrélativement à la baisse des concours financiers de l’État, réformer la dotation générale de fonctionnement afin de lui conférer une dimension péréquatrice plus marquée ;
  3. dans le cadre de la réforme de la DGF, créer une DGF unique pour le « bloc communal », perçue par les intercommunalités, à charge pour elles de la répartir entre leurs communes-membres selon des critères qu’elles déterminent.
 Source: FRANCE. Cour des comptes

Powered By Blogger