Un bêtisier à lui tout seul

Petite énigme à un centime d’euro (fort pour acheter du pétrole cher) : qui est l’auteur de cette déclaration ?

 » PARIS (AFP) – ******** a déclaré vendredi que la « compétition internationale retarde les résultats » que la France attend de son économie, sans préciser toutefois s’il faisait allusion à l’emploi ou à la croissance.

‘Nous avons une compétition internationale aujourd’hui qui retarde les résultats que nous attendons de notre économie, qui retarde de quelque peu mais qui etarde », a-t-il dit devant quelque 500 responsables des chambres de commerce et d’industrie ******

‘ Nous avons une forte pression internationale avec l’émergence des grandes puissances », a-t-il poursuivi en évoquant le cas de la Chine et de l’industrie textile.’

Lionel, la haute technologie et le libéralisme

De l’intervention de Lionel Jospin dans l’émission « Questions ouvertes » de France 2 jeudi 28 avril, j’ai retenu deux passages. Dans le premier, l’ancien premier ministre a affirmé qu’à terme, si la France voulait ne pas souffrir du développement de la Chine, elle devrait développer les secteurs de « haute technologie ». Il n’a pas parlé de « haute valeur ajoutée ».
Petit rappel pour ceux qui ne voient pas où je veux en venir. Dans le livre de Paul Krugman, « La mondialisation n’est pas coupable », on trouve un passage assez connu, mais qu’il est toujours utile de citer : « Les branches à très forte valeur ajoutée par travailleur se trouvent dans les secteurs où le rapport capital/travail est très élevé, comme dans l’industrie du tabac ou celle du raffinage pétrolier [...] Les secteurs à haute technologie comme l’aérospatiale ou l’électronique se retrouvent dans la moyenne ». Bref, les deux termes ne sont pas synonymes et penser nouvelles technologies en termes de valeur ajoutée relativement élevée est une erreur. Bravo Monsieur Jospin.

Dans le second, Jospin, a soutenu que le TCE ne pouvait pas être libéral puisque, en donnant un cadre au fonctionnement de l’UE, il s’opposait au libéralisme, qui s’apparente au « laisser faire, laisser passer »[add : ou "laissez faire, laissez passer", voir le commentaire de ce post par Eolas]. Et de préciser, qu’il distinguait « libéralisme économique » (qu’il conteste) et « libéralisme politique » (qu’il ne conteste pas) – terrain glissant, n’est-il pas ?
J’ai alors repensé à un texte de Monique Canto-Sperber, philosophe proche du PS (du moins d’une partie de celui-ci), publié par l’association « En temps réel » au titre titillant dans le contexte, puisqu’il s’agit de « Pourquoi le socialisme n’est pas le laisser faire » [add : En fait, le titre exact est "Pourquoi le socialisme n'est pas le laisseZ faire"].
J’en vois déjà qui trépignent sur place, se demandant s’ils vont poster un commentaire de 3 pages pour tirer tout ça au clair ou bien se taire en se disant que, vraiment, ce serait bien qu’on se mette d’accord sur ce foutu terme de « libéralisme ». Bon, ben je vous laisse faire votre choix…

Téléchargera, téléchargera pas ? "Beckererie" entre amis

L’industrie du disque poursuit des téléchargeurs en France depuis un peu moins d’un an. Sa stratégie avouée consiste à faire condamner certains  » gros téléchargeurs  » afin de décourager les autres internautes de télécharger des oeuvres protégées. Alexandre a déjà longuement commenté la situation, montrant en quoi les arguments de l’industrie du disque sont discutables.

La stratégie pour l’exemple, basée sur la  » peur du gendarme  » est-elle tenable ?

Ce n’est pas le lieu pour se prononcer sur le caractère juste ou non des procès, ni de leur issue. C’est au droit de faire son ‘uvre en la matière. N’en concluez cependant pas quoi que ce soit sur ma position politique et philosophique à ce sujet.

La stratégie de la  » peur du gendarme  » utilisée ici a le caractère habituel des politiques de répression et de contrôle. Dans une logique souvent utilisée en économie du droit (à la suite des travaux de Gary Becker sur la criminalité), elle repose sur un calcul d’espérance mathématique d’utilité : si j’estime que les sanctions encourues si je me fais attraper, pondérées par la probabilité de me faire attraper, dépassent les gains pondérés par la probabilité de ne pas me faire attraper, alors je m’abstiens de télécharger.
Dit plus simplement : quand je choisis de télécharger, comme je sais que le risque de me faire attraper existe, je dois comparer ce que je risque de gagner à ce que je risque de perdre.

On peut voir le choix à faire de deux façons : une façon simple est de se demander si un internaute téléchargera ou ne téléchargera pas du tout. Une autre façon est d’envisager que le problème se pose en termes de nombres de fichiers téléchargés : aucun, un peu ou beaucoup’
J’ai commencé à rédiger pour m’amuser un petit modèle de choix, où celui-ci porte sur le nombre de fichiers à télécharger, plutôt que sur le choix binaire télécharger/ne pas télécharger. C’est un peu plus compliqué techniquement, quand on veut prendre des hypothèses un peu réalistes. Si j’aboutis à quelque chose de correct, j’en reparlerai (i.e. attendez vous à ne jamais en entendre reparler !). Ici, je vais essayer de simplement montrer quels sont les éléments qui influent sur la décision de l’internaute de télécharger ou non, en envisageant de manière qualitative quelques possibilités de l’ordre du  » aucun, peu ou beaucoup « .

Savoir si les téléchargeurs potentiels basculeront ou non dépend de l’évaluation de :
– la probabilité d’être attrapé (et donc de la probabilité complémentaire de ne pas être attrapé)
– du gain brut tiré du téléchargement
– de la perte encourue en cas de procès

La perte peut être déterminée à partir des jugements condamnant des internautes. Elle est approximativement proportionnelle au nombre de fichiers téléchargés, pour les dommages et intérêts. Sur ce point, la jurisprudence n’est cependant pas établie. On a pu constater un coût du MP3 différent selon les cas. De plus, avec le volet pénal, les amendes peuvent être considérées comme un genre de coût fixe, dans la mesure où elles ne semblent pas forcément en rapport proportionnel avec le nombre de fichiers détenus de manière non légale.

Néanmoins, le coût objectif, exprimé en euros, doit être reconsidéré en regard d’un coût subjectif et d’un coût objectif perçu (anticipé en quelque sorte). Pour un adulte suffisamment conscient de ce que représente une procédure judiciaire en termes psychologiques, sociaux ainsi qu’en termes de temps gaspillé, le coût subjectif sera assez important. Chez un adolescent, le montant potentiel des dommages et intérêts, la partie objective perçue, pourrait être sous-évalué.

Qu’est-ce qui détermine les gains du téléchargement de musique ? D’une personne à une autre, la valeur du téléchargement est variable, très variable même. C’est affaire de goûts musicaux (le MP3 est une technologie dont la qualité peut être considérée comme excellente par quelqu’un et médiocre par quelqu’un d’autre), d’âge, de revenus, que sais-je encore ? Bref, de préférences différentes.
Rien n’empêche d’inclure dans ces préférences des éléments sociologiques, psychologiques ou politiques (tel que le plaisir de braver l’interdit ou l’engagement militant).
Le gain au téléchargement diffère alors d’un individu à l’autre et peut ainsi s’avérer très élevé chez certains, pendant qu’il sera dérisoire chez d’autres, pour un même nombre de fichiers chargés.

Qu’est-ce qui détermine la probabilité d’être attrapé ? Plein de choses. La première est la capacité technologique de contrôle des ayants droit. De ce point de vue, il semble raisonnable de considérer qu’elle est assez importante. Les outils d’automatisation existent. Dans le domaine des jeux video, la CNIL vient de donner son accord pour opérer une telle surveillance.
D’une certaine manière, la capacité technique de surveiller peut être supposée sans limite. En réalité, c’est au niveau juridique que tout se joue.

Avant d’en parler, signalons que les contre-feux techniques sont, à ma connaissance, limités : il existe des filtres qui répertorient les connectés suspects ou avérés, classés comme  » mouchards « , et bloquent toute tentative de connexion aux dossiers de l’utilisateur qui utilise le filtre. Je n’ai pas creusé la question, mais ces méthodes me semblent peu performantes. Si j’ai bien compris, on inverse simplement la logique du chat et de la souris : que le mouchard change d’identifiant sur le réseau et il faudra de nouveau le détecter et l’ajouter à la liste. Je signale aussi que je n’exclue pas la possibilité que ce genre de filtres soient en fait destinés à un tout autre usage (comme limiter les connexions des bots de certaines distributions modifiées des logiciels de pair à pair) et que leur transformation en arme de protection pour téléchargeurs pirates soit le fruit d’une rumeur (ce genre rumeurs est vite propagé sur les forums de fans de Matrix à grande gueule ‘ c’est impressionnant les conneries qu’on peut lire sur un forum assez actif comme celui-ci , alors que le site est plutôt sérieux par ailleurs).
L’aspect juridique est donc prégnant. La localisation des adresses IP et l’autorisation de remonter à l’internaute en cas de constatation du téléchargement et de dépôt d’une plainte est la base. Cela va dans le sens d’une forte probabilité d’être attrapé.

En revanche, et c’est la logique même de la stratégie de dissuasion choisie, il serait difficile de poursuivre des millions (ou simplement des milliers) de personnes. D’abord pour des raisons évidentes de capacité de traitement des affaires par la justice. Ensuite pour des raisons de rapport de force : en se limitant à quelques-uns, on limite la mobilisation (déjà que là ‘) et on réduit les risques d’être dépassés par les évènements (déjà que là ‘).

Ainsi, plus le nombre de téléchargeurs est DEJA élevé, plus la probabilité d’être pris est faible. Si le nombre de téléchargeurs est faible, la probabilité d’être pris, si les ayants droit décident de poursuivre tout contrevenant dans la limite de leurs capacités de procédure, est élevée. Et le nombre de téléchargeurs a peu de chances d’être plus important à l’avenir. C’est comme sur la route. Quand un contrôle radar est organisé par trois gendarmes, si une file de 3 voitures commet un excès de vitesse à l’abord du barrage, la probabilité d’être arrêté est de 1. Si vous roulez dans une file continue de voitures en excès, elle est nettement plus faible (puisque comme tout gendarme vous le dira  » nous n’avons que deux mains pour dresser les PV « ). De ce point de vue, la probabilité actuelle est plutôt faible et la réaction des Majors a été incroyablement décalée. En gros, on peut attaquer en justice tant qu’on veut, au moment de penser au passage à l’acte, le  » pirate  » se sent bien petit et n’imagine pas forcément qu’on lui tombe dessus (ce en quoi il n’a pas tort). La probabilité d’être pris est d’autant plus grande que le nombre de téléchargeurs est faible. Ce qui ne semble pas être le cas actuellement.

Le lobby du disque sait parfaitement cela. Il a donc décidé de cibler les  » gros téléchargeurs « . Que faut-il entendre par là ? Ceux qui téléchargent beaucoup ? En partie, mais finalement pas en raison du nombre d »uvres qu’ils obtiennent à l’arrivée. Ce serait plutôt ceux qui stockent et laissent en partage de nombreux fichiers. Ils sont le c’ur des réseaux pair à pair. Ce sont eux qui garantissent l’abondance de fichiers disponibles. Bien sûr, dans la mesure où lorsque vous téléchargez des fichiers, vous partagez avec les autres utilisateurs les parties que vous avez déjà téléchargées, plus vous téléchargez et plus vous mettez de parties à disposition des autres. Donc, un  » gros téléchargeur non stockeur  » contribue aussi à la fluidité du réseau, même s’il ôte du partage les fichiers dès qu’ils sont reçus en intégralité. A la limite, on peut très bien imaginer que des fichiers soient partagés par tous sans pour autant que quelqu’un le partage en entier (du moins je l’imagine, sauf contrainte technique que j’ignorerais). Plus vous téléchargez ou stockez de fichiers et plus la probabilité d’être pris est forte.

C’est là que le raisonnement en termes de choix binaire  » télécharger ou non  » devient un peu gênant, car on voit bien qu’un téléchargeur peut très bien opter pour un téléchargement modeste et que ce choix est bien différent de la logique de simple choix de passage à l’acte.

Concrètement, quel est le seuil qui déclenchera les poursuites, en le pondérant éventuellement par la durée de conservation des fichiers en partage ? Si on en juge par les chiffres annoncés concernant les internautes jugés, on peut raisonner sur plusieurs centaines de fichiers. Mais, notez qu’aucun seuil n’est donné officiellement. Si je télécharge 100 fichiers par an, suis-je susceptible d’être jugé ? A priori, on peut penser que non, comparé aux centaines évoquées. C’est pourtant conséquent, puisque c’est grosso modo une dizaine d’albums.
Bref, la probabilité d’être pris augmente avec le nombre de fichiers, avec un seuil où elle croît plus radicalement pour tendre vers 1 quand le nombre de fichiers devient très important. Mais l’estimation du nombre de fichiers critique demeure inconnu du quidam.

Le hic, c’est que lorsque le nombre de fichiers croît, il est raisonnable de penser que le gain du téléchargement croît aussi ! Plus exactement, on peut raisonner sur la base traditionnelle d’une utilité croissante, mais dont l’intensité additionnelle (marginale) diminue avec le nombre de fichiers. Quand je télécharge mon premier MP3 de Madonna, je trouve ça fun, ça me rappelle quand j’étais ‘ très ‘ jeune et que je ne comprenais rien à la musique. Quand j’en suis au cinquantième, je commence à réfuter en bloc l’idée que la vieillesse est un naufrage et je ferme mon logiciel de téléchargement.
Résultat : on peut très bien imaginer que le premier effet soit compensé par le second. Certes je risque d’autant plus d’être attrapé que je télécharge un grand nombre de fichiers (ce qui accroît en moyenne ma perte potentielle), mais comme j’en tire une espérance de gain importante, je continue à accroître mon stock.

Conclusion.

La stratégie de la  » peur du gendarme  » utilisée par les majors peut réussir car :
– elle crée une incitation à la prudence en accroissant le risque d’une action en justice et les pertes associées pour tous ceux qui téléchargent ou pensent télécharger beaucoup.
– elle réduit donc potentiellement le nombre d’internautes qui téléchargent ou le nombre moyen de fichiers téléchargés et stockés pour une mise en partage, ce qui réduit la fluidité et l’efficacité du réseau.

Elle peut échouer car :
– elle intervient dans une situation de copie généralisée, ce qui rend la probabilité individuelle d’être attrapée plus faible que si elle avait été implémentée avant, compte tenu des limites de contrôle d’ordre judiciaire. C’est un effet de réseau classique, qui est différent de celui généralement évoqué pour expliquer l’essor des échanges de fichiers (et auquel je fais référence ci-dessus lorsque je parle de  » fluidité « ).
– elle repose sur la poursuite des gros téléchargeurs et ne peut empêcher que bon nombre d’internautes fasse un calcul juste ou erroné du type  » si je télécharge x fichiers par mois, que je les laisse seulement y jours, alors je passe à travers les mailles à gros poissons du filet « . Je doute que les maisons de disques tirent alors les bénéfices escomptés. On peut en effet émettre l’idée que le téléchargement se reportera uniquement sur les disques qui auraient été achetés si le téléchargement n’était pas possible. Par conséquent, quand un internaute télécharge 15 albums, si sa disposition à payer en l’absence de dé téléchargement se limite à 5, ils en téléchargera 5 (les plus désirés) et n’achètera pas les 10 autres pour autant. Il est amusant de noter que si les sites de téléchargement payant ne se développe pas rapidement, on pourra avoir une expérience naturelle sur l’impact réel du téléchargement sur les ventes de disque. Si la baisse du téléchargement non légalisé ne se traduit pas par une remontée des ventes d’un ordre de grandeur en rapport avec la baisse des téléchargements constatés, alors il en sera fini ou presque de la thèse selon laquelle  » Downloading kills the radio star « . Ce n’est pas souhaitable, car l’ouverture de sites de vente en ligne dignes de ce nom serait un progrès (pas les cochonneries actuelles où l’on a parfois la surprise de constater que le prix de l’album en MP3 est le même que celui du CD en magasin ‘ c’est parfois le cas pour de vieux trucs).
– elle laisse pour le quidam une incertitude sur la notion de  » gros téléchargement « , qui risque de décourager plutôt les petits téléchargeurs (pour qui la prudence implique de cesser le téléchargement eu égard du peu de gain qu’ils tirent du téléchargement) que les gros (pour qui le gain est important et ne saurait être compensé par une menace insuffisamment cernée).
– elle sera sans effet ou presque sur un certain nombre d’internautes qui sous-estiment les pertes potentielles d’une action en justice (je pense aux jeunes par exemple) ou qui y voient une possibilité de défier l’autorité bien plus accessible et moderne que de racketter leurs congénères ou braquer des mobiles, tout en étant pécuniairement attractive.

Bien sûr, ce n’est pas la fin de l’histoire et ma petite  » Beckererie  » ne convaincra pas tout le monde. Moi le premier, vu que l’argument de l’utilité espérée est depuis longtemps sujet à caution (du paradoxe d’Allais à la psycho-économie récente) et vu que les esprits les plus perspicaces (arf’) auront noté que j’ai enfoncé de belles portes bien ouvertes. Mais avec élégance, n’est-il pas ?

Un article de la semaine à ne pas rater

Notre article de la semaine doit attirer l’attention de tous ceux qui s’interessent à la théorie de la croissance. Il s’agit d’une revue de la littérature sur l’économétrie de la croissance. Je n’ai pas eu le temps de le lire en entier, l’ayant découvert hier. Son introduction, son plan et le fait qu’il est corédigé par Steven Durlauf laissent en tout cas penser que sa lecture sera profitable. D’abord, des chiffres. L’article ne fait pas moins de 184 pages. La bibliographie représente à elle seule 30 pages. Sept sections dans l’article. Des données travaillées, comme il se doit dans un article d’économétrie et un tableau synoptique pour faire le point sur qui a étudié quoi. Tout cela a fort belle allure. Même pour ceux qui ne connaissent rien à l’économétrie, l’introduction et la deuxième section (qui répertorie les faits stylisés de la croissance dans leur version actuelle, pas mal remaniée depuis Kaldor) seront intéressantes (pages 1 à 29). La suite est beaucoup plus technique. Mais comme il s’agit d’une revue de la littérature, les équations sont présentées rapidement, le but étant d’évaluer la pertinence des modèles présentés.

L’intérêt d’écrire cet article se pose pour les auteurs dans la mesure où les travaux économétriques sur la croissance, dont l’intérêt n’est plus à prouver; souffrent de certaines contraintes spécifiques :
– le manque de données, en dépit paradoxalement d’une masse considérable de statistiques disponibles. La cause principale de cette rareté relative est d’abord à mettre sur le compte… du manque de pays dans le monde. Et pour cause, on n’atteint pas les 200 (et pour certains, les données sont indisponibles ou non fiables). Ce n’est pas une mince affaire. Et le moins qu’on puisse dire, c’est qu’elle n’est pas prête d’être réglée.
– la nécessité d’évaluer la qualité des différentes pistes suivies, pistes assez nombreuses, même si, et c’est un des points que les auteurs souhaitent montrer, on y voit plus clair dans l’étude empirique de la croissance aujourd’hui qu’hier. Or, cette évaluation (distinguer « the good, the bad and the ugly » comme l’écrivent les auteurs) est complexe. Et devant le nombre de facteurs décisifs diversement avancés pour expliquer la croissance (environ un par pays existant, ce qui illustre le problème précédent), la tâche est rude.
– les méthodes d’évaluation du processus de croissance se partagent entre une vision linéaire ou non. Et concernant la vision non linéaire (issue des théories de la croissance endogène), la spécification des non linéarités adéquates fait débat.

Mais le message des auteurs est optimiste, puisqu’ils écrivent que « We argue that a sufficiently rich set of statistical tools for the study of growth have been developed and applied that they collectively define an area of growth econometrics. »

Bonne lecture. Je vais m’y mettre au milieu du reste et vous en reparlerez dans quelques temps. Normalement, ça, ça veut dire que vous n’en entendrez plus jamais parler. Mais je vais essayer de déroger à certaines mauvaises habitudes… Enfin, n’empêche que pour commencer, impression de 184 pages…

Détente…

Où l’on apprend que Nick Leeson se met au foot et que le Programme Alimentaire Mondial lance un jeu video…

[17/04/2005] DUBLIN (Reuters) – « Nick Leeson, le courtier dont les irrégularités ont coûté 1,4 milliard de dollars à la banque britannique Barings et provoqué sa faillite en 1995, exercera désormais ses talents dans un club de football irlandais.
L’ancien trader a été engagé par le Galway United, club de première division, comme directeur commercial.
Ce sera son premier poste depuis qu’il a quitté Barings.
« Je cherchais un nouveau défi », explique sur le site internet du club Leeson, qui a passé plus de quatre ans en prison. »

Alle, allez… Je lui donne un an pour vendre des options d’achat de billets pour une finale de Ligue des champions Galway-PSG au stade Grimonprez-Jooris rénové …

Dans un autre genre :

[14/04/2005] ROME (Reuters) – La jungle infestée de forces rebelles qui sert de décor pourrait laisser croire, comme dans beaucoup d’autres jeux vidéo, que le but est de tirer sur tout ce qui bouge, mais « Food Force » est présenté par le Programme alimentaire mondial (Pam) des Nations unies et l’objectif est en fait de nourrir le plus de personnes possible.

L’agence onusienne espère que ce jeu, dans lequel les joueurs dirigent des travailleurs humanitaires essayant d’aider les plus démunis, permettra d’informer les enfants sur la difficulté d’apporter une aide alimentaire à ceux qui ont faim, notamment dans les zones de conflit. [...]

Le jeu, utilisable sur PC, peut être gratuitement téléchargé sur le site www.food-force.com. »

J’ai testé pour vous le jeu ! Il y a six missions, qui sont précédées d’informations sur le travail du PAM, supposées être utiles pour réaliser la mission. Le jeu en lui-même est gentillet, même si la dernière mission, genre Sim City est plus sympathique. Il peut être intéressant pour les 10-14 ans. L’imbrication informations sur le PAM – jeu est bien foutue. Gros ennui cependant : il est en anglais ! Donc, pour les 10-14 ans, ça risque d’être un peu chaud… D’autant que si la grammaire est simple, le vocabulaire n’est pas du genre « Brian is in the kitchen. Where is Brian ? ». A méditer cependant pour des profs d’anglais.
On notera des trucs marrants : quand vous vous faites arrêter par des factions armées sur la route avec votre convoi de vivre, quand ils vous demandent de leur filer des vivres, il faut surtout répondre « Non, nous devons les amener à ceux qui ont faim. Des gens de votre famille en font peut-être partie ». Bon, moi j’ai répondu « Ok, deux sacs ». Et c’était pas bien d’après les concepteurs du jeu :o )
Le fichier fait 227 Mo.
En fait, il existe aussi une version Mac, contrairement à ce que dit la dépêche.
Bref, je ne sais pas combien de bols de riz ça a coûté, mais pourquoi pas ? De toute façon, qui achèterait un jeu dont le héros est humanitaire ? Pas grand monde. C’est dommage, mais c’est ainsi.

Lien vers le site
Lien direct vers le jeu

Contôle continu et baccalauréat : belle erreur…

Dans le précédent article, j’ai commis (au moins) une erreur grossière. Alors que les bacheliers professionnels ont déjà une évaluation partielle en contrôle continu (ce que je rappelais d’ailleurs), les statistiques que j’utilisais sur le bac les incluaient aussi, sans les distinguer des bacheliers technologiques ou généraux. Ce qui signifie donc que pour la première partie consacrée au capital humain, je testais la valeur actuelle du bac avec des élèves « subissant » déjà le contrôle continu. Dès lors, il est tout à fait possible de penser que si d’après les statistiques utilisées le bac n’est pas très valorisé, c’est parce qu’ils sont dans l’échantillon. Et qu’en les en sortant, on verra une autre valeur pour le bac sur le marché du travail, supérieure dans cette logique. Auquel cas, la question de ce qui est à perdre en cas de passage au contrôle continu revient sur le tapis.

Cela dit, ce qui différencie les bacheliers professionnels des autres bacheliers peut se résumer, en termes compétences, à ces deux points :
– des capacités d’abstraction supposées plus élevées pour les bacheliers technologiques et généraux;
– des compétences professionnelles plus pointues pour les bacheliers professionnels.

Les questions qui se posent sont de savoir si :
– les deux effets se neutralisent en termes de salaire d’embauche;
– le contrôle continu dans une optique professionnalisante est défavorable aux bacheliers professionnels. Sachant que la production résultant des stages en entreprise est évaluée en contrôle continu et constitue l’essentiel du contrôle continu en termes de coefficients.

La seule question importante est la seconde. Et la réponse est très probablement négative. Dans l’enseignement supérieur, l’évaluation des périodes de stages se fait couramment par une soutenance. Mais, au niveau bac, avec des jeunes qui ne maîtrisent pas encore certaines méthodes de travail nécessaires à la réussite de l’exercice, que donnerait une évaluation finale brutale ?

En conclusion, je crois vraiment qu’il va falloir que je trouve des statistiques plus fines pour reprendre la première partie du texte. Mais il n’est pas impossible qu’elle confirme la tendance dégagée.
Le reste de l’article n’est pas remis en cause.

Le contrôle continu dévaloriserait il le baccalauréat ?

La réforme avortée du bac envisagée par François Fillon a mis encore une fois en évidence l’importance de ce diplôme dans le système éducatif français.
Le refus d’une évaluation en partie (pour moitié grosso modo) en contrôle continu, de la part des lycéens ayant pris massivement part à la contestation, a été justifié essentiellement par les raisons suivantes :
– une dévalorisation du diplôme dans l’absolu, dans la mesure où un contrôle continu effectué par les enseignants en charge des classes en cours d’année, donc sans anonymat, serait entaché d’un biais, globalement préjudiciable à la  » sévérité  » de l’évaluation et, par conséquent, à la valeur réelle perçue du diplôme ;
– la crainte que l’adaptation de l’évaluation aux conditions locales (i.e. les niveaux différents par établissement) ne crée une forme de discrimination, ôtant au bac son caractère national. En deux mots, on pourrait être bachelier de tel ou tel lycée, plutôt que bachelier de l’Education nationale. Quel que soit le niveau réel de l’élève, il serait étiqueté  » bac d’ici  » ou  » bac de là « . Comment aborder le problème d’un point de vue économique ? On peut reformuler le problème à partir d’une question : qu’apporte le bac aux bacheliers ?
D’un point de vue économique, la théorie économique traite la question sous plusieurs angles. On peut en retenir trois :
– la théorie du capital humain
– la théorie du signal
– la théorie des conventions

Dans l’optique de la théorie du capital humain (Gary Becker), la valeur du diplôme se conçoit par le salaire qu’il permet d’atteindre. Le temps passé à étudier est un investissement, qui a pour coût les salaires non perçus pendant la scolarité par rapport à celui qui n’étudie pas mais travaille. En toute logique, il faut ajouter les coûts de formation. Le rendement de l’investissement se mesurera par les salaires futurs (actualisés) du diplômé. A cette aune, le bac est-il important ?

En première approche, il est commun de considérer que le bac n’a pas une valeur élevée sur le marché du travail.

Un premier point semble confirmer cette hypothèse : le taux de poursuite d’études après le bac. Les bacheliers généraux poursuivent quasiment tous leurs études après le bac, soit 98% d’après des chiffres de 2002. Les bacheliers technologiques font de même à 90%. Seuls les bacheliers professionnels ne le font qu’à 44%. Or, ces derniers n’ont guère d’importance ici, car on les a peu vus dans le mouvement de février. Et pour cause : ils pratiquent déjà le contrôle continu’

Reste donc que la très grande majorité des bacheliers poursuivent leurs études après le bac. Ce qui laisse supposer, à moins de les croire totalement idiots, que le rendement monétaire du bac est insuffisant. Mais ce n’est pas assez pour conclure.
A partir d’une enquête du CEREQ,  » Génération 98 « , qui offre un certain nombre de données concernant un échantillon de jeunes sortis du système scolaire en 1998, j’ai effectué quelques calculs rapides pour mesurer l’impact du bac sur le salaire et le chômage des bacheliers.
Exercice pour lequel je manque de temps pour donner quelque chose de vraiment sérieux, mais allons-y tout de même’

J’ai d’abord sélectionné les données concernant le premier emploi (salaire à l’embauche). Des statistiques au bout de trois ans sont également disponibles et sont intéressantes. Le risque classique est alors de confondre les caractéristiques objectives (le niveau d’études) avec des traits subjectifs (les capacités indépendantes du diplôme et qui risquent d’autant plus d’apparaître au bout de 3 ans). Notez que même pour le premier emploi, elles ne sont pas exclues, mais on peut raisonnablement penser qu’elles sont moins saillantes.

Premier souci : les données concernant les salaires des bacheliers généraux ne sont pas communiquées. Probablement en raison du taux de poursuite d’études, quasiment de 100%.
Les données disponibles sont donc celles des bacheliers professionnels ou technologiques, du domaine tertiaire ou industriel.

Pour évaluer l’effet du bac sur les salaires, on peut comparer le rapport salaires bac / salaires avant bac ou le rapport salaires après bac / salaires bac.

Deuxième souci : quand on calcule salaires bac / salaires avant bac, on doit en toute logique obtenir une mesure du rendement marginal des études menant des niveaux inférieurs (en l’occurrence, CAP et BEP ou ‘ et c’est important ‘ niveau bac avec échec au bac) jusqu’au bac. En revanche, le rapport salaires post bac / salaires bac mesure plutôt le rendement marginal des études postbac. Néanmoins, il me semble que ce second rapport est utile pour situer le bac.

Troisième souci : les données post bac concernent tous les bacheliers. Elles ne distinguent pas selon l’origine des bacheliers. L’un dans l’autre, mes calculs ne ressemblent presque plus à rien’ Pas grave, je m’amuse.

Pour comparer les bacheliers et les élèves ayant atteint le niveau bac mais n’ayant pas obtenu le bac, j’ai calculé une moyenne pondérée du salaire des différents types de bacheliers. Ce n’est encore pas satisfaisant, puisque les recalés du bac pris en compte incluent ceux qui ont suivi un cursus général. C’est pas mon jour’

Au total, mes calculs, décidément discutables, donnent les résultats suivants :
Quelle que soit la filière, un bachelier professionnel ou technologique gagne environ 8% de plus qu’un titulaire de CAP ou BEP de la même filière. Ce qui est significatif (notamment car ce rapport est, lui, homogène), puisque cela représente un rendement de l’année supplémentaire d’études d’environ 2,5%. C’est un rendement brut, puisque ne sont pas inclus les coûts de formation.
Significatif, donc, mais pas extraordinaire, on en conviendra. D’autant que lorsqu’on s’intéresse à ce que gagnent les titulaires d’un BTS ou DUT, on constate qu’en moyenne, deux années d’études apportent en moyenne un supplément de 13% de salaire (9% pour un DEUG). On notera un point particulier : alors que dans le domaine tertiaire, ce rapport est de 18%, il n’est que de 7% pour l’industriel.
Quand on compare les salaires moyens des bacheliers et des niveaux bacs, on trouve un rapport quasiment unitaire, puisque le salaire moyen est de 901′ pour les bacheliers tertiaires et industriels alors que les jeunes sortis avec un niveau bac gagnent 900′.

Et du côté du chômage ? Les données confirment ce qui se dit usuellement : le diplôme protège largement du chômage. Et les bacheliers se portent relativement bien de ce point de vue (par rapport aux autres). Sur trois ans, le taux de chômage des bacheliers tombe sous 10% (7% en tertiaire, 4% en industriel). Les jeunes ayant atteint un niveau de terminale connaissent en revanche un taux de chômage de 11%, ce qui reste faible en comparaison des CAP/BEP tertiaires par exemple (17%). Les bacheliers ne connaissent pas un taux de chômage nettement plus élevé que les BTS/DUT, à ceci près que ces derniers sont en moyenne sous la barre des 5%, ce qui est un chiffre particulièrement bon. Après réflexion, j’ai exclu les DEUG des calculs, en raison du caractère non professionnalisant de la formation.

Résumons :
– le premier emploi d’un bachelier est rémunéré 8% de plus que celui d’un CAP/BEP. Celui d’un titulaire de BTS/DUT est payé 13% de plus que celui d’un bachelier. Le bac apporte un gain significatif, mais nettement plus faible que celui apporté par une poursuite d’études à niveau bac + 2.
– le fait d’obtenir ou non le bac quand on est en terminale est absolument neutre si on occupe un emploi juste après l’année de terminale.
– les bacheliers ont un accès à l’emploi intéressant, quand on les compare aux autres catégories juste inférieures ou supérieures.

Conclusion de cette analyse hasardeuse : le bac, c’est pas mal, mais pas de quoi fouetter un chat. Puisqu’on y est, il est beaucoup plus pertinent de continuer. Cela ne surprendra pas. A tel point que je me demande pourquoi j’ai fait tout ça’
Corollaire : si le bac devait être dévalorisé par une réforme, ça n’aurait pas une importance phénoménale en regard de la théorie du capital humain, dans la mesure où la plupart des bacheliers continuent leurs études et où son rendement marginal n’est pas spécialement élevé (notamment par rapport à un simple niveau de terminale).

La deuxième théorie qui peut être appelée à la rescousse pour évaluer le bac est  » la théorie du signal  » (Michael Spence). Elle part du principe que dans une situation d’information asymétrique caractérisée par une anti-sélection sur le marché du travail, le diplôme n’est pas, au contraire de ce que raconte la théorie du capital humain, une mesure de la qualification du travailleur, mais un moyen d’envoyer un signal de productivité aux employeurs potentiels. En d’autres termes, le fait d’avoir suivi une scolarité en école d’ingénieurs aéronautique ne signifie pas que l’on est fin prêt à concevoir la nouvelle fusée Ariane, mais seulement que l’on a les compétences intellectuelles pour y travailler, une fois intégré au processus de production de l’entreprise.

Adapté à notre problème, la question devient alors : quel signal le bac envoie-t-il aux employeurs d’une part ; et aux recruteurs du supérieur d’autre part ?

Côté employeur, il semble raisonnable de considérer que le bac suppose des compétences élémentaires normalement solides : lire, écrire, compter, être capable de penser en termes de méthodes de travail plus ou moins structurées. Je ne crois pas trop m’avancer en estimant que les compétences professionnelles, quelle que soit la section, sont insuffisamment développées pour rendre opérationnel immédiatement un bachelier général ou technologique, dans des domaines pointus. Ceci étant dit sans contester que même un bachelier a des compétences de spécialité, en fonction du cursus qu’il a suivi (c’est encore plus vrai pour les bacheliers professionnels). Mais c’est finalement presque anecdotique. Un élément qui va dans ce sens est le fait que les élèves ayant un niveau bac (mais pas le bac), toutes sections confondues, y compris générales donc, sont aussi bien payés sur leur premier emploi que les bacheliers technologiques ou professionnels. La thèse orientée capital humain voudrait que les élèves des terminales générales, non bacheliers et non spécialisés, plombent largement la moyenne, surtout quand on sait qu’à l’opposé, on trouve des bacheliers professionnels.
De ce point de vue, il existe bien a priori un signal. Mais il semble plutôt faiblement influencé par l’obtention du diplôme lui-même et donc les conditions d’examen.
Un passage au contrôle continu n’a donc pas de raison de réduire le signal du bac comparé aux niveaux inférieurs, vu que ce signal est déjà comparativement peu significatif.

Côté recrutement dans les filières supérieures, les choses sont plus claires à mon sens. Les conditions d’évaluation du diplôme sont sans importance. Pourquoi ? Du point de vue des filières non sélectives, il suffit de se présenter en temps et en heure avec son certificat et l’accès à la formation est assuré. Du point de vue des filières sélectives, la réalité est brutale : il existe déjà des éléments de discrimination en fonction de la provenance des candidats. Prenons le cas des BTS (c’est assez le même principe en classe prépas). Comment s’effectue le recrutement ? Sur la base d’un dossier, comprenant les bulletins des deux premiers trimestres de terminale, et ceux de première. Des lettres de motivation sont parfois demandées, mais force est de constater qu’elles jouent un rôle secondaire dans la plupart des cas. Quand les décisions de recrutement ont-elles lieu ? Grosso modo, fin mai début juin. Eh oui’ avant les résultats du bac ! On est donc dans une situation d’asymétrie d’information. Comment les équipes enseignantes chargées du recrutement font-elles pour savoir si le candidat est un futur bachelier émérite de la République sans contrôle continu ou un candidat faible au dossier artificiellement flatteur ? Eh bien, si en premier lieu les dossiers servent de base objective d’évaluation, l’origine du candidat joue un rôle non négligeable. La faible mobilité des bacheliers poursuivant en BTS fait qu’ils viennent généralement d’établissements connus des enseignants recruteurs. Dès lors, il n’est pas compliqué de savoir que dans tel lycée, un 15/20 équivaut à un 10/20 ailleurs. Celui qui a 12/20 dans le second sera préféré à celui qui a 15/20 dans le premier. La répétition des sessions permet tout simplement de créer des réputations : si durant 3 années un lycée A accueille en BTS des élèves en provenance d’un autre lycée B et que ces élèves donnent en majorité satisfaction, alors un bon dossier de candidature venant de B passe sur le dessus de la pile par rapport à un lycée C où une telle réputation n’existe pas. Signalons au passage que, sans surprise, les recrutements en interne sont de ce fait plus sûrs (de même que les rejets de candidature). Parfois, ce sont même les enseignants qui portent la réputation.

Certains seront peut-être scandalisés de lire ceci. Il n’y a pas de raison. Un bon élève sera toujours recruté (et pour tout dire, un mauvais aussi’ mais pas forcément là où il le souhaitait, ni dans la filière désirée). En adoptant ces procédures, les enseignants ne font que combler un déficit d’informations. Leur objectif ne fait que rencontrer ceux du système et des élèves : que les meilleurs soient désignés comme tels. Or, si les meilleurs ne viennent pas de banlieue, il n’y a aucune raison de les recruter, sous prétexte que leurs enseignants auraient gonflé leurs bulletins pour x ou y raisons. C’est là que les choses deviennent franchement intéressantes. Tous les enseignants connaissent parfaitement ces règles implicites. Et s’il reste assez incontournable de noter les élèves de manière relative (donc en fonction du niveau général des classes ou de l’établissement), il ne faut pas croire pour autant que dans un lycée faible le meilleur a 20/20, puis les autres de moins en moins selon leur niveau relatif. Les professeurs savent très bien qu’une surnotation est préjudiciable à leurs élèves, ainsi qu’à leur réputation (éventuellement, via celle du lycée dans lequel ils enseignent). Cette possibilité de collecter de l’information à l’échelle du département règle en partie le problème d’antisélection. Les différents établissements sont en quelque sorte contraints de révéler le vrai niveau de leurs élèves. De manière assez ironique, ce sont parfois les lycées qui sous-notent leurs élèves, au nom de certains principes d’excellence, qui pénalisent le plus certains de leurs protégés. Il arrive en effet un moment où il est difficile de considérer qu’un candidat à 6 de moyenne peut être meilleur qu’un autre à 12. Et ce, même si c’est le cas ! Car, jusqu’où descendre ? Celui qui a 2 peut-il être meilleur que celui qui a 9 ou 10 ailleurs ?

Conclusion : il existe déjà un  » bac banlieue  » et un  » bac centre-ville « . La valeur du signal du bac national, sans contrôle continu, est nulle ou presque. Rappelons que finalement, le point décisif est que le bac ne sert pas et ne servira pas à ouvrir les portes des filières supérieures recrutant sur dossier, puisque les recrutements se font avant. Et, comme on vient de le voir longuement, contrôle continu ou pas, cette procédure induit déjà des discriminations selon l’origine du candidat. Quant aux bacheliers qui entrent dans la vie active, difficile de penser que le signal envoyé par leur diplôme puisse être dévalorisé significativement par une modification des modalités d’examen.

La dernière théorie qui peut être convoquée pour expliquer la valeur du bac est la théorie des institutions. Je le ferai brièvement, dans la mesure où je suis incapable d’apporter une analyse documentée sur la question du baccalauréat. J’émets donc quelques pistes qui me semblent acceptables, bien qu’incomplètes. Une institution en économie est une règle ou un ensemble de règles qui définit le cadre dans lequel les agents économiques prennent leurs décisions. On peut ici aussi parler de convention, en voyant la convention comme une institution non formalisée, mais qui a un rôle avéré dans la dynamique économique ou sociale. Le bac me paraît être, sur cette base, une convention. Il sanctionne la réussite scolaire à un niveau qui a historiquement une signification importante. Je ne citerai que l’émoi des grands parents lors de la réussite des petits-enfants, l’évocation tremblante de la session de mai 68 ou’ de 2003. Incontestablement, l’obtention du bac a une dimension institutionnelle forte. Et de ce point de vue, la réforme envisagée pose problème. Si au travers du bac, c’est une conception de l’égalité et du mérite qui prévaut, alors il n’est pas faux d’affirmer que le passage au contrôle continu met à mal la convention. Est-ce grave ? Oui et non. Oui, parce que c’est la hiérarchie a priori entre bacheliers qui est en jeu et donc l’intégration dans une nouvelle communauté (celle du monde du travail ou de l’enseignement supérieur) qui peut se jouer. Non, parce que cette hiérarchie existe déjà depuis longtemps. En d’autres termes, la ghettoà¯sation à venir est dans les têtes et c’est déjà une grosse difficulté. En même temps, on peut aussi voir cela comme une triple validation :
1 ‘ l’ère fordiste est finie. Si la grande firme ne voit plus que des individus et pas des groupes, alors elle ne va pas s’enquiquiner avec des bacheliers nostalgiques. A ce propos, il n’est pas vain de rappeler que l’évolution des inégalités de salaires est désormais plus expliquée par des inégalités croissantes entre individus appartenant à la même classe statistique (les bac+n, les sortant d’écoles de commerce etc.), inégalités intragroupes, que par des changements dans les inégalités entre individus de groupes différents, inégalités intergroupes.
2 ‘ quand 80% d’une classe d’âge obtient le bac par le biais de la volonté politique tout autant que par la hausse des compétences moyennes d’un adolescent, c’est que d’autres conventions doivent être trouvées pour redonner du sens à la notion de scolarité réussie. Une remarque à ce sujet : les lycéens ne sont pas dupes en tant normal. Ils aspirent à devenir étudiants (certains anticipant même en se qualifiant déjà d’  » étudiants  » dès le lycée) et ce qui pour un élève issu d’une famille modeste est généralement aujourd’hui le symbole d’une scolarité réussie, ce n’est pas le bac, mais le BTS.
Si cette interprétation vaguement institutionnaliste a un quelconque sens (j’ai déjà émis les plus grandes réserves à son sujet et je les renouvelle), je serai néanmoins bien incapable d’aller plus avant.
3 ‘ le système français très axé sur les diplômes obtenus, qui vous suivent toute votre vie et déterminent pour une bonne part les carrières crée une crispation autour des diplômes qui n’est pas saine.

En conclusion : si la fronde lycéenne du mois de février était justifiée, ce n’est probablement pas sur la base d’une analyse économique directe.
Celle-ci conclurait plutôt à un gain d’efficacité dans l’organisation du bac, dans la mesure où les économies faites sur cette organisation dépasseraient sans doute largement les pertes encourues par les lycéens futurs bacheliers, d’où qu’ils soient.
Concernant l’aspect institutionnel, le seul pour lequel je perçois un risque potentiel, il m’est difficile d’estimer les conséquences. Je le répète, mes connaissances sur la question sont trop insuffisantes et je supposerais spontanément qu’elles passent par des canaux indirects assez épars.

Pour finir, à méditer, cet extrait du Monde daté du 29 mars 2005 :  » Une note rédigée par les économistes Eric Maurin et Sandra McNally sur « les bénéfices de long terme de 1968″ démontre que la simplification et la désorganisation des examens après la crise ont permis à un nombre important de jeunes d’intégrer l’Université, alors qu’ils n’y seraient jamais parvenus dans des conditions normales. Ces miraculés de Mai ont eu une carrière professionnelle et des revenus largement supérieurs à ce qu’ils pouvaient attendre. Et, près de quarante ans plus tard, il apparaît que leurs enfants ont moins redoublé à l’école « .

Où est passé Paul Romer ?

Le « pape » des nouvelles théories de la croissance, comme il a été parfois surnommé, a lentement disparu de mes écrans de contrôle. Sa page personnelle à Stanford n’a pas été mise à jour depuis des lustres.
Le répertoire IDEAS, qui recense les publications en sciences économiques donne sur la page de Romer comme dernier texte en date un document de travail du NBER, daté de 2000 et un article pour l’American Economic Review, publié également en 2000.

Pour ceux qui ne connaissent pas Romer (à ne pas confondre avec David Romer ou Cristina Romer), sa contribution peut se résumer à la remise au premier plan des théories de la croissance dans les années 1980, après un long aggiornamento suite aux travaux s’inscrivant dans la lignée de Solow (1956).

C’est en grande partie à lui que l’on doit les théories dites « de la croissance endogène », qui cherchent à expliquer ce que Solow n’expliquait pas dans son modèle, à savoir d’où vient le progrès technique, seule source possible d’une croissance à long terme. En mettant la connaissance au centre du processus d’accumulation, Romer a contribué à définir les contours d’une « économie de la connaissance », concept aujourd’hui bien connu.

Deux articles fondateurs ont été commis par Paul Romer « Increasing Returns and Long-run Growth » (publié en 1986, mais non disponible gratuitement en ligne à ma connaissance) et « Endogenous Technological Change », dont une traduction est disponible sur le site des Annales d’Economie et de Statistique, à cette adresse.

Je n’ai pas fait une longue recherche pour retrouver trace de l’activité de Romer ces derniers temps. Si vous avez des infos, elles sont les bienvenues.

C’est pas moi, c’est le baril…

J-P. Raffarin s’est soudainement montré très négatif dans son attitude. Il annonçait hier dans un entretien pour Nice Matin que son engagement de réduire le chômage de 10% (soit quelques 250 000 chômeurs de moins) en 2005 ne serait pas atteint, et « décalé » de quelques mois. Pour expliquer et excuser ce contre-temps, le Premier ministre a appelé au banc des accusés le prix du pétrole et évoqué un taux de croissance annuel qui devrait de ce fait osciller entre 2 et 2,5%, contre les 2,5% fermes prévus initialement par le gouvernement.
Le pétrole, évidemment ! Une hausse du prix du pétrole est récessive par plusieurs biais. Tout d’abord, dans la mesure où sa demande est inélastique aux prix à court et moyen terme (on continue à faire le plein, même quand le prix de l’essence augmente), on admet en général qu’elle transfère du pouvoir d’achat des pays consommateurs vers les pays producteurs. Ce qui est dépensé en plus pour payer le pétrole ne l’est pas pour autre chose. Ce qui est une mauvaise nouvelle pour la consommation. Côté entreprises, à l’effet keynésien d’une stagnation de la demande peut venir s’ajouter une réduction des marges, s’il est difficile de répercuter la hausse des prix de l’énergie sur les prix de vente. On notera au passage que selon le degré de concurrence des marchés, ce sont les consommateurs ou les entreprises qui paient la facture. En cas de baisse des marges, ce sont les entreprises qui supportent (au moins pour partie) les conséquences de la hausse du prix du baril. Dans tous les cas, quel que soit le partage entre les différents effets, le climat économique s’en ressent : consommateurs tendent à reporter leurs achats et les entreprises rechignent à investir et embaucher.
Il est indéniable qu’une hausse du prix du pétrole, telle qu’on la constate à l’heure actuelle n’est guère propice à une reprise de l’activité, tant elle crée d’incertitudes pour les agents économiques.
Sans parler des risques d’accélération de l’inflation – alternative à une récession, via une hausse des salaires – que la BCE aurait certainement tôt fait de juguler, la hausse des taux d’intérêt ramenant sur une pente récessioniste, plutôt qu’inflationniste.
Mais quel est l’impact chiffré d’un baril à 50 dollars ? Si l’on se fie aux prévisions de l’OFCE et d’autres organismes en la matière, on doit considérer qu’un baril durablement à 50 dollars auraient un impact récessif non négligeable en France, de l’ordre de -0,3 à -0,5% en rythme annuel. On tombe donc exactement sur les nouvelles prévisions du gouvernement en matière de croissance, autour de 2%.
Pour autant, le pétrole est-il une excuse vraiment valable ? Au sujet des Etats Unis, où la croissance a été de 4,4% en 2004 et les prévisions pour 2005 tablent initialement sur 3,3%, l’OCDE écrit en février 2005 que « L’économie devrait continuer de connaître un rythme de croissance supérieur au potentiel, mais une nouvelle augmentation durable des prix de l’énergie, un accès de faiblesse du marché du travail ou une hausse plus forte que prévu des taux d’intérêt à long terme compromettraient ces prévisions ». Là aussi, donc, un prix élevé de l’énergie est craint. Mais, nul ne semble s’alarmer outre mesure. Puisqu’on en est aux chiffres, rappelons le 2,4% de croissance de 2004 en France, qui a débouché in fine sur une hausse du chômage. Comme quoi, rien n’est acquis…
La situation des Etats Unis à l’égard du pétrole est contrastée : très dépendant de cette énergie, ils produisent néanmoins une part non négligeable de ce qu’ils consomment (40%). Globalement, la dépendance américaine est plus élevée qu’en France (notamment du fait de la politique énergétique orientée nucléaire). Ajoutons au passage que la hausse de la facture pétrolière française est quelque peu atténuée ces temps-ci par un euro fort (elle est en tout cas moins douloureuse que ce qu’elle eut été il y a cinq ou six ans). Et, même si on peut discuter des retombées réelles sur l’économie française de cet aspect des choses, la hausse des revenus des pays pétroliers se traduit par une demande adressée aux pays consommateurs elle aussi en hausse. Même Greenspan a considéré en mars dernier que cette hausse n’était à son sens qu’un souci mineur. De fait, en termes réels, il n’est pas sérieux de comparer le « choc » actuel à ceux des années 1973 ou 1979.
Reste, me direz vous, les faits : au voisinage de 2% de croissance, une baisse de 0,4 ou 0,5 points est ennuyeuse pour l’emploi (dans une optique de loi d’Okun, c’est dans ce voisinage que se stabilise le chômage).
Actuellement, les nouvelles prévisions du gouvernement ne sont pas connues, Raffarin et Copé s’étant contentés de signaler que la baise de 10% ne serait pas atteinte, mais qu’il resterait une baisse « significative ». Selon les ASSEDIC, le nombre de demandeurs d’emploi devrait baisser de 120 000 en 2005 (mon chiffre est sujet à caution, je cite de mémoire). Ce qui signifie que le pétrole serait responsable d’un déficit net d’environ 130 000 emplois. Ce chiffre a un caractère dérisoire, car au fond, si une hausse du prix du pétrole, aussi importante soit-elle, peut mettre à mal la stratégie du gouvernement, pendant que de nombreux autres pays semblent ne pas s’en émouvoir plus que ça, c’est qu’il y a un problème.
Ce problème est simple : le prix du pétrole n’est qu’un des éléments macroéconomiques qui influent sur l’emploi. Comme le mentionne par exemple cet article de Libération en se limitant à des aspects très conjocnturels, « L’environnement international est peu porteur : le reste du monde, et en particulier les Etats-Unis, devrait connaître une année moins faste qu’en 2004. Le PIB de l’Allemagne et de l’Italie, où la consommation est en panne, pourrait ne croître que de 1,5 %. L’Insee prédit aussi l’essoufflement des dispositifs de soutien à la consommation. En 2004, Sarkozy avait injecté près de 15 milliards d’euros dans l’économie. L’effet du déblocage de la participation annoncé par Thierry Breton et Jean-Pierre Raffarin ne sera pas aussi important ».
En résumé, il est légitime de se demander si lorsque le Premier ministre s’est engagé à réduire le chômage de 10% en 2005, il ne s’est tout simplement pas engagé à tirer à pile ou face sur les prévisions de l’époque. Le résultat est regrettable. En premier lieu, il laisse supposer que la politique de l’emploi du gouvernement n’est que paroles. Que l’on croit ou non à la portée des mesures structurelles envisagées par le gouvernement, on doit s’accorder sur au moins un point : des mesures structurelles, bonnes ou mauvaises, ne peuvent se juger en un an. Pourquoi se réfugier derrière le pétrole ? Probablement parce qu’en matière de chômage, le gouvernement a déjà tout essayé… pour faire croire qu’il fallait attendre. Et après trois ans d’attente, il devient compliqué de demander encore de la patience. Pour le coup, c’est une mauvaise excuse. D’autant que ce « c’est la faute du pétrole » ne manquera pas de rappeler un « c’est à cause de Bruxelles » si souvent répété et qui doit être momentanément oublié, pour cause de référendum. L’autre aspect détestable de ces déclarations réside dans le signal fortement négatif qu’il adresse au public. Certes, personne n’a attendu le 10 ou 11 avril pour constater que le carburant coûte plus cher. Mais quid d’une telle annonce sur les anticipations des ménages et entreprises ? Autant les gesticulations « positivantes » ont toutes les chances d’être reçues avec la crédibilité qu’elles méritent, autant, dans un contexte peu joyeux, l’officialisation des mauvaises nouvelles en signe d’impuissance peut être prise au sérieux. Bien sûr, nul ne saura si cette sortie aura un impact mesurable sur les anticipations. Mais était-ce bien habile ?

Les économistes ne sont pas nécessaiement des fumiers…

Mais certains en subtilisent dans les fermes…
« BOSTON (Reuters) [06/04/2005] – Un professeur de la prestigieuse université américaine d’Harvard, spécialisé en économie de l’environnement, est accusé d’avoir tenté de voler une cargaison de fumier dans une ferme du Massachusetts, a rapporté mercredi un responsable de police.

Martin Weitzman, arrêté près de la ville de Rockport le 1er avril, semblait passablement confus devant son camion rempli de fumier lorsqu’il a proposé de payer la cargaison, a indiqué Michael Marino. Un gérant d’écurie l’avait empêché de repartir après l’avoir surpris sur place, a ajouté le policier.

L’universitaire a été inculpé d’entrée non autorisée dans une propriété privée, de vol simple inférieur à 250 dollars et de destruction de bien avec malveillance – parce que son camion avait laissé des traces dans la propriété. »

Moi j’aurais invoqué un TP d’économie appliquée… Y aurait pas eu de mal à essayer, non ?

Quelques infos biblio rapides

La première est la sortie en poche de « La mondialisation et ses ennemis » de Daniel Cohen. Alexandre l’avait chroniqué à la sortie de l’édition grand format.
Je n’avais pas, pour ma part, lu l’ouvrage à sa sortie. Maintenant que c’est chose faite, j’approuve à la virgule près la note de lecture d’Alexandre. Bourré des qualités habituelles de Cohen, il est à lire, même si on peut lui reprocher (en chipotant quelque peu) certaines facilités.
Conseillé, par mail, par un doctorant, , Julien Grenet , un ouvrage d’économétrie. Je reproduis sa présentation du texte en question : « Introduction to Econometrics, par Christopher Dougherty (professeur à la London School of Econometrics). Il n’existe malheureusement pas de traduction française pour cet ouvrage complet (des MCO à la cointégration) et très clair (la formalisation se limite au strict nécessaire). Un des rares ouvrages d’économétrie à proposer une introduction efficace et intuitive aux principaux concepts de l’économétrie. » Disponible sur Amazon ou directement chez l’éditeur, Oxford University Press. Pas donné pour tout le monde, hélas. Mais s’il est si bien que ça, c’est presque peanuts.
Déjà signalé à un lecteur dans un commentaire sur ce blog, l’ouvrage introductif à la « Sociologie des réseaux sociaux », petit digest intéressant sur une discipline dans laquelle piochent de plus en plus les économistes. Je signale au passage la page de Mark Granovetter, une, si ce n’est LA référence, en matière d’analyse des réseaux sociaux et de sociologie économique en général. On trouve sur sa page quelques-uns de ses articles les plus importants (en téléchargement gratuit ). Pour ceux qui ne lisent pas l’anglais, un recueil de ses textes traduit est disponible, « Le marché autrement ».

Jobdumping.de

On a pu lire récemment des articles indignés dans la presse (voir par exemple cet article, celui-là, et dans le genre hystérique celui-ci) à propos d’un site internet allemand de recherche d’emploi, baprisé par provocation par son fondateur www.jobdumping.de. Le principe du site? Permettre à des offreurs et demandeurs de travail de confronter leurs propositions. Rien de bien étonnant jusque là. Mais ce qui choque nos journalistes, c’est que les emplois sont octroyés suivant le principe des enchères. Des employeurs peuvent donc enchérir pour recruter un salarié particulier; mais aussi et surtout, des personnes peuvent enchérir à la baisse pour postuler sur un emploi particulier. Ce mode d’enchère « inversée » (qu’on appelle également enchère hollandaise, par opposition à l’enchère anglaise dans laquelle le prix commence bas et augmente) est ce qui semble choquer au point de voir commentateurs et politiques qualifier ce site de « marché d’esclaves » dont les fondateurs sont des « négriers« .

(Lire la suite…)