Your Adsense Link 728 X 15

Comprendre la crise de l'Europe

Posted by Said Zenasni mercredi 8 août 2012 0 commentaires
Dany Lang est Maître de conférences en économie à l'Université de Paris 13. Il est responsable du groupe de travail "Analyses et modélisations Post-Keynésiennes" du Centre d'Economie de Paris Nord (UMR CNRS).

Il enseigne actuellement la macroéconomie, l'économie du travail, l'économie européenne, la finance et la modélisation, tant en premier qu'en deuxième cycles. Ses cours sont assurés à Paris 13, à l'université de Haute Alsace (Mulhouse) et à l'Université de Paris 1 Panthéon-Sorbonne.

Ses recherches portent principalement sur ​​les dynamiques macro-économiques (croissance, chômage, ...), et la question du temps en économie.

"Les Économistes Atterrés" est un collectif de chercheurs, universitaires et experts en économie, regroupés, avec d'autres citoyens non économistes, en une association créée le 22 février 2011 dont l'action consiste à impulser la réflexion collective et l'expression publique des économistes qui ne se résignent pas à la domination de l'orthodoxie néo-libérale.



Qu’est-ce que l’économétrie?

Posted by Said Zenasni lundi 6 août 2012 0 commentaires
LES ÉCONOMISTES élaborent des modèles pour expliquer les relations récurrentes. Leurs modèles relient une variable économique ou plus à d’autres variables économiques (voir «Qu’est-ce qu’un modèle économique», F&D, juin 2011). Par exemple, ils relient le montant que les individus dépensent en biens de consommation au revenu disponible et au patrimoine, et s’attendent à ce que la consommation augmente avec le revenu disponible et le patrimoine (autrement dit, que la relation soit positive).

Il existe souvent plusieurs modèles capables d’expliquer la même relation récurrente, appelée régularité empirique, mais il y en a peu qui fournissent des indications utiles sur l’ampleur de la relation. C’est pourtant ce qui compte le plus pour les responsables politiques. Quand par exemple les banques centrales fixent la politique monétaire, elles doivent connaître l’effet probable d’un changement des taux d’intérêt directeurs sur l’inflation et le taux de croissance. C’est dans des cas comme celui-là que les économistes ont recours à l’économétrie.

Cette discipline utilise la théorie économique, les mathématiques et l’inférence statistique pour quantifier les phénomènes économiques. Autrement dit, elle transforme les modèles économiques théoriques en outils pratiques pour la décision.

L’objectif de l’économétrie consiste à convertir les propositions qualitatives (comme «la relation entre deux variables ou plus est positive») en propositions quantitatives (comme «la dépense de consommation augmente de 95 cents pour toute augmentation d’un dollar du revenu disponible»). Les économétriciens transforment les modèles élaborés par les théoriciens en versions qui peuvent donner lieu à estimation. Comme le disent Stock et Watson (2007), «les méthodes économétriques sont utilisées dans de nombreuses branches de l’économie, en particulier la finance, l’économie du travail, la macroéconomie, la microéconomie et la politique économique». On prend rarement des décisions de politique économique sans une analyse économétrique pour évaluer leur impact.

Une tâche redoutable

 À cause de certaines caractéristiques des données économiques, il est diffi cile de quantifi er les modèles. En eff et, contrairement aux chercheurs en science physique, les économétriciens peuvent rarement mener des expériences contrôlées dans lesquelles on change une seule variable et l’on mesure la réponse du sujet à cette variable. Les économétriciens estiment les relations à partir de données générées par un système complexe d’équations reliées, dans lequel toutes les variables peuvent changer en même temps. Cela soulève la question de savoir siles données fournissent assez d’informations pour identifier les inconnues du modèle. On peut diviser l’économétrie en deux branches : théorique et appliquée.

L’économétrie théorique examine les propriétés des tests et procédures statistiques existants pour estimer les inconnues du modèle. Elle cherche aussi à élaborer de nouvelles procédures statistiques qui sont valables (ou robustes) malgré les particularités des données économiques, comme leur tendance à changer simultanément. L’économétrie théorique se fonde sur les mathématiques, la statistique théorique et les méthodes numériques pour prouver que les nouvelles procédures sont capables de produire des inférences correctes. En revanche, l’économétrie appliquée utilise les techniques élaborées par les théoriciens pour traduire les propositions économiques qualitatives en versions quantitatives. Comme les spécialistes d’économétrie appliquée sont plus proches des données, ils constatent souvent — et en informent leurs collègues théoriciens — que les données ont des attributs qui posent des problèmes par rapport aux techniques d’estimation existantes. Par exemple, l’économétricien peut découvrir que la variance des données (combien les valeurs individuelles d’une série diffèrent de la moyenne globale) se modifie avec le temps. Le principal outil de l’économétrie est la régression linéaire multiple, qui fournit un moyen formel d’estimer comment le changement d’une variable économique, la variable explicative, affecte la variable que l’on cherche à expliquer, la variable dépendante, en prenant en compte l’impact de tous les autres déterminants de la variable dépendante. Cette précision est importante parce que la régression cherche à estimer l’impact marginal d’une variable explicative particulière après avoir pris en compte l’impact des autres variables explicatives du modèle (voir «Régressions : pourquoi elles obsèdent les économistes», F&D, mars 2006). Par exemple, le modèle peut chercher à isoler l’effet d’une hausse des impôts de 1 point de pourcentage sur les dépenses moyennes de consommation des ménages, en gardant constants les autres déterminants de la consommation, comme le revenu avant impôt, le patrimoine et les taux d’intérêt.

Quatre étapes

La méthodologie de l’économétrie est assez simple. La première étape consiste à poser une théorie ou une hypothèse pour expliquer les données que l’on étudie. On spécifie les variables explicatives du modèle et l’on précise le signe et/ ou l’ampleur de la relation entre chaque variable explicative et la variable dépendante. À ce stade, l’économétrie appliquée s’appuie beaucoup sur la théorie économique pour formuler une hypothèse. Par exemple, un principe en économie internationale stipule que les prix dans différents pays aux frontières ouvertes évoluent ensemble, en tenant compte des fluctuations du taux de change nominal (la parité de pouvoir d’achat). La relation empirique entre prix intérieurs et extérieurs (après cet ajustement) doit donc être positive et ils doivent évoluer à peu près au même rythme.

La deuxième étape est la spécification d’un modèle statistique qui capte l’essence de la théorie que l’on teste. Le modèle propose une relation mathématique spécifique entre la variable dépendante et les variables explicatives, sur lesquelles malheureusement la théorie économique reste généralement muette. La méthode de
loin la plus répandue consiste à assumer la linéarité, à savoir que tout changement d’une variable explicative produira toujours le même changement de la variable dépendante. Comme il est impossible de prendre en compte toutes les influences sur la variable dépendante, on ajoute une variable fourre-tout pour compléter la spécification. Elle a pour but de représenter tous les déterminants de la variable dépendante dont on ne peut pas rendre compte, soit parce que les données sont trop complexes, soit parce qu’elles manquent. Les économistes supposent généralement que ce terme «d’erreur» tend en moyenne vers zéro et est imprévisible, par simple souci de cohérence avec la prémisse que le modèle statistique prend en compte toutes les
variables explicatives importantes. La troisième étape comporte l’utilisation d’une procédure statistique appropriée et d’un ensemble de logiciels économétriques pour estimer les paramètres inconnus (coefficients) du modèle à partir des données économiques. C’est souvent la partie la plus facile de l’analyse, grâce à l’existence de données facilement disponibles et d’excellents logiciels économétriques. Toutefois, le fameux principe GIGO (à données erronées, résultats erronés) s’applique aussi à l’économétrie. Ce n’est pas parce que l’on peut calculer une chose qu’il est économiquement raisonnable de le faire. La quatrième étape est de loin la plus importante : le test du bon sens. Le modèle estimé est-il économiquement sensé : fournit-il des prédictions économiques convaincantes? Par exemple, est-ce que les signes des paramètres estimés qui relient la variable dépendante aux variables explicatives concordent avec les prédictions de la théorie économique sous-jacente? (Ainsi, dans le cas de la consommation des ménages, la validité du modèle statistique serait mise en question s’il prévoyait une baisse de la consommation quand le revenu augmente.) Si les paramètres estimés ne sont pas logiques, comment l’économétricien doit-il modifier le modèle pour obtenir des estimations sensées? Est-ce qu’une estimation plus sensée implique un effet économiquement significatif? Cette étape met particulièrement à l’épreuve la compétence et l’expérience des praticiens de l’économétrie appliquée.

Tester l’hypothèse

Le principal outil de cette quatrième étape est le test d’hypothèse, procédure statistique formelle dans laquelle le chercheur fait une proposition spécifique sur la valeur d’un paramètre économique, et un test statistique détermine si le paramètre ainsi estimé concorde avec cette hypothèse. Sinon, le chercheur doit, soit rejeter l’hypothèse, soit recommencer en apportant de nouvelles spécifications au modèle. Si les quatre étapes se passent bien, il en résulte un outil que l’on peut utiliser pour évaluer la validité empirique d’un modèle économique abstrait. On peut aussi se servir du modèle empirique pour élaborer un moyen de prévoir la variable dépendante, ce qui peut aider les autorités à prendre des décisions sur les changements à apporter à la politique monétaire et/ou budgétaire afin de maintenir l’économie en équilibre. Les étudiants en économétrie sont souvent fascinés par la capacité des régressions linéaires multiples à estimer les relations économiques. Il faut ici rappeler trois principes fondamentaux de l’économétrie.
• Premièrement, la qualité des estimations des paramètres dépend de la validité du modèle économique sous-jacent.
• Deuxièmement, si l’on exclut une variable explicative pertinente, on aboutira vraisemblablement à une mauvaise estimation des paramètres.
• Troisièmement, même si l’économétricien identifie le processus de génération des données, les estimations des paramètres ont peu de chance d’être égales aux véritables valeurs des paramètres qui ont généré ces données. Il utilise néanmoins les estimations parce que, statistiquement parlant, elles vont se préciser à mesure que le nombre de données disponibles augmentera.
L’économétrie est conçue pour fournir en moyenne des prédictions exactes, mais seulement si elle s’appuie sur une science économique solide pour concevoir les spécifications du modèle empirique. Même si c’est une science, avec des règles et procédures bien établies pour adapter les modèles aux données économiques, dans la pratique l’économétrie est un art qui nécessite beaucoup de discernement pour obtenir des estimations qui soient utiles aux décisions politiques.


Sam Ouliaris est économiste principal à l’Institut du FMI.

Recette totale, cout total et profit

Posted by Said Zenasni samedi 4 août 2012 0 commentaires
Les économistes supposent habituellement que l'objectif d'une entreprise est de maximiser son profit ( gagner de l'argent ) et il trouvent que cette hypothèse fonctionne bien dans la majorité des cas.
Qu’est ce que le profit d'une firme?

la somme qu'une firme retire de la vente de ses biens est appelée sa Recette totale ( elle est égale à la quantité de biens que la firme produit multipliée par le prix auquel elle vend ses biens).

La somme qu'une firme paie pour acheter ses facteurs de productions est appelée son cout total.

 Le profit se mesure comme la recette totale d'une firme moins son cout total, c'est à dire:


Profit = RC - CT
 

Taylorisme, fordisme, toyotisme

Posted by Said Zenasni 0 commentaires

   Au début du XXème siècle, l'ingénieur américain Taylor souhaite organiser le travail de manière scientifique dans l'atelier, à  partir d'étude en situation, portant sur les méthodes de production, la gestion des temps de travail des salariés, les possibilités de déplacement des employés, etc. L'organisation scientifique du travail proposée par Taylor repose tout d'abord sur une division technique du travail (organisée par postes), au contraire de la situation passée d'une organisation sociale du travail (organisée par métiers). Les objectifs de Taylor sont de trois ordres : lutter contre la flânerie systématique des ouvriers dans l'atelier, proposer une méthode de fabrication optimale ("one best way"), mettre en place une rémunération au mérite ("fair's day work"), en fonction des cadences constatées. Pour réaliser ces objectifs, l'organisation du travail doit adopter une division du travail horizontale, c'est à  dire une fragmentation maximale des tâches au sein de l'atelier entre les différents postes; et une division verticale reposant sur une séparation complète de la conception technique du produit par les ingénieurs et de son exécution par les ouvriers. A cela s'ajoute une surveillance des ouvriers (par la présence de chronométreurs et d'agents de maîtrise). 


 
  Henri Ford est l'un des premiers à  s'inspirer très largement des travaux de Taylor. Dans ses usines automobiles, Ford améliore les préceptes tayloriens de trois manières : le travail à  la chaîne est imposé par la mise en place de convoyeurs déplaçant automatiquement les produits, imposant ainsi les cadences et la parcellisation des activités (travail à  la chaîne) ; la standardisation est poussée à  l'extrême (un modèle unique : la Ford T, noire), permettant la production en grande série; en contrepartie, les ouvriers reçoivent un salaire supérieur aux moyennes observées dans l'industrie à  l'époque ("five dollars day"). 


    Mais le Taylorisme et le Fordisme ne sont pas exempts de défauts, notamment pour ce qui concerne la capacité d'adaptation rapide aux marchés. A la fin des années1970, le Toyotisme est une première réponse aux difficultés du modèle taylorien-fordien, grâce à  sa grande réactivité face au marché. Les procédés de fabrication reposent tout d'abord sur une meilleure intégration des personnels, plus polyvalents et donc capables d'effectuer la conception, le dépannage et la maintenance, de même que le contrôle qualité des productions. L'entreprise fonctionne ensuite en flux tendus en produisant à  la commande grâce à  la méthode Kanban. Enfin, afin de réduire les coûts et de lutter contre les gaspillages, l'objectif des 5 zéros est avancé : zéro stock, zéro défaut, zéro papier, zéro panne, zéro délai. La qualité est donc privilégiée, de même que l'enrichissement des tâches des salariés. Le toyotisme est parfois qualifié de post-taylorisme.

Les principes du taylorisme sont appliqués progressivement à  partir du début du siècle, d'abord aux Etats-Unis, puis très largement en Europe. L'intérêt de recourir à  l'organisation scientifique du travail est alors évident : les cadences de production s'accélèrent, la productivité des machines et des hommes augmente. La rationalisation des productions est ainsi réalisée. La généralisation progressive des méthodes scientifiques a deux conséquences principales : la production de masse se développe très largement, avec en contrepoint une consommation de masse accrue, grâce à  l'augmentation du pouvoir d'achat, résultant du partage des gains de productivité. En effet, les consommateurs profitent de la baisse des prix des produits, les salariés voient leurs salaires augmenter, tandis que les entrepreneurs disposent des profits pour investir à  nouveau. Au résultat, une croissance forte est observée dans les pays développés, s'appuyant sur un relatif consensus dans le corps social quant aux méthodes de production. On parle alors fréquemment de croissance fordiste pour qualifier cette période (jusqu'à  la crise de 1974, soit pendant les Trente Glorieuse pour simplifier). 
 
Pourtant les salariés témoignent de la difficulté du travail à  la chaine et des contraintes physiques imposées par les cadences de production. Autre difficulté: le travail est très largement déqualifié, ce qui ne permet aucune réalisation personnelle dans le cadre de travail. La qualité de la production s'en ressent. Il faut donc réussir à  combiner une réelle efficacité économique avec une meilleure intégration sociale et humaine des salariés. D'autre part, le fordisme repose sur la production en grande série de biens identiques. Or aujourd'hui, les consommateurs souhaitent davantage de diversité et de possibilité de différenciation. Comment concilier une productivité élevée, des économies d'échelle et une production en plus petites séries, plus variées ?

La flexibilité des installations du fait des progrès de l'automatisation rend désormais possible l'élargissement et l'enrichissement des tâches des salariés. Grâce à  une certaine polyvalence des travailleurs, il devient de même envisageable d'organiser le travail en équipe, et non plus par poste (rotation et équipe semi-autonome). A cela s'ajoute le souci de l'ergonomie : les machines sont adaptées de plus en plus à  la morphologie humaine et le travail physique devient moins pénible et moins dangereux.
 
Il ne faut pas se méprendre cependant sur l'attrait du travail dans l'entreprise : dans le secteur industriel, une large part des tâches de production reste déterminée par l'automatisation des chaînes. Le travail est jugé répétitif et déqualifiant par la plupart des ouvriers. De plus, le secteur des services n'est pas épargné par la monotonie des activités. Pensons aux téléacteurs des call centers, aux équipiers de la restauration rapide, etc., soumis aux cadences élevées. Les cadres sont aussi de plus en plus nombreux à  pointer la répétitivité de leur travail, le stress associé aux objectifs qui leurs sont soumis, etc. Malgré les améliorations constatées, les nouvelles formes d'organisation du travail s'apparentent donc souvent à  du néo-taylorisme, sans réelles innovations.

Version audio de l'entretien avec Gérard Briche autour du livre de Robert Kurz, « Vies et mort du capitalisme »

Posted by Said Zenasni 0 commentaires
Dans le cadre des rencontres Cité-Philo à Lille, le vendredi 25 novembre 2011, Robert Kurz devait présenter son ouvrage « Vies et mort du capitalisme. Chroniques de la crise », récemment publié chez les éditions Lignes. Malade, il n'a pu hélas se rendre à cette rencontre.
 
L'évènement autour de cet ouvrage n'a pourtant pas été annulé, le philosophe Gérard Briche, très bon connaisseur de la critique de la valeur et excellent pédagogue, a fait une présentation de l'ouvrage et des principales thèses - parfois difficiles au premier abord et donc plus facile à comprendre à l'oral - de la critique de la valeur, et plus particulièrement les thèses de Robert Kurz (différentes de celle de Moishe Postone au sujet de la théorie de la crise/limite interne propre aux milieux notamment germanophones).
 
Je rappelle ici que la critique de la valeur est seulement une mouvance internationale de discussion qui s'appuie sur des revues et des livres mais n'est d'aucune manière une organisation au sens groupusculaire du terme avec une ligne théorique commune, sur certains points la diversité des positions entre ces auteurs est donc également présente. 
 
La version audio de la rencontre de Lille est déjà mise en ligne:

Haut-parleur.png

 

 

LA MONNAIE : SES FONCTIONS ET SES FORMES

Posted by Said Zenasni vendredi 3 août 2012 0 commentaires
La définition de la monnaie consiste à décrire les fonctions de la monnaie et retracer l'histoire de ses formes.
 
  • Les fonctions de la monnaie :

1-La monnaie est une mesure des valeurs (étalon de valeur ou unité de compte) : Dans une société fondée sur le troc, la valeur de chaque bien doit être exprimée en unité de tous les autres biens. S'il y a n biens à échanger, il faut donc exprimer n (n-1) /2 rapports d'échange. Par contre si la valeur de chaque bien est exprimé en unité d'un bien unique(ou d'une unité de compte fictive comme la livre tournois sous l'ancien règne) alors il suffit d'exprimer n-1 rapports d'échange. Lorsque le nombre de biens à changer augmente, le nombre de rapports d'échange dans le cas du troc augmente très fortement, ce qui constitue un obstacle aux échanges.

2-la monnaie est intermédiaire des échanges : Dans une économie de troc les agents rencontrent le problème de la double  «  coïncidence des désirs ». L'individu qui souhaite échanger du beurre contre des œufs doit rencontrer un individu qui souhaite échanger des œufs contre des beurres. S'il rencontre un détenteur des œufs qui souhaite obtenu du lait, l'échange ne peut avoir lieu. L'existence d'un intermédiaire des échanges permet de résoudre ce problème : chaque individu peut échanger les marchandises qu'il possède contre un bien(le sel par exemple) dés lorsqu'il sait que ce bien sera accepté en échange par les détenteurs de tout autre bien.

3-la monnaie est réserve de valeur : un individu peut souhaiter vendre une marchandise, sans en acquérir immédiatement une autre. L'existence d'un instrument de réserve de valeur (qui peut être un bien ou une créance comme le billet de banque, permet de séparer dans le temps l'acte de vente et l'acte d'achat).

Dans cette perspective fonctionnaliste, la monnaie est donc considérée comme un instrument technique qui permet de rompre le troc et résoudre les difficultés (techniques elles aussi et non sociales) qu'il soulève. La monnaie est définie par ses fonctions. L'économiste britannique R.G.Hawtrey (1879-1975) écrit par exemple : « la notion de monnaie comme celle de cuillère à thé ou parapluie, mais contrairement à celle de tremblement de terre ou de bouton d'or, appartient à un groupe de notions qui se définissent par la fonction ou le but que chacun se propose ».  


  • les formes de la monnaie : un processus de dématérialisation progressive : 

La présentation traditionnelle de la monnaie repose sur la dématérialisation progressive de la monnaie. Les hommes auraient d'abord utilisé des monnaies-marchandises (sel, thé, bétail...). Ils auraient pris ensuite conscience de la supériorité de certaines marchandises(les métaux précieux) qui incorporent une valeur élevée sous un faible volume, qui peuvent être facilement fractionnées et qui ne sont pas périssables. On serait alors entré dans l'ère de monnaie-métalliques. L'étape suivante résulte du constat des difficultés et des risques du transport de l'or et de l'argent. Les marchands entrepreneurs prennent l'habitude de déposer leurs avoirs métalliques chez un banquier, ils reçoivent en contrepartie des lettres de change circulent (surtout si la signature du banquier est de bonne qualité), une partie de l'or déposé n'est jamais retirée(les retraits sont compensés par de nouveaux dépôts).
Au milieu du XVIIe siècle, le fondateur de la banque Suède, J.Palmstruch, combine l'escompte des effets de commerce et l'émission de billets de banque. Au lieu de remettre de la monnaie métallique aux commerçants en échange des effets de commerce, il leur propose des billets par lesquels la banque s'engage à remettre au porteur une certaine quantité de métaux précieux. Palmstruch associe donc crédit et création de monnaie ; le billet de banque s'imposera peu à peu comme instrument de règlement privilégié. Comme il repose sur la confiance des agents économiques on parle de monnaie-fiduciaire.
Une dernière étape est franchie avec le développement de la monnaie-scripturale. Au lieu d'effecteur des règlements en billets de banque, ceux-ci se réalisent désormais par des jeux d'écritures dans les comptes du banquier. Lorsqu'un client X a une dette à l'égard d'un autre client Y, le banquier débite le compte de X et crédite celui de Y. la monnaie scripturale est donc constitué par l'ensemble des avoirs détenus sur des comptes à vue (comptes de chèque, compte courants..). Il ne faut pas confondre la monnaie scripturale avec les instruments qui servent à la faire circuler (chèques, carte de crédits, ordres de virements) ces derniers ne sont pas de la monnaie.

Marché et concurence

Posted by Said Zenasni mercredi 1 août 2012 0 commentaires
Un marché est défini comme un groupe d'acheteurs ou de vendeurs d'un bien ou d'un service particulier.
le groupe acheteurs détermine la demande pour le produit et le groupe des vendeurs détermine  l'offre de produit.


  • Les marchés concurrentiels:

un marché concurrentiel est un marché dans lequel il y a de nombreux acheteurs et nombreux vendeurs, chacun ayant un impact négligeable sur le prix de marché.
chaque vendeur exerce un contrôle limité sur le prix , parce que les autres vendeurs offrent des produits similaires. 

  • Le marché monopolistique:
Certains marchés ont un vendeur unique et ce vendeur fixe le prix. Un vendeur est appelé un monopole.
Votre compgnie des eaux locales, par exp, peut être un monopole.

  • Oligopole:
Certains marché sont à mi-chemin entre les situations extrêmes de la concurrence parfaite et du monopole.
Sur ce marché de ce type, appelé oligopole, on trouve des vendeurs peu nombreux qui ne se concurrencent pas toujours de manière agressive.
Les routes aériennes en sont un exp, si une route entre 2 villes est servie uniquement 2 ou 3 transports, ces derniers peuvent évitr de se concurrencer trop forcement afin de conserver des prix élevés.

  • Le marché de concurrence monopolistique:

ce type de marché comporte de nombreux vendeurs, mais chacun vend un produit légérement différent des autres.
Comme les produits ne sont pas exactement les même, chaque vendeur a une certaine capacité de fixer un prix pour son propre produit.
Le marché des magazines en est un exp. Les magazines se concurrencent pour attirer les lecteurs et n'importe qui peut entrer sur ce marché en proposant une nouvelle revue, mais chaque magazine offre des articles différents et peut fixer son propre prix.
 

Popular Posts

Membres