Résumé : On distingue trois stades dans l’évolution des méthodes d’équivalence. C’est le dernier stade qui correspond à l’apparition des méthodes autonomes, auxquelles cet article est consacré.





télécharger 150.85 Kb.
titreRésumé : On distingue trois stades dans l’évolution des méthodes d’équivalence. C’est le dernier stade qui correspond à l’apparition des méthodes autonomes, auxquelles cet article est consacré.
page2/7
date de publication14.12.2016
taille150.85 Kb.
typeRésumé
e.20-bal.com > comptabilité > Résumé
1   2   3   4   5   6   7

Tableau 1.1. – Typologie des méthodes d’équivalence





Type de méthode

Caractéristiques

Exemples

Les méthodes

d’équivalence

de niveau 1 ou

méthodes simplistes.

Elles s’attachent à établir des lois de variation de certains coûts (matières premières, main-d’œuvre, entretien, amortissements) en fonction des caractéristiques physiques des produits fabriqués. Pour chaque article, une équivalence est établie avec l’unité de référence (article, produit, service), dont la pondération permettra de

calculer le coefficient d’équivalence global du

produit concerné.

Méthodes anciennes, non nommées, encore utilisées dans les ateliers

Les méthodes d’équivalence

de niveau 2.

Elles permettent le regroupement de charges entre plusieurs centres' d’analyse de coûts au moyen d’équivalences liées à l’intensité d’utilisation de ces différents centres de regroupement

Méthode des « cost number » et du « point method »10

Méthode des sections homogènes et ses amendements.

Méthode ABC et ses amendements dont la méthode TDABC.

Les méthodes d’équivalence autonomes, de niveau 3.

Ce sont des méthodes complexes et autonomes qui visent à obtenir les coûts de revient des produits ou services obtenus dans des processus complexes, en calculant des rapports d’équivalence entre ces différents processus de production. Ces rapports d’équivalence permettent de ramener l’ensemble des produits fabriqués à un multiple d’un élément de base et d’unifier ainsi la production.

Méthode GP/UVA.

Méthode des points.

1. La naissance des méthodes autonomes d’équivalence et leur effacement : 1950-1980


Après la Deuxième guerre mondiale, le Plan comptable (PCG) adopté en France en 194711 aboutit à une séparation entre comptabilité générale et analytique qui va permettre aux méthodes de comptabilité analytique de gagner en autonomie12. Dans les années cinquante, à côté de la méthode des sections homogènes, la méthode des coûts standards va se diffuser en France, alors qu’elle avait été conçue quarante ans plus tôt outre-Atlantique. Ce sont ces deux méthodes qui vont occuper le devant de la scène du calcul des coûts sur la période qui nous intéresse. Mais c’est sur les critiques de ces deux techniques que vont se fonder les méthodes autonomes d’équivalence qui naissent alors et parviendront à une certaine reconnaissance au cours de la décennie 1950-1960, même si leur rôle restera de second plan (1.1). En revanche, le direct costing va rencontrer dans les années qui suivront cette décennie un intérêt qui lui permettra de rejoindre le niveau des sections homogènes et des standards. En contrepoint, les méthodes d’équivalence disparaîtront quasiment (1.2).

1.1. Un rôle de second plan : 1950-1960


Ce qui domine dans les méthodes de calculs de coûts proposées en France dans les années qui suivirent la Deuxième Guerre, c’est la continuité avec la méthode des sections homogènes et « la levée de la quarantaine » pour les coûts standards. C’est sur un fond de critiques qui leur seront adressées que l’on va voir, en arrière-plan, se détacher des méthodes autonomes d’équivalence.

1.1.1. La domination de la méthode des sections homogènes et des standards


Au début du vingtième siècle, en réaction à la lourdeur de la méthode des cost-centers les ingénieurs tayloriens avaient développé des méthodes susceptibles de satisfaire cette demande. Pour réduire le nombre de centres nécessaires à un découpage au niveau de la machine, voire de l’établi, des mécanismes d’équivalence furent parfois proposés dans la logique des cost numbers (Levant et Zimnovitch, 2009). La méthode française des sections homogènes fait partie de ces tentatives.

Les sections homogènes13, méthode de calcul de coûts inspiré des travaux de Rimailho pour la CEGOS en 1927-1928, furent un modèle de référence de la comptabilité analytique française, intégrée dans les Plans comptable jusque dans les années 90 bien que son institutionnalisation se soit accompagnée de son appauvrissement technique, notamment par négligence du concept d’homogénéité.

Or l’originalité de cette méthode tient, notamment, à la logique d’homogénéité au sein des sections de regroupement des charges indirectes, celles-ci se différenciant d’un simple regroupement de machines qui seraient servies par un personnel accomplissant des tâches identiques. Ce ne sont pas des ateliers tayloriens, mais « la réunion de ressources solidaires, non parce qu’elles sont identiques mais parce qu’elles sont solidaires » (Bouquin, 1997a, p. 71). Cette homogénéité permet ainsi de réduire le nombre de centres de frais et de surmonter la critique qui était faite aux méthodes de taux horaire machine, comme celle de Church, d’être trop difficile à mettre en œuvre, car nécessitant trop de centres de frais14. En fait, le principe d’homogénéité est celui des équivalences.

Pourtant, cette notion va progressivement s’effacer de la méthode. Dès 1938, la CEGOS apporta certaines modifications allant dans le sens de cet effacement. Entre autres, elle définira la « Section Homogène » comme : « un groupe de moyens de production tel que les opérations qu’il effectue aient une commune mesure à laquelle ses dépenses puissent être rapportées » (CEGOS, 1937, p. 78). Rimailho critiqua cette évolution contraire à l’esprit initial15, sans succès. Les plans comptable 1947 et 1957 estimeront souhaitable que les sections homogènes correspondent à une division réelle de l’entreprise, tout en admettant qu’il n’y ait pas toujours de correspondance. Il faudrait alors utiliser des « sections fictives » (PCG 1947) ou « sections de calcul » (PCG 1957). Enfin le Plan comptable 1982, le dernier plan comptable incorporant la comptabilité analytique, découpe l’entreprise en « centres d’analyse16 » correspondant à des entités fonctionnelles. Autant de dispositions qui éloignaient la méthode de la notion d’homogénéité.

Paradoxalement, dans le même temps des voix s’élevaient pour dénoncer la difficulté de mise en œuvre de la méthode des sections homogènes. Aussi fut-il proposé de la coupler avec des méthodes d’équivalence afin de réduire le nombre de sections. On en trouve trace sous le nom d’ « unité d’œuvre complexe »  (Parenteau, 1945; Parenteau et Charmont, 1952). Thorens (1954) et Bourquin (1954) proposèrent de leur côté de calculer des rapports de coûts probables entre les produits et donc des coefficients d’équivalence. Bloch (1962), retint comme unité d’œuvre le temps relatif aux opérations concernant un article type avec, pour les autres articles, un barème donnant des équivalences en unités-types qui étaient multipliées par les fabrications du mois. Audoye (1955) proposa la méthode des « nombres caractéristiques » qui faisait référence à une unité d’œuvre équivalente valable pour toutes les activités de l’entreprise.

De telles méthodes furent ainsi proposées par des syndicats professionnels jusque dans les années 1970 : Chambre syndicale nationale des fabricants de confiserie (1960), Association internationale de la teinture textile (1967), Syndicat national du caoutchouc, des plastiques et des industries qui s’y rattachent (1972). Parallèlement, pendant toute cette période, on trouve encore trace dans la littérature destinée à l’enseignement des références à des méthodes d’équivalence de premier niveau (voir entre autres : Martin, 1948).

La méthode des coûts standards fut, elle, mise au point outre-Atlantique par les ingénieurs tayloriens autour des années 1910, au moment où le modèle fordiste était inventé. Bien que connue en France dès cette époque, elle ne s’y diffusa pourtant pas avant les années cinquante. L’une des raisons est à chercher du côté de l’opposition des comptables à leur égard. Ils y voyaient l’intrusion d’une valeur extra-comptable, extérieure à la comptabilité industrielle qu’ils s’efforçaient d’implanter dans les entreprises en vue de calculer le « prix de revient réel ». À une période (le début du 20e siècle), où les comptables luttaient pour acquérir une légitimité professionnelle, cette méthode était d’autant moins la bienvenue qu’elle nécessitait l’appui des ingénieurs vis-à-vis desquels ils cherchaient à s’imposer. Quarante ans plus tard, cet obstacle sera levé. La « mise en quarantaine » des coûts standards par les comptables cesse avec la reconnaissance par les pouvoirs publics, en 1945, de l’Ordre des experts-comptables français. Peu après, en 1947, on observe en effet que le Plan comptable desserre l’emprise de la technique de la partie double sur le calcul des coûts. L’inventaire permanent, contraire à l’esprit des standards, qui introduit une donnée extra-comptable, n’est plus obligatoire. A compter du PCG 1947 la séparation entre comptabilité générale et comptabilité analytique devient la règle, ce qui mit fin au modèle de comptabilité moniste (Richard, 1980). Il n’était donc plus nécessaire de faire référence à une quelconque méthode de calcul des coûts. Un inventaire annuel physique associé à une valorisation des stocks selon une méthode librement choisie suffisait

Par ailleurs, dans la lignée du Plan Marshall, des missions de productivité vont se dérouler dans les années 1950 pour permettre aux Européens, aux Français, de découvrir les méthodes américaines de gestion. En matière de calcul de coûts, les missionnaires vont en tirer le sentiment que : « Si les Français s’efforcent de calculer des prix de revient exacts, les Américains s’attachent avant tout à définir les responsabilités et à mesurer les variations des charges et des rendements par rapport à des prévisions, des normes […]. Au demeurant, les solutions pour atteindre le résultat recherché paraissent ne guère importer aux Américains pragmatiques, recourant indifféremment aux techniques d’enregistrement et de mesure comptables ou extra-comptables les plus variées » (Fain, 1951, p. 124).

On notera que cette prise de distance à l’égard de techniques étroitement comptables ne pouvait qu’être profitable aux méthodes d’équivalence et que l’utilisation et la maîtrise des standards qui s’annonçaient dans l’organisation des ateliers ne pouvaient que faciliter la détermination des rapports d’équivalence (Chatzis, 1999).

1.1.2. L’apparition de méthodes autonomes d’équivalence


Même si les méthodes d’équivalence simplistes continueront d’être diffusées, comme le montre un document du CNPF en 1957 (CNPF, 1957), les années 1950 vont voir la naissance de méthodes autonomes d’équivalence. Deux de ces méthodes nous sont parvenues : l’une, la méthode des points, n’a pas de paternité reconnue, l’autre, la méthode GP, est signée par les initiales de son inventeur : Georges Perrin. Au-delà du rôle des individus dans cette innovation sur les méthodes d’équivalence, les raisons sont à rapprocher de la situation économique française qui connaît sur cette période une très forte croissance, un souci d’organisation, de gestion rationnelle (c’est l’ardente obligation du Plan) et une volonté de faire entrer le pays dans l’ère du management. Autant de facteurs qui sont favorables à l’innovation en matière de calcul de coûts (Boulat, 2008). De plus, les méthodes des sections homogènes et des coûts standards étaient fort critiquées : la première pour son coût et sa lourdeur, la seconde pour son inadaptation en période d’inflation galopante (suite à la guerre de Corée, le prix des matières premières importées en 1951 fut multiplié par 2,5 et celui des produits industriels augmenta de plus de 70 %).

La méthode des points fut présentée lors d’une série de conférences données dans le cadre de cycles de formation, en 1951 puis en 1952, au CNAM17 de Paris par Thibert et Martin (Thibert, 1951-1952)18. On en retrouve également une présentation dans une publication de Laugier datée de 195719. Cette méthode utilise des rapports constants et utilise une analyse au niveau des postes de travail. La division de travail observée est donc plus fine que la section de fabrication ;

« La section homogène apparaît donc non plus comme une création plus ou moins fictive destinée à permettre le calcul des prix de revient. C’est une réalité technique, c’est le poste de travail ou le groupe de postes travaillant en liaison absolue et d’une façon absolument continue ? C’est la section strictement homogène » Thibert (1951-1952, p. 20)

La méthode est appliquée tant aux matières premières et aux salaires, qu’aux charges charges indirectes (énergie, entretien,…) de production. Le point s’y présente, comme unité de mesure de faits techniques identiques et sert à hiérarchiser les coûts unitaires (ou chacun des faits élémentaires compris dans un ensemble de faits identiques). En ce qui concerne les charges indirectes de production, on donne au coût du poste de travail le moins élevé une valeur en points (100 par exemple) et on affecte à tous les coûts des autres postes de travail des coefficients calculés à partir de cette base. Lorsque les temps-machines de fabrication sont connus avec précision, ils peuvent être retenus comme base de calcul, l’heure de fabrication du poste de travail étalon est assimilée à un Point de Frais (PF). Le coût du PF est obtenu en divisant le montant des charges indirectes de production par le nombre total de points. Connaissant le nombre de points affecté à une production donnée, calculer le coût de cette fabrication est donc égal au coût du point multiplié par le nombre de PF consommés par la fabrication. Le travail de répartition comptable a été remplacé par le pointage des temps-machines en atelier.

Pour les matières, soit on rapporte tout à un étalon (kilo de matière d’un produit donné), soit on utilise un coefficient de conversion (nomenclature chiffrée en prix réels / nomenclature chiffrée en prix standard si les matières entrant dans la même commande n’appartiennent pas à la même famille technique). Il est utilisé une technique analogue basée sur les temps d’usinage ou gammes d’opérations pour les salaires directs.

Au coût de production ainsi déterminé s’ajoutent notamment les frais budgétés généraux ramenés à un coût horaire budgété. La stabilité de cette méthode repose sur le principe de stabilité des rapports constants.

La méthode GP est l’œuvre de Georges Perrin20. Au lieu de rechercher la meilleure ventilation possible et de considérer que les frais totaux de l’entreprise sont les seuls à pouvoir être calculés sans ambiguïté, il déplace le problème en modélisant l’entreprise pour en faire une entité mono-productrice. Cette unification se fait en déterminant « l’effort de production » qui représente tous les efforts directs et indirects de production nécessaires à la fabrication. Cette notion est homogène car, quels que soient les produits fabriqués, et quels que soient leurs modes de fabrication, l’unité choisie pour mesurer l’effort de production est le GP. La validité de la méthode repose sur le principe des « constantes occultes ». Quelles que soient les variations des prix unitaires, les consommations résultant des diverses opérations élémentaires restent, entre elles, dans des rapports constants dans le temps. Son choix est arbitraire, conventionnel, car sans incidence sur le calcul des coûts. Il peut correspondre soit à une machine particulière, soit à une pièce déterminée qui sera dénommée « article de base ».

Chaque opération de travail se voit affecter sa constante horaire en GP. On peut calculer le nombre de GP nécessaires à la fabrication de chaque article, si les temps de travail de chaque opération sont connus. Le temps nécessaire n’est pas le temps réellement passé mais le temps alloué. Ce dernier temps permet d’éliminer les aléas de fabrication qui sont rejetés dans les frais généraux. Il n’est plus question qu’une pièce malchanceuse supporte les frais d’un incident de fabrication qui aurait pu se produire aussi bien lors de la fabrication d’une autre pièce ; la logique est que les incidents de fabrication sont inévitables, qu’ils sont des charges de l’entreprise et que toutes les fabrications doivent en supporter leurs parts. Le nombre de GP revenant à chaque article est dénommé « l’équivalent » dudit article. Toute la production d’une usine peut être évaluée en GP pendant une période donnée. Ensuite, il peut être calculé le coût de revient du GP au cours d’une période qui est égal au quotient des frais et charges21 de l’entreprise, hors matières premières et frais commerciaux, par le nombre de GP produits au cours de la même période. Le coût de revient d’un article est égal au nombre de GP qu’il a nécessité pour sa production multiplié par le coût du GP. Les frais commerciaux, à l’origine, sont ventilés sur les produits soit par des clés de répartition soit traités comme des charges directes. En effet, la méthode GP est fortement axée sur la production22, compte tenu de l’expérience professionnelle de son concepteur et de la relative faiblesse des frais commerciaux à l’époque où elle a été conçue.

La méthode fut diffusée par le cabinet que créa Georges Perrin en 1945. De nombreux articles la concernant furent publiés dans diverses revues professionnelles, d’abord par lui-même, jusqu’à son décès en 1958, puis par son épouse Suzanne qui assura avec les éditions Dunod la publication en 1962 de l’ouvrage posthume de Georges Perrin « Prix de revient et contrôle de gestion par la méthode GP » (Perrin, 1962). Toutefois, la méthode GP ne connut qu’un succès limité. Environ 150 applications « GP » furent réalisées en France, dont 60 du vivant de son concepteur. Signalons néanmoins que des applications furent aussi réalisées à l’international : en Angleterre, en Belgique, au Brésil, en Italie, au Maroc, en RFA, en Suisse et aux États-Unis.
1   2   3   4   5   6   7

similaire:

Résumé : On distingue trois stades dans l’évolution des méthodes d’équivalence. C’est le dernier stade qui correspond à l’apparition des méthodes autonomes, auxquelles cet article est consacré. iconRésumé : Cet article se présente comme une extension du champ de...

Résumé : On distingue trois stades dans l’évolution des méthodes d’équivalence. C’est le dernier stade qui correspond à l’apparition des méthodes autonomes, auxquelles cet article est consacré. iconRésumé Cet article s’inscrit dans la suite d’un travail de thèse...

Résumé : On distingue trois stades dans l’évolution des méthodes d’équivalence. C’est le dernier stade qui correspond à l’apparition des méthodes autonomes, auxquelles cet article est consacré. iconRésumé Cet article est consacré à la mesure et à l’analyse des déterminants...
«grands actionnaires» si ceux-ci existent, et aux conseils d’administration, si le contrôle est diffus

Résumé : On distingue trois stades dans l’évolution des méthodes d’équivalence. C’est le dernier stade qui correspond à l’apparition des méthodes autonomes, auxquelles cet article est consacré. iconRésumé : Cet article aborde trois questions : comment se pose, dans...
«écologie sociale», c’est-à-dire fondée sur des conditions de travail et de vie décentes à tous les niveaux de la filière

Résumé : On distingue trois stades dans l’évolution des méthodes d’équivalence. C’est le dernier stade qui correspond à l’apparition des méthodes autonomes, auxquelles cet article est consacré. iconRésumé : Que s’est-il publié depuis dix ans en contrôle de gestion...
«Finance Contrôle Stratégie» (fcs) et «Comptabilité Contrôle Audit» (cca). À côté d’autres supports publiant aussi des recherches...

Résumé : On distingue trois stades dans l’évolution des méthodes d’équivalence. C’est le dernier stade qui correspond à l’apparition des méthodes autonomes, auxquelles cet article est consacré. iconRésumé L’objectif de cet article est de présenter deux axes de réflexion...
«état normal et permanent» de leur production, dès lors l’enjeu des tic n’est pas l’objectivation, la réification ou la codification,...

Résumé : On distingue trois stades dans l’évolution des méthodes d’équivalence. C’est le dernier stade qui correspond à l’apparition des méthodes autonomes, auxquelles cet article est consacré. iconQuel est le bilan des marchés du carbone ?
«cap» qui correspond aux permis de polluer alloués aux entreprises); dans un deuxième temps, les entreprises peuvent acheter ou vendre...

Résumé : On distingue trois stades dans l’évolution des méthodes d’équivalence. C’est le dernier stade qui correspond à l’apparition des méthodes autonomes, auxquelles cet article est consacré. iconRésumé : L’objet de cet article est de définir un outil analytique...

Résumé : On distingue trois stades dans l’évolution des méthodes d’équivalence. C’est le dernier stade qui correspond à l’apparition des méthodes autonomes, auxquelles cet article est consacré. iconRésumé L’objet de cet article est double : d’une part montrer que...

Résumé : On distingue trois stades dans l’évolution des méthodes d’équivalence. C’est le dernier stade qui correspond à l’apparition des méthodes autonomes, auxquelles cet article est consacré. iconRésumé Afin de pouvoir restructurer une entreprise en déclin, IL...






Tous droits réservés. Copyright © 2016
contacts
e.20-bal.com