L'encyclopédie des Sciences
  Techniques de Gestions
 

L'objectif de ce chapitre est d'introduire aux principales techniques mathématiques de production et de gestion, de maintenance et de qualité dont l'utilisation est devenue indispensable aux ingénieurs, gestionnaires et cadres des entreprises modernes. Par ailleurs, c'est un excellent chapitre pour la culture générale du physicien ou du mathématicien... et un acquis pour l'ingénieur!

Beaucoup de techniques ne seront cependant pas présentées ici car ayant déjà été démontrées dans d'autres chapitres du site. Effectivement, les techniques de gestion font un énorme usage des statistiques (dites "statistiques descriptives" dans le domaine), de la théorie de la décision, de la théorie des graphes ainsi que de l'économétrie (en particulier le VAN, le R.O.I, etc.) et des algorithmes d'optimisation et des chapitres entiers y étant déjà consacrés sur ce site il serait redondant d'y revenir.

Remarque: Nous parlons souvent de 3M (Méthodes Mathématiques de Management) pour décrire l'ensemble des outils mathématiques appliqués à la gestion (il existe d'ailleurs un cursus de formation d'une vingtaine de journées). Une terme anglophone courant et qui devient à la mode en Europe pour décrire ce domaine d'application est aussi le "decisioneering" faisant référence au fait que ce sont des outils d'aide à la décision pour les ingénieurs.

Diagramme de Pareto

Le diagramme de Pareto, comme nous allons le voir, est un moyen simple (entre autres) pour classer les phénomènes par ordre d’importance. Mais la distribution de Pareto est aussi souvent utilisée en entreprise comme base de simulation stochastique pour des variables aléatoires représentant des investissement chiffrés de projets (à peu près aussi souvent utilisée que la distribution triangulaire, la distribution bêta ou log-normale dans l'industrie moderne).

Lorsque le nombre de modalités (occurrences) d'une variable qualitative ou quantitative est élevé, nous utilisons une analyse de Pareto, qui se concrétise par une courbe de Pareto.

Rappelons alors qu'une variable aléatoire est dite par définition suivre une loi de Pareto si elle est donnée par (cf. chapitre de Statistiques) :

  (1)

avec  et  (donc ) et pour l'espérance (moyenne) et l'écart-type :

 et   (2)

Pour illustrer ce type de représentation, nous supposerons qu'une étude de réorganisation du réseau commercial de l'entreprise LAMBDA conduise le directeur commercial à s'intéresser à la répartition des 55'074 bons de commande reçus en 1995 selon la ville où sont domiciliés les clients (nous avons retenu ici les 200 premières villes du pays imaginaire de Lidurie). Ces données sont reproduites dans le tableau ci-dessous :


  
(3)

où les 200 valeurs (nombre de bons de commande en provenance d'un ville i) ont été classées par valeurs décroissantes et cumulées dans une colonne .

La première ville se caractérise par 8'965 bons de commande (ce qui correspond à 16.28% du total des bons), la seconde par 4'556, ce qui fait que les deux premières villes ont passé 13'520 bons de commande (ce qui correspond à 24.55% des bons), les trois premières villes, ont passé 16'589 bons de commande (ce qui correspond à 30.12%), etc. Une autre façon de décrire de phénomène consiste à dire : 0.5% des villes (classées par valeur décroissant du critère) ont passé 16.28% des bons, 1% des villes ont passé 24.55% des bons, etc.

Ces calculs, sont partiellement présentés dans le tableau ci-dessous :


  
(4)

traduits graphiquement ci-dessous :


  
(5)

La ligne en pointillés de ce graphique correspond à ce que nous aurions observé en cas d'équi-répartition du phénomène étudié, c'est-à-dire si chaque ville s'était caractérisée par le même nombre de bons de commande.

Remarques:

R1. La présentation de cette analyse a été faite en classant les observation par valeurs décroissantes mais nous aurions pu tout aussi bien partir d'un classement par valeurs croissantes et, dans ce dernier cas, la courbe obtenu aurait été symétrique, le centre de symétrique étant le point de coordonnées (0.5,0.5).

R2. Cette analyse met en évidence qu'un nombre faible d'éléments est l'origine de la majeure partie du phénomène étudié (par exemple, ici 15% des villes génèrent 2/3 des bons de commande) ; ceci explique qu'elle soit l'une des grandes techniques utilisées dans le domaine de la "gestion de la qualité totale" (Total Quality Management) dans l'analyse de l'importance des causes d'un problème de qualité ; elle est également utilisée par les gestionnaires pour structurer l'organisation, en particulier pour différencier les processus en fonction de caractéristique de la demande (suivi différencié de la clientèle selon son importance, par exemple) et lorsqu'elle est utilisée pour définir 3 classes, cette technique prend souvent le nom de "Méthode ABC".

R3. Le phénomène étudié est d'autant moins équitablement réparti que la courbe s'éloigne de la droite d'équi-répartition ; les économistes utilisent parfois un indicateur synthétique pour mesurer ce phénomène, "l'indice de Gini", qui est le quotient de l'aire se trouvant entre la courbe de Pareto et la droite d'équipartition, par 0.5 (qui est l'aire du triangle rectangle comprenant la droite de Gini).

Dans un environnement industriel, les points d'amélioration potentiels sont quasi innombrables. On pourrait même améliorer indéfiniment, tout et n'importe quoi. Il ne faut cependant pas perdre de vue que l'amélioration coûte aussi et qu'en contrepartie elle devrait apporter de la valeur ajoutée, ou au moins supprimer des pertes.

PERT PROBABILISTE

En restant toujours dans le cadre des statistiques et probabilités relativement aux techniques mathéamtiques de gestion, il existe une loi empirique en gestion de projet (domaine que nous supposerons connu par la lecteur car trivial) très utilisée dans le cadre des "PERT probabilistes" (Program Evaluation and Review Technic) et incluse dans nombres de logiciels spécialisés afin de faire des prédictions de coûts et de temps (cf. chapitre de Théorie Des Graphes).

Cette loi, appelée "loi bêta" ou encore "loi de Pert" est souvent présentée sous la forme suivante dans les ouvrages et sans démonstration (...) :

  (6)

et donne la durée probable d'une tâche où nous avons qui sont respectivement les durées optimistes, vraisemblables et pessimistes de la tâche . Nous allons démontrer plus bas la provenance de cette relation!

Remarque: Cette approche classique date de 1962 et est due à C.E. Clark.

Ses principes sont les suivants :

La durée de chaque tâche du projet est considérée comme aléatoire et la distribution Bêta est systématiquement utilisée; les paramètres de cette loi que nous allons démontrer sont déterminés moyennant une hypothèse de calcul assez forte, à partir des valeurs extrêmes a et b que la durée d'exécution peut prendre, et du mode . Il suffit donc de poser les trois questions suivantes :

1. Quelle est la durée minimale ?

2. Quelle est la durée maximale ?

3. Quelle est la durée la plus probable ?

pour obtenir respectivement les paramètres , qui permettent ensuite de calculer la moyenne et la variance de cette durée aléatoire.

Ensuite, nous déterminons le chemin critique du projet (par la méthode des potentiels métra supposée connue par le lecteur), en se plaçant en univers certain et en utilisant les durées moyennes obtenues avec la loi Bêta, ce qui permet de trouver le (ou les) chemin(s) critiques.

Ensuite, nous nous plaçons en univers aléatoire et la durée du projet est considérée comme la somme des durées des tâches du chemin critique précédemment identifié. Nous utilisons alors le théorème de la limite centrale (rappelons que ce théorème établit, sous des conditions généralement respectées, que la variable aléatoire constituée par une somme de n variables aléatoires indépendantes suit approximativement une loi normale, quelles que soient les lois d'origine, dès que n est assez grand) pour approximer la loi de distribution de probabilités de la durée d'exécution du projet.

L'espérance mathématique (ainsi que la variance) de cette loi normale se calcule comme la somme des espérances mathématiques (ou des variances) de chaque durée des tâches du chemin critique (cf. chapitre de Statistiques) tel que :

  (7)

et dans le cas particulier où les variables sont linéairement indépendantes, la covariance étant nulle (cf. chapitre de Statistiques) nous avons aussi :

  (8)

Rappelons que nous avons vu dans le chapitre de statistique et calcul différentiel et intégral que :

et .   (9)

Si deux variables aléatoires indépendantes X,Y suivent des lois gamma de paramètres et respectivement, la variable suit une loi que nous appelons "loi bêta de première espèce" (cf. chapitre de Statistiques).

La fonction de distribution de T est alors :

  (10)

Pour un intervalle quelconque nous obtenons la forme plus générale

  (11)

Vérifions que nous ayons bien :

  (12)

Par le changement de variable :

et   (13)

nous obtenons :

  (14)

Déterminons maintenant l'espérance :

  (15)

Toujours avec le même changement de variable nous obtenons :

  (16)

Or :

  (17)

Donc :

  (18)

Calculons maintenant la variance en utilisant la formule d'Huyghens démontrée plus haut :

  (19)

Calculons d'abord .

  (20)

Toujours par le même changement de variable nous obtenons,

  (21)

Or :

  (22)

Donc :

  (23)

Pour finir :

  (24)

Calculons maintenant pour le "module" de cette loi de distribution. est par définition le maximum global de la fonction :

  (25)

Il suffit pour le calculer de résoudre l'équation :

  (26)

Après dérivation nous obtenons :

  (27)

en divisant par nous avons :

  (28)

c'est-à-dire :

  (29)

Maintenant, le lecteur aura remarqué que la valeur a est la valeur la plus petite et la b la plus grande. Entre deux il y a donc le mode . En gestion de projets, cela correspond respectivement aux durées optimiste , pessimiste et attendu d'une tâche.

Ensuite, nous imposons une hypothèse assez forte :

ou   (30)

Ce qui implique que nous ayons :

  (31)

ainsi que :

  (32)

Et finalement :

  (33)

Remarque: Les deux dernières expressions de la variance et de l'espérance sont celles que vous pouvez trouver dans n'importe quel livre de gestion de projets (sans démonstration bien sûr…)

Exemple:

Tracé de la fonction de distribution et répartition pour la fonction de Pert de paramètres :


  
(34)

Nous définissons aussi le "risque d'action" par le rapport (dont l'interprétation est laissée aux responsable de projet et au client...) :

  (35)

Voyons un exemple d'application de la loi bêta :

Soit la durée des tâches du chemin critique composé des tâches B,D,F,G d'un projet donné et le choix suivant :

  (36)

Nous imaginons que les tâches sont telles que leurs unités de durées sont :

  (37)

Nous en déduisons :

  (38)

La durée estimée du chemin critique est donnée par :

  (39)

L'écart-type estimé du chemin critique :

  (40)

Calculons la probabilité pour que la durée du chemin critique soit inférieur à la valeur 27. La loi de Gauss centrée réduite nous permet d'écrire:

  (41)

Les tables de statistiques donnent la valeur approximative 0.54. Il y a donc 54% de chances pour que la durée du chemin critique soit égale à 27 unités de temps.

Rappel : Rappelons par boutade aussi la "loi de Hofstadter" : tout prends toujours plus de temps que prévu, même en tenant compte de la loi de Hofstadter.

gestion de stock

L'enjeu de la gestion des stocks et apprivisionnement est important : mettre en place des processus qui opimisent la fonction économique, sous contrainte d'une disponibilité sans faille. Tel sont les objectifs du gestionnaire de stocks. Cela suppose de disposer d'une visibilité sur ses stocks et de méthodologies appropriées aux différentes situations.

Le contrôle du stock et approvisionnement d'une entreprise est donc aussi fondamental dans la vie de celle-ci. Afin de réduire (ou optimiser c'est selon) un maximum les coûts divers qui tournent autour du stockage, il faut faire encore une fois appel à des connaissances en statistiques mathématiques comme nous allons le voir de suite.

Dans un premier temps, nous allons établir comme déterminer le stock initial nécessaire à une entreprise en sa basant sur des données statistiques et ce à partir de modèles simples ensuite de quoi nous ferons de même aves les modèles de réapprovisionnement dont la démarche d'approche est un peu différente et permet comme pour la première d'arriver à des résultats très satisfaisants à grande échelle.

Les modèles que nous allons construire permettront ainsi :

1. De réguler les aléas des flux de fourniutes

2. De permettre la production par lots (réduit les coûts de production)

3. De faire face à des demandes saisionnières

Des stocks supplémentaires pouvant engrenger des "coûts d'intérêt" (capital immobilisé), des "coûts d'obsolence" (les produits deviennent entre temps obsolètes), des "coûts de stockage", des "coûts d'assurances" (protection contre les accidentes pouvant subenvire sur le produits) et de nombreux autres..

Remarque: Nous ne présenterons pas sur ce site le modèle linéaire de décroissance du stock qui a un intérêt quasi nul mis à part un bon effet pédagogique.

STOCK INITIAL OPTIMAL

Imaginons de suite un scénario afin de développer un modèle (inspirée de l'ouvrage Gestion de la Production de V. Giard). Considérons que l'entreprise MAC est le spécialiste d'un certain produit dont le coût direct de fabrication est de 25 unités numéraires et le prix de vente 60. La vente quotidienne de ce produit est, en semaine, de 2.5 en moyenne et le relevé des demandes pendant trois mois laisse supposer que celle-ci suit une loi de Poisson, c'est-à-dire que nous avons une distribution de probabilités suivante du nombre de ces produits au cours d'une journée (tronquée à , car la probabilité de ventes supérieurs à 10 sera supposée comme nulle).

Nous avons alors le tableau suivant qui montre que la quantité la plus souvent vendue à un agent économique est de 2 et le calcul de l'espérance nous donne pour ce tableau :

x

P(X)

0

0.0821

1

0.2052

2

0.2565

3

0.2138

4

0.1336

5

0.0668

6

0.0278

7

0.0099

8

0.0031

9

0.0009

10

0.0003

  (42)

Nous supposerons que le stock est à flux tendu. En d'autres termes, d'un jour à l'autre, aucune unité n'est reportée pour les ventes du lendemain car il n'est plus censé y en avoir. La question dès lors est de savoir, le tableau ci-dessus étant donné, combien de produits mettre en fabrication (ou commander) chaque jour pour maximiser le bénéfice et minimiser les pertes.

Dès lors, dans l'optique retenue de minimisation de coût de possession associé aux invendus est de 25, tandis que le coût de rupture est égal au manque à gagner consécutif à la vente ratée, c'est-à-dire la marge 60 soustrait des 25 soit 35 unités numéraires.

Une gestion rationnelle doit permettre de calculer le stock initial (autrement dit le nombre de produits à commander ou à fabriquer pour la journée) qui minimise l'indicateur de coût de gestion défini comme étant la somme du coût de possession associé au stock moyen des invendus , et du coût de rupture associé au stock moyen de ventes ratées :

  (43)

Du point de vue mathématique cela revient à chercher un extremum de la fonction de coût de gestion tel que pour la valeur optimale de l'approvisionnement initial le coût est inférieur ou supérieur à . En d'autres termes (c'est trivial)

ou   (44)

A partir de maintenant la question est de savoir comment procéder pour déterminer . Au fait l'idée est subtile mais simple tant qu'elle est bien exposée et réfléchie.

Reprenons la distribution de probabilités de la loi de demande quotidienne et supposons que nous voulions calculer les ruptures moyennes (donc l'espérance) et associées au stock initiaux respectifs par rapport à la distribution donnée.

L'idée est d'alors d'écrire la distribution de densité de probabilité par rapport à la quantité manquante de stock et non plus vendue :

x

P(X)

x- 4

(x- 4)P(X)

x- 5

(x- 5)P(X)

0

0.0821

-

-

-

-

1

0.2052

-

-

-

-

2

0.2565

-

-

-

-

3

0.2138

-

-

-

-

4

0.1336

-

-

-

-

5

0.0668

1

0.0668

-

-

6

0.0278

2

0.0556

1

0.0278

7

0.0099

3

0.0297

2

0.0198

8

0.0031

4

0.0124

3

0.0093

9

0.0009

5

0.0045

4

0.0036

10

0.0003

6

0.0018

5

0.0015

1

-

-

  (45)

Il ressort de tableaux précédent que le fait de faire passer el stock initial de 4 à 5, diminue la rupture moyenne en la faisant passer de 0.1708 à 0.0620. Mais de ce résultat nous ne pouvons rien faire pour l'instant car à notre niveau actuel du développement, cela signifierait qu'en prenant un stock initial de 10, nous aurions une rupture moyenne nulle (… ce qui n'avance pas à grande chose…) et que si nous prenons aucun stock initial, nous aurions une rupture de stock totale…

Mais cependant, nous pouvons tirer un résultat intermédiaire intéressant. Effectivement regardons la manière dont varie la différence de la rupture moyenne (résultat facilement généralisable – nous pouvons faire la démonstration sur demande au besoin):

  (46)

Autrement dit (soyez bien attentif!!!), la diminution de rupture moyenne occasionnée en augmentant d'une unité un stock préalablement dimensionné à , est égale à la probabilité cumulée que la demande soit strictement supérieure à celle du stock initial .

En d'autres termes, au cas où cela ne serait pas clair, le fait d'augmenter le stock initial diminue certes la rupture moyenne mais impose en contrepartie que il y a moins d'acheteurs qui risquent de satisfaire l'offre et les seuls qui le peuvent sont ceux qui correspondant à la probabilité cumulée .

Finalement, nous pouvons écrire :

  (47)

Le tableau ci-dessous représente la diminution de rupture moyenne que nous obtenons en accroissant d'une unité le stock (et respectivement la probabilité de clients capables de consommer le stock…) :

x

P(X)

Ir (x)-Ir (x + 1)

0

0.0821

0.9179

1

0.2052

0.7127

2

0.2565

0.4562

3

0.2138

0.2424

4

0.1336

0.1088

5

0.0668

0.0420

6

0.0278

0.0142

7

0.0099

0.0043

8

0.0031

0.0012

9

0.0009

0.0003

10

0.0003

0

  (48)

Maintenant regardons les invendus . Leur espérance est bien évidemment donnée par (servez-vous des tableaux au besoin pour comprendre) :

  (49)

Ce que nous pouvons écrire :

  (50)

d'où :

  (51)

qui est donc le stock moyen possédé calculé sur la base du stock résiduel de fin de période. C'est donc un résultat remarquable qui va nous permettre de déterminer seulement à partir de .

Cette dernière relation peut également s'écrire :

  (52)

où le terme de gauche représente la demande moyenne satisfaite et le terme de droite l'offre moyenne utilisée. Cette relation est donc une relation particulière d'équilibre entre une offre et une demande.

Nous pouvons par ailleurs vérifier cela à partir des tables ci-dessous en mettant un exemple particulier en évidence :

 

x

4 - x

(4 - x)P(X)

0

4

0.3284

1

3

0.6156

2

2

0.5130

3

1

0.2138

4

0

-

5

-

-

6

-

-

7

-

-

8

-

-

9

-

-

10

-

-

   
  (53)

Finalement nous pouvons écrire une expression de , fonction de la seule rupture moyenne :

  (54)

ou :

  (55)

Il s'ensuit que :

  (56)

Ce qui donne avec les résultats obtenus plus haut :

  (57)

Dans ces conditions, les relations :

  (58)

Deviennent :

  (59)

d'où :

  (60)

d'où est optimal si :

  (61)

Dans notre exemple numérique, nous avons :

  (62)

avec d'où (et non 2 ni 2.5 !!!)

modèle de wilson (réaprovisionnement)

Il existe plusieurs modèles d'optimisation de gestion de stocks (Statistique, Wilson, ABC, 20/80). Parmi ceux-ci, nous avons souhaité nous arrêter sur le "modèle de Wilson" qui est le seul qui ait un intérêt mathématique et non intuitif et dont les hypothèses de départ sont les plus générales et simples (et qui est surtout le plus connu...).

Remarque: Le modèle de Wilson (1934), appelé également "modèle du lot économique", permet de déterminer la fréquence optimale de réapprovisionnement pour un magasin, une usine... Elle est couramment employée par les services logistiques. Elle a en fait été introduite dès 1913...

Le but de ce modèle est de déterminer la stratégie qu'il faut adopter pour que le total annuel (ou mensuel, journalier, …) des commandes ou fabrications de pièces minimise le total des coûts d'acquisition et de possession pour l'entreprise. Nous parlons aussi des fois de "gestion à flux tendu".

L'existence de stocks au sein de l'entreprise amène le gestionnaire à se poser la question du niveau optimal de ces derniers, en évitant deux éceuils principaux :

1. Le "sur-stockage", source de coûts pour l'entreprise (coût du stockage physique, locaux et surfaces utilisés, coûts annexes, assurances gardiennage, coût des capitaux immobilisés)

2. Le "sous-stockage" qui risque d'aboutir à des ruptures de stocks préjudiciables à l'activité de production ou à l'activité commerciale de l'entreprise (arrêt de la production, perte de ventes, perte de clientèle,…).

Les modèles de gestion des stocks ont pour objectif de minimiser le coût de gestion dans ce système de contraintes.

Chaque commande d'achat ou ordre de fabrication coûte à l'entreprise. Le "coût de lancement" ou "coût de passation" des commandes représente tous les frais liés (administratifs, réglages,...) au fait de passer une commande et est supposé être proportionnel au nombre de commandes passées dans l'année. Ces coûts sont déterminés à l'aide de la comptabilité analytique.

Le coût d'une commande est obtenu en divisant le coût total de fonctionnement du service achat par une grandeur significative et pertinente, par exemple le nombre de commandes passées annuellement.

Le coût d'un lancement en fabrication est obtenu en divisant le coût total de fonctionnement du service ordonnancement, auquel, il faut, ajouter les coûts de réglage des machines et des préséries, par le nombre de lancements de fabrication.

Ces valeurs dépendent essentiellement de l'entreprise, de ses choix en matière de comptabilité analytique. Il est difficile de définir une fourchette de valeur standard. Bon nombre d'entreprises ne savent pas à combien leur revient une commande ou un lancement de fabrication (et bon nombre ne savant tout simplement pas faire une analyse...).

Le coût de possession du stock est constitué des charges liées au stockage physique mais également de la non rémunération des capitaux immobilisés dans le stock (voire du coût des capitaux empruntés pour financer le stock). Pour cette dernière raison, ce coût est considéré comme étant proportionnel à la valeur du stock moyen et à la durée de détention de ce stock.

Le taux de possession annuel t% est le coût de possession ramené à une unité monétaire de matériel stocké. Il est obtenu en divisant le coût total des frais de possession par le stock moyen.

Ces frais couvrent:

- L'intérêt du capital immobilisé

- Les coûts de magasinage (loyer et entretien des locaux, assurances, frais de personnel et de manutention, gardiennage..), les détériorations du matériel, les risques d'obsolescence.

Ce taux oscille habituellement entre 15 et 35% dans les entreprises, suivant le type des articles et la qualité de leur gestion des stocks.

Wilson a établi une relation basée sur un modèle mathématique simplificateur dans lequel nous considèrons que la demande est stable sans tenir compte des évolutions de prix, des risques de rupture et des variations dans le temps des coûts de commande et de lancement (nous sommes alors en "avenir certain").

Les hypothèses très simplificatirces de ce modèle sont les suivantes:

H1. La demande annuelle/périodique est connue et certaine (déterministe)

H2. La consommation (ou demande) est régulière (linéaire)

H3. Les quantités commandées sont constantes

H4. La pénurie, les ruptures de stock, sont exclues

H5. Le délai de production est constant et l'apprivionnement supposé instantané

H6. Les coûts sont invariables dans le temps

H7. L'horizon de planification est infini

Remarque: Nous supposerons que la gestion du stock s'effectue sur une période temporelle donnée.

Considérons un nombre N de pièces consommées durant l'unité de temps choisie (consommation journalière par exemple), Q le nombre de pièces approvisionnées ou lancées en fabrication en une seule fois pendant ce même temps (taille des lots économiques),  le prix unitaire d'achat de la pièce,  le stock de sécurité envisagé pour cette pièce, t le taux de coût en % ,  le coût d'approvisionnement (ou de lancement de fabrication).

Nous définissons de par la même occasion, le "coût unitaire de stockage" :

  (63)

Propositions:

P1. Le rapport (sans dimensions):

  (64)

donne "l'inertie des stocks".

P2. Le "coût d'inertie" est donc donné par :

  (65)

Ce dernier est donc supposé proportionnel à la consommation !

P3. Le stock moyen dans l'entreprise dans l'hypothèse d'une consommation constante dans le temps est trivialement:

  (66)

Le "coût périodique de possession" ou "coût de possession" ou encore "coût de gestion" est donc :

  (67)

Ces propositions nous amènent donc au calcul du "coût total d'approvisionnement" :

  (68)

Trouver la quantité économique , c'est trouver la valeur de Q pour laquelle le coût total est minimal, c'est-à-dire la valeur  pour laquelle la dérivée du coût total par rapport à la quantité est nulle:

  (69)

D'où la relation de Wilson (après un calcul élémentaire) pour le "lot/quantité économique optimal" :

  (70)

bien évidemment une fois connue la quantité économique, il devient facile en de calcul le coût de gestion minimal en injectal dans la relation obtenu plus haut:

  (71)

Si nous reportons sur un graphique les fonctions:

- coût de lancement en fonction des quantités

- coût de possession en fonction des quantités

- coûts totaux en fonctions des quantités

La quantité économique se trouve à l'intersection des deux courbes, lancement et possession, ou au point d'inflexion de la courbe cumulée. Dans la pratique toutefois, il est possible de commander exactement la quantité économique, on choisira une taille de lot répondant aux diverses contraintes et comprise dans la "zone économique" :


  
(72)

Il existe un autre type de cas de figure qu'il faut étudier. Si l'on commande en quantités plus importantes en bénéficiant ainsi d'une remise, on augmente certes les coûtes de possession mais on réduit théoriquement le nombre de commandes annuelles.

L'obectif pour le gestionnaire est bien sûr  est de vérifier mathématiquement que la remise consentie par son fournisseur n'entraîne pas de coûts induits supérieurs à la remise (ce serait une preuve d'incompétence du gestionnaire !).

Pour ce faire, il faut ramener tous les coûts à une pièce tel que:

  (73)

cette relation est importante car elle détermine la valeur de la remise pour que cette dernière soit intéressante.

Pour connaître le seuil de remise R pour une quantité donné, on remplace dans la relation précédente, Q par la quantité visée Q' et  par , R étant la remise.

Nous résolvons alors l'équation et l'on obtient:

  (74)

Nous déterminerons donc la valeur limite de R sous laquelle la remise ne compense pas les coûts internes.

Dans la pratique nous ne pouvons commander exactement la quantité optimale , notamment du fait des unités d'achats imposées par les fournisseurs (quantités minimales, conditionnements, etc.). Il est donc plus judicieux de s'intéresser à la "zone économique", constituée par la partie inférieure (le ventre) de la courbe des coûts totaux.

Du fait des hypothèses simplificatrices, le modèle de Wilson ne peut fournir au mieux qu'un ordre de grandeur si consommation et/ou prix sont sujets à variations (puisqu'elle est extrêmement dépendante des deux paramètres subjectifs : coûts de stockages et lancement).

Le recours aux lancements de fabrication économiques est "anti-flexible" par essence. Ce genre de politique amène fréquemment des circonstances importantes, risque de gonfler le stock de produits finis, reportant les coûts et pertes en aval du processus.

Cependant, le modèle de Wilson à ceci d'intéressant qu'il peut s'appliquer également assez bien à des ressources humaines.

Exemple (pris de www.sciencesdegestion.com):

L'entreprise MAC utilise un article X 330 pour lequel la consommation prévisionnelle de l'année devrait être de 4'000 articles. Les données sont les suivantes :

- Le coût unitaire de l'article X 330 est de (peu importe le numéraire)

- Le coût de passation d'une commande est de

- Le taux de possession du stock est de

Le fournisseur de cet article, pour inciter ses clients à augmenter l'importance de leurs commandes propose à l'entreprise les conditions suivantes :

C1. Quantités commandées inférieures à 2'000 unités : prix unitaire

C2. Quantités commandées comprises entre 2'000 et 3'500 unités : remise de 2%.

C3. Quantités commandés supérieures à 3'500 unités : remise de 3 %.

Travail à faire : Dire quelle solution l'entreprise doit adopter.

Le prix varie donc en fonction de la quantité tel que étant donnée une quantité choisie, la remise s'applique d'une façon équivalent à tous les articles (nous parlons alors de "remise uniforme")..

D'après l'énoncé et en fonction de Q la quantité d'approvisionnement, nous savons que :

1. Si

2. Si

3. Si

En fonction de la relation de Wilson du lot économique, nous allons calculer la quantité pour le prix le plus avantageux à savoir  :

  (75)

Mais pour avoir droit avoir droit à il faut commander au minimum 3'500 articles il y a donc contradiction et cette solution est donc hors zone. Des calculs identiques (que nous laissons le soin de faire avec la calculatrice quand même…) montrent que seulement le lot économique de . correspond à la contrainte

MAINTENANCE PRÉVENTIVE

L'évolution des techniques de production vers une plus grande robotisation des systèmes techniques plus complexes a augmenté l'importance de la fiabilité des machines de production. Aussi, un arrêt imprévu coûte cher à une entreprise.

De même, dans l'industrie aéronautique et spatiale, les problèmes de fiabilité, de maintenabilité, de disponibilité sont capitaux. La maintenance garantit le niveau de fiabilité.

L'existence d'un service de maintenance a pour raison la maintien des équipements et aussi la diminution des pannes. En effet, ces dernières coûtent cher, elles occasionnent :

- Des coûts d'intervention, de réparation

- Des coûts de non qualité du produit

- Des coûts indirects tels que des frais fixes non couverts, frais variables non réincorporés, des dépenses supplémentaires pour pallier les pertes de production, la marge bénéficiaire perdu

De ce fait, il faut tout mettre en œuvre pour éviter la panne, agir rapidement lorsqu'elle survient afin d'augmenter la disponibilité du matériel. Pour ce faire, il faut modéliser la vie des équipements.

L'idée est ici de faire un petit point sur ces méthodes, d'en rechercher l'efficacité et de permettre au praticiens ingénieurs ou techniciens de mieux appréhender ces problèmes. Une large place sera faite au modèle de Weibull d'application importante en maintenance préventive.

ESIMATEURS EMPIRIQUES

Dans le cadre de l'étude de fiabilité non accélérée (le vieilissement accéléré est un sujet trop complexe pour être abordé sur ce site), nous sommes amenés à définir certaines variables dont voici la liste :

- sera le nombre d'éléments bons à (instant initial)

- le nombre d'éléments bons à

- le nombre d'éléments défaillant entre et noté aussi

- l'intervalle de temps observé égal à .

Nous devons également défnir quelques outils mathématiques évidents.

Définitions:

D1. Nous définissons le "taux de défaillance" par tranche par la relation :

  (76)

le taux de défaillance que ce soit dans sa version discrète comme ci-dessous ou continue comme nous verrons plus loin est l'élément central de l'ingénierie de la fiabilité. Il peut être constant dans le temps ou linéaire ou autre... toute la difficulté consiste à déterminer la loi qu'il suit!

D2. Nous définissons la "fonction de défaillance" par la relation (densité de probabilités de défaillances à l'instant ) :

  (77)

D3. Nous définissons la "fonction de défaillance cumulée" par :

  (78)

D4. Nous définissons la "fonction de fiabilité" par :

  (79)

Par suite :

  (80)

Cette dernière relation servant au calcul des lois de fiabilité.

Puisque :

et   (81)

il peut être vu comme une probabilité ce qui nous amène à définir naturellement une espérance :

  (82)

Relation très utile dans la pratique!

Comment s'interprète cette relation ? C'est relativement simple, elle donne le pourcentage moyen d'éléments en panne à l'instant .

Exemple:

Nous avons relevé sur un lot de 37 moteurs d'un type donné les défaillances suivantes répertoriées par tranche :

0 à
1'000 h.
1'000 à 2'000 h.
2'000 à
3'000 h.
3'000 à
4'000 h.
4'000 à
5'000 h.
5'000 à 6'000 h.

1

4

7

12

11

2

  (83)

Il faut que nous estimions la valeur de la fonction de fiabilité , la fonction de défaillance et la défaillance par tranche . Les calculs sont élémentaires et nous obtenons le tableau suivant :

Intervalle
d'observation

Nombre de
défaillances dans l'intervalle

Survivants

Cumul des
défaillants

0

-

37

0

100%

0

-

0 à
1'000 h.

1

36

1

97%

2.7%

27

1'000 à
2'000 h.

4

32

5

86%

10.8%

111

2'000 à
3'000 h.

7

25

12

67%

18.9%

218

3'000 à 4'000 h.

12

13

24

35.1%

32.4%

480

4'000 à 5'000 h.

11

2

35

5.4%

5.4%

846

5'000 à
6'000 h.

2

0

37

0%

-

1

  (84)

Nous voyons ci-dessus par exemple que le taux de défaillance n'est pas constant bien évidemment!

Revenons en à d'autres définitions au passage à la limite du continu..

Définition: La "probabilité conditionnelle de défaillance" entre t et t + dt est définie par hypothèse par la relation :

  (85)

F(t) et R(t) sont respectivement la fonction cumulée de défaillance (probabilité de tomber en panne au temps t) et la fonction fiabilité appelée également "fonction de survie". R(t) valant 1 au temps 0 et 0 après un temps infini!

Dès lors, peut s'interpréter comme le taux de défaillance instantanté (et le facteur de dtdt est nommé aussi " comme le taux instantané de défaillance!!). En analyse de survie, le facteur de fonction de risque".

Remarque: Par la même démarche intelectuelle, plutôt que de définir une fonction de défaillance F(t) et de survie R(t) avec sa fonction de risque, nous pouvons définir une fonction de réparibilité avec sa fonction de M(t) qui serait alors une "fonction de maintenabilité".

Si nous intégrons (attention u représente le temps!) :

  (86)

Comme nous avons :

  (87)

d'où :

  (88)

R(t) est la probabilité cumulée de bon fonctionnement à l'instant t et F(t) la probabilité cumulée que le dispositif soit en panneà l'instant t.

Par ailleurs, puisque, nous avons alors :

  (89)

Mais nous pouvons obtenir cette relation sous une autre manière. Puisque F(t) est une fonction de probabilité cumulée, nous avons alors:

  (90)

Nous avons ci-dessus les trois expressions les plus générales liant les lois de fiabilité et le taux instantané de défaillance.

Puisque f(t) est la probabilité de défaillance au temps t, nous pouvons introduire la "moyenne des temps de bon fonctionnement" (M.T.B.F). qui provient de l'anglais Mean Time Breakdown Failure qui n'est que l'espérance mathématique de la défaillance:

  (91)

Nous avons aussi en utilisant l'intégration par parties:

Donc une autre manière de l'exprimer:

  (92)

Il est nécessaire vant d'aller plus loin de donner quelques indications sur les termes employés, en particulier, pour les M.T.B.F. (Mean Time Breakdown Failure), M.U.T. (Mean Up Time), M.T.T.R. (Mean Time To Repair), M.D.T. (Mean Down Time) qui souvent sont confondus, suite à une mauvaise traduction de M.T.B.F., qui se comprend aisément. Pour les matériels réparables, nous avons le chronogramme suivant:


  
(93)

et pour les matériels non réparables avec le M.T.T.F. (Mean Time To Failure):


  
(94)

Signalons enfin un cas simple. Certains composants (électroniques typiquement) ont dans leur période de maturité un taux de défaillance constant. La loi de fiabilité qui en découle s'en déduit alors immédiatement puisque :

  (95)

La fonction de distribution est alors:

  (96)

Elle suit donc une loi exponentielle! Cette loi et son espérance nous est connue. Il devient alors facile en connaissant le taux de défaillance à l'heure  de ces composants de déterminer le MTTF de ses éléments souvent non réparables.

En mécanique, où le phénomène d'usure est à l'origine de la défaillance, le taux de défaillance est souvent du type linéaire:

  (97)

Alors:

  (98)

Soit:

  (99)

Comme:

  (100)

cette intégrale ne peut se calculer que par une méthode numérique.

MODÈLE DE WEIBULL

Encore une fois, les techniques de maintenances utilisent les probabilités et statistiques donc nous renvoyons le lecteur au chapitre du même nom. Cependant, il existe dans le domaine de la maintenance (et pas seulement) une fonction de densité de probabilité très utilisée appelée "loi de Weibull".

Elle est complètement empirique et est définie par :

  (101)

avec qui sont respectivement appelés "paramètre d'échelle" , "paramètre de forme" et "paramètre d'emplacement" .

La loi de Weibull est aussi souvent notée sous la forme suivante (typiquement dans MS Excel) en posant , ,  :

Remarque: Elle peut être vue comme une généralisation de la fonction de distribution exponentielle avec l'avantage qu'il est possible de jouer avec les trois paramètres de manière à obtenir presque n'importe quoi.


  (102)

En annulant , nous obtenons la "distribution de Weibull à deux paramètres" :

  (103)

Exemple:

Dans le diagramme ci-dessous, nous avons : en rouge, en vert, en noir, en bleu , en magenta :


  (104)

et le tracé de la fonction de distribution et respectivement de répartition de la loi de Weibull de paramètre :


  (105)

En posant encore une fois et en assumant que nous avons la "distribution de Weibull à un paramètre" :

  (106)

où le seul paramètre inconnu est le paramètre d'échelle . Nous assumons que le paramètre est connu à priori de expériences passées sur des échantillons identiques.

Le MTBF est alors donnée par l'espérance de la loi de Weibull :

  (107)

Posons :

  (108)

avec :

  (109)

Ce qui donne :

  (110)

La première intégrale nous est déjà connue, nous l'avons déjà vue dans le chapitre de calcul différentiel. Il s'agit simplement de la fonction gamma d'Euler :

  (111)

Nous avons finalement :

  (112)

En annulant  il vient le cas courant en fiabilité:

  (113)

Remarque: Si par le plus grand des hasards alors comme nous l'avons démontré lors de notre étude de la fonction gamma d'Euler :

  (114)

Dans le cas où il faut faire appel aux tables numériques obtenues par les algorithmes vues en méthodes numériques.

De même :

  (115)

Finalement :

  (116)

SIX SIGMA

Six Sigma est à l'origine une démarche qualité limitée dans un premier temps aux techniques de "maîtrise statistique des procédés" (M.S.P.) appelée aussi "statistiques des processus qualité" (S.P.Q. ou S.P.C. en anglais pour Statistical Process Control). C'est une méthodologie de travail nécessaire pour l'application de la norme ISO 9000.

Six Sigma est fondée sur une règle théorique et idéale : pour satisfaire les clients, il faut délivrer des produits de qualité (quels qu'ils soient!) et que la qualité est inversement proportionnelle à la variabilité.

Nous distinguons deux types de variablité dans la pratique:

- La "variabilité inhérente" au processus (et peu modifiable) qui induit la notion de distribution des mesures (le plus souvent admise par les entreprises comme étant une loi Normale).

- La "variabilité externe" qui induite le plus souvent un biais (déviation) dans les distributions dans le temps.

Remarque: La lettre grecque "sigma" symbolisant comme nous le savons bien l'écart-type statistique (cf. chapitre de Statistique).

Les processus de fabrication dans l'industrie de pointe ayant une forte tendance à devenir terriblement complexes, il faut noter que les composants de base utilisés pour chaque produit ne sont pas toujours de qualité ou de performance égale. Et si de surcroît, les procédures de fabrication sont difficiles à établir, la dérive sera inévitablement au rendez-vous.

Que ce soit pour l'une ou l'autre raison, au final bon nombre de produits seront en dehors de la normale et s'écarteront ainsi de la fourchette correspondant à la qualité acceptable pour le client. Cette dérive est fort coûteuse pour l'entreprise, la gestion des rebuts, des retouches ou des retours clients pour non-conformité générant des coûts conséquents amputant sérieusement les bénéfices espérés.

La méthode Six Sigma offre des techniques et outils simples accessibles à des non mathématiciens ou ingénieurs pour contrôler la capacité de production des processus tout en tentant de réduire les défauts. Par exemple, les inégalités de Markov ou Bienaymé-Tchebychev (cf. chapitre de Statistiques) sont passées sous silence dans cette méthode ce qui est assez étonnant...

Indiquons également que dans la très grande majorité des ouvrages, l'étude de la SPC se base principalement sur les lois de distributions classiques (cf. chapitre de Statistiques) et particulièrement avec la loi Normale et ce avec un vocabulaire anglo-saxon.

contrôle qualité

Dans le cadre des études qualité en entreprise, nous renonçons souvent à un contrôle à 100% à cause du prix que cela engendrerait. Nous procédons alors à une prise d'échantillons. Ceux-ci doivent bien évidemment être représentatifs, c'est-à-dire quelconques et d'égales chances (in extenso le mélange est bon).

Le but de la prise d'échantillons étant bien évidemment la probabilité du taux de défaillance réel du lot complet sur la base des défaillances constatées sur l'échantillonnage.

Rappelons avant d'aller plus loin que nous avons vu dans le chapitre de statistique la loi hypergéométrique (et son interprétation) donnée pour rappel par (cf. chapitre de Statistiques) :

Lors d'un échantillonnage, nous avons normalement un paquet de n éléments dont nous en tirons p. Au lieu de  prendre m (nombre entier!) comme le nombre d'éléments défectueux nous allons implicitement le définit comme étant égal à :

 est la probabilité (supposée connue ou imposée…) qu'un pièce soit défectueuse. Ainsi, nous avons pour probabilité de trouver k pièces défectueuses dans un échantillon de p pièces parmi n :

La probabilité cumulée de trouver k pièces défectueuses (entre 0 et k en d'autres termes) se calcule alors avec la distribution hypergéométrique cumulative :

Exemple:

Dans un lot n de 100 machines, nous admettons au maximum que 3 soient défectueuses (soit que ). Nous procédons à un échantillonnage p à chaque sortie de commande de 20 machines. Nous voulons savoir dans un premier temps qu'elle est la probabilité que dans cet échantillonnage pp qui nous dirait avec 90% de certitude que le lot de n machines en contienne 3 défectueuses. trois machines soient défectueuses et dans un deuxième temps quel est le nombre de machines défectueuses maximum autorisé dans cet échantillonnage

x

H(x)

0

0.508

0.508

1

0.391

0.899

2

0.094

0.993

3

0.007

1.000

Ainsi, la probabilité d'en trouver une fois trois machines défectueuses dans l'échantillon de 20 est de 0.7% et le nombre de pièces défectueuses maximum autorisé dans cet échantillon de 20 qui nous permet avec au moins 90% de certitude d'avoir 3 défectueuses est de 1 pièce défectueuse trouvée (probabilité cumulée)!

Les valeurs H(x) peuvent être calculées facilement avec MS Excel. Par exemple la première valeur est obtenue grâce à la fonction LOI.HYPERGEOMETRIQUE(0;20;3;100).

DÉFAUTS/ERREURS

Intéressons-nous donc à exposer pour la culture générale un exemple pratique et particulier de ce qui n'est qu'une application simple de la théorie des statistiques et probabilités.

Imaginons une entreprise fabricant trois copies d'un même produit sortant d'une même chaîne, chaque copie étant composée de huit éléments.

Remarque: Nous pouvons tout aussi bien imaginer une société de services développant (fabricant) trois copies d'un logiciel (produit) sortant d'une même équipe de développement (chaîne), chacun composé d'un nombre égal de modules (éléments).

Supposons que le produit P1 a un défaut, le produit P2 zéro défauts et le produit P3 deux défauts.

Ici, Six Sigma suppose implicitement que les défauts sont des variables indépendantes ce qui est très rare… dans les chaînes de fabrication machines mais plus courant des les chaînes dans lesquelles des humains sont les intervenants. Cependant, nous pouvons considérer lors de l'application SPC sur des machines qu'un échantillonage du temps dans le processus de mesure équivaut à avoir une variable aléatoire.

Remarque: Dans le cadre de l'exemple du logiciel cela est peu probable si nous ne prenons pas un exemple dans lequel les modules sont personnalisés selon les besoin du client.

La moyenne arithmétique des défauts nommée dans le standard Six Sigma "Defects Per Unit" (D.P.U.) est alors défini par :

  (117)

et donne dans notre exemple :

  (118)

ce qui signifie en moyenne que chaque produit a un défaut de conception ou fabrication. Attention! Cette valeur n'est pas une probabilité pour les simples raisons qu'elle peut d'abord être supérieure à 1 et qu'ensuite elle a comme dimension des [défauts]/[produits].

De même, l'analyse peut être faite au niveau du nombre total d'éléments défectueux possibles qui composent le produit tel que nous sommes amenés naturellement à définir selon le standard Six Sigma le "Defects per Unit Opportunity" (D.P.O.) :

  (119)

ainsi, dans notre exemple, nous avons :

  (120)

et ceci peut être vu comme la probabilité d'avoir un défaut par élément de produit puisque c'est une valeur sans dimensions :

  (121)

Par extension nous pouvons argumenter que 87.5% d'un élément d'une unité n'a pas de défauts et comme Six Sigma aime bien travailler avec des exemples de l'ordre du million (c'est plus impressionnant) nous avons alors les "Defects Per Million Opportunities" (D.P.M.O.) qui devient :

  (122)

ce qui dans notre exemple donne :

  (123)

Comme la probabilité D qu'un élément d'une pièce soit non défectueux est de 87.5% alors, par l'axiome des probabilités conjointes (cf. chapitre de Probabilités), la probabilité qu'un produit dans son ensemble soit non défectueux est de :

  (124)

ce qui dans notre exemple donne :

  (125)

Remarque: Dans Six Sigma, les probabilités conjointes sont aussi naturellement utilisées pour calculer la probabilité conjointe de produits non défectueux dans une chaîne de processus P connectés en série. Cette probabilité conjointe (ou cumulée) est appelée dans Six Sigma "Rolled Troughput Yield" (R.T.Y.)ou "Rendement Global Combiné" (R.G.C.) et vaut :


  (126)

Rappelons maintenant que la densité de probabilité d'avoir k fois l'événement p et N-k fois l'événement q dans n'importe quel arrangement (ou ordre) est donné par (cf. chapitre de Statistiques) :

  (127)

et est appelée la loi binomiale ayant pour espérance et écart-type (cf. chapitre de Statistiques) :

  (128)

Ainsi, dans le standard Six Sigma, nous pouvons appliquer la loi binomiale pour connaître quelle est la probabilité d'avoir 0 fois 12.5% de défauts et 8 fois 87.5% de taux de conformité en tirant au hasard un produit de la chaîne de fabrication :

  (129)

et nous retombons bien évidemment sur la valeur obtenu avec les probabilités conjointes avec :

  (130)

ce qui est très mauvais… pour nos produits

Ou la probabilité d'avoir un élément défectueux et sept autres en bon état sur un produit de la chaîne de fabrication :

  (131)

nous voyons que la loi binomiale nous donne 39.26% de probabilité d'avoir un élément défectueux sur 8 dans un produit.

Par ailleurs, dans le chapitre de statistiques, nous avons démontré que lorsque la probabilité p est très faible et tend vers zéro mais que toutefois la valeur moyenne   tend vers une valeur fixe si n avec k épreuves était donnée alors donnée par : tend vers l'infini, la loi binomiale de moyenne

  (132)

avec :

  (133)

Remarque: Dans un cadre pratique, il est fait usage de l'estimateur de maximum de vraisemblance de la loi expontentielle pour déterminer la moyenne et l'écart-type ci-dessus (cf. chapitre de Statistiques).

Ce que Six Sigma note naturellement :

  (134)

avec :

  (135)

Ainsi, dans notre exemple, il est intéressant de regarder la valeur obtenue (qui sera forcément différente étant donné que nous sommes loin d'avoir une infinité d'échantillons et que p est loin d'être petit) en appliquant une telle loi continue (la loi continue la plus proche de la loi binomiale en fait) :

  (136)

avec :

  (137)

ce qui est encore plus mauvais qu'avec la loi binomiale pour nos produits.

Cependant, si p est fixé au départ, la moyenne  tend également vers l'infini théoriquement dans la loi de Poissons de plus l'écart-type  tend également vers l'infini.

Si nous voulons calculer la limite de la distribution binomiale, il s'agira donc de faire un changement d'origine qui stabilise la moyenne, en 0 par exemple, et un changement d'unité qui stabilise l'écart, à 1 par exemple. Ce calcul ayant déjà été fait dans le chapitre de statistique, nous savons que le résultat est la loi de gauss-laplace :

  (138)

Ainsi, dans notre exemple, nous avons  et l'écart-type est donné par l'estimateur sans biais de l'écart-type (cf. chapitre de Statistique) :

  (139)

ce qui dans notre exemple donne .

Pour calculer la probabilité nous calculons la valeur numérique de la loi de gauss-laplace pour  :

  (140)

Ainsi, en appliquant la loi normale nous avons 24.19% de chance d'avoir 0 éléments défectueux sur 8. Cet écart par rapport aux autres méthodes s'expliquant simplement par les hypothèses de départ (nombre d'échantillons fini, probabilité faible, etc.)

Remarque: Ceux qui penseraient utiliser la loi triangulaire (cf. chapitres de Statistiques) doivent tout de suite l'oublier. Effectivement, comme en qualité la valeur optimiste sera le zéro par définition, la probabilité que le nombre de défauts soit égal à 0 sera immédiatement de zéro.

INDICES DE CAPABILITÉ

Six Sigma défini deux indices permettant de mesurer pendant le processus de fabrication la capacité de contrôle dans le cas d'un grand nombre de mesures de défauts répartis selon une loi de gauss-laplace centrée autour de la moyenne (soit une loi normale).

Cette méthodologie est souvent assignée au concept de "carte de contrôle" par la moyenne et l'étendue.

D1. Nous appelons "indice de capacité potentiel de contrôle" (Potentiel Process Capability Index) le rapport entre l'étendue de contrôle E de la distribution des valeurs et la qualité de Six Sigma tel que :

  (141)

ce qui s'écrit aussi :

  (142)

USL est la limite supérieure de contrôle/tolérance ou "Upper Specification Level" (USL) de la distribution et LSL la limite inférieure ou "Lower Specification Level" (LSL) que nous imposons souvent dans l'industrie comme à distances égales par rapport à la moyenne théorique souhaitée.

Un processus est dit "limite capable" (soit limite stable par rapport aux exigences du client en d'autres termes) s'il le ratio donné ci-dessus est supérieur à 1. Mais dans l'industrie on préfère prendre en réalité la valeur de ~1.33 dans le cas d'une distribution Normale des données.

Bien évidemment, la valeur  de l'écart-type peut-être être calculée en utilisant les estimateurs de maximum de vraisemblance avec ou sans biais vus dans le chapitre de Statistiques mais il ne s'agit en aucun cas dans la réalité pratique de l'écart-type théorique mais d'un estimateur!

Comme nous l'avons démontré au chapitre de Statistique, l'erreur-type (écart-type de la moyenne) est :

Dans la méthodologie Six Sigma nous prenons alors souvent (mais c'est quand même rigoureusement à éviter car ce n'est plus un "vrai" Six Sigma...) :

quand nous analysons des cartes de contrôles dont les variables aléatoires sont des échantillons de n variables aléatoires indépendantes et identiquement distribuées. Bien évidemment il faut bien être conscient que UCL et LCL n'ont pas la même expression dans des cas plus complexes et donc pour d'autres distributions!

Le lecteur remarquera que nous avons maintenant:

Normalement, au sein des entreprise, l'étendue de contrôle est fixe (le numérateur) et donc quand la valeur de l'écart-type type est grande (plus de variations, moins de contrôles) la valeur de l'indice est faible et lorsque l'écart-type est faible (moins de variations, plus de contrôles) la valeur de l'indice est élevé.

Comme le montre les deux exemples ci-dessous :


  
(143)

L'indice  impose que la moyenne (l'objectif) est centrée entre LSL et USL. Dès lors, la moyenne est confondue avec ce que nous appelons la "cible" T du processus.

Mais la moyenne  dans la réalité peut être décalée par rapport à l'objectif T initial qui doit lui toujours être à distance égale entre USL et LSL comme le montre la figure ci-dessous :


  
(144)

Mais ce n'est pas forcément le cas dans la réalité où les ingénieures (quelque soit leur domaine d'application) peuvent choisir des LSL et USL asymétriques par rapport à la moyenne. D'où la définition suivante :

D2. Nous appelons alors "Indice de Capacité de Contrôle" ou "Process Capability Index" la relation :

  (145)

avec :

  (146)

est appelé le "dégré de biais" et T le "target".

Au fait cet indicateur peut sembler très artificiel mais il ne l'est pas totalement. Effectivement il y a quelques valeurs remarquables qui permettent de se faire une bonne idée ce qu'il se passe avec cet indicateur (et c'est le but de celui-ci) :

1. Si la moyenne et la cible sont confondus nous avons :

  (147)

nous nous retrouvons donc avec  et donc .

2. Si faute d'un mauvais contrôle du processus nous avons :

  (148)

alors la moyenne  est soit au-dessus de USL ou en dessous de LSL ce qui à pour conséquence d'avoir  et donc .

3. Si nous avons :

  (149)

alors la moyenne  est comprise entre les valeurs USL et LSL ce qui à pour conséquence d'avoir  et donc .

4. Si nous avons :

  (150)

alors cela signifie simplement que la moyenne est confondue avec USL ou LSL et nous avons alors  et .

Par ailleurs, Six Sigma rajoute les indices "Upper Capability Index CPU" et "Lower Capability Index CPL" à sont catalogue d'outils pour vérifier l'asymétrie à gauche ou à droite des mesures:

  (151)

et l'interprétation est toujours basée sur le même principe que l'indice .

Voici par exemple un diagramme d'analyse de la capabilité produit par le logiciel Minitab avec les différents facteur susmentionnés sur un échantillons de 68 données suivant une loi Normale (un test de normalité a été fait avant):


  
(152)

Il faut vraiment prendre garde au fait que dans la réalité il n'est pas toujours possible de prendre la loi Normale or tous les exemples donnés ci-dessus ce sont basés sur cette hypothèse simplificatrice.

BIENS D'ÉQUIPEMENT

Les installations, les biens d'équipement subissent une dépréciation progressive due à l'usure ou à l'obsolescence. Cette baisse de valeur, enregistrée comme un charge en comptabilité, est appelée "amortissement comptable". Il ne faut pas confondre l'amortissement financier vue en économétrie, qui correspond au remboursement d'une dette et l'amortissement comptable qui est une diminution de valeur des moyens de production.

Certains types de biens ont une perte de valeur assez uniforme dans le temps contrairement à d'autres qui se déprécient plus rapidement les premières années. Nous allons présenter ici quelques unes des méthodes comptables utilisées en pratique qui décrivent l'un ou l'autre de ces phénomènes.

AMORTISSEMENT LINÉAIRE

Définition: Nous parlons d'un "amortissement linéaire" d'un bien lorsque sa valeur est diminuée d'un montant périodique (annuel dans la comptabilité) constant durant sa durée de vie.

Ainsi, si nous notons le montant du k-ème amortissement et la valeur initiale du bien d'équipement et sa valeur finale souhaitée, nous avons :

  (153)

AMORTISSEMENT ARITHMÉTIQUE DÉGRESSIF

Définition: Lorsque la valeur d'immobilisation d'un bien décroît inversement à l'ordre des périodes (années en comptabilité) nous parlons alors "d'amortissement arithmétique dégressif".

Par exemple, un bien d'une durée de vie de 4 ans, sera amortissable de 4/10 la première année, 3/10 la seconde, 2/10 la troisième et 1/10 la dernière. La base commune "10" (dans cet exemple) étant la somme arithmétique 1+2+3+4 afin que la totalité des fraction soit égale à l'unité

k-ème amortissement et la valeur initiale du bien d'équipement et sa valeur finale souhaitée (correspond à 4 dans notre exemple) :

  (154)

ce qui peut s'écrire :

  (155)

et comme nous l'avons démontré dans le chapitre des suites et séries :

  (156)

ce qui nous amène à écrire :

  (157)

AMORTISSEMENT GÉOMÉTRIQUE DÉGRESSIF

Définition: Lorsque la valeur d'immobilisation d'un bien décroît selon un taux d'amortissemnt constant, nous parlons alors "d'amortissement géométrie dégressif simple".

Ainsi, la valeur du bien après n années est défini par :

  (158)

avec donc :

  (159)

Remarque: Nous constatons que t% étant comprise dans l'intervalle entre [0,1] la limite de quand n tend vers l'infini n'est jamais nulle. Ainsi, la valeur résiduelle n'est le sera jamais non plus !

Sachant que par définition de cet amortissement que nous obtenons :

  (160)

En injectant l'expression du taux dans la relation précédente, nous obtenons :

  (161)

Remarque: L'amortissement géométrique dégressif convient particulièrement aux biens ayant une très forte dépréciation les premières années.

CHOIX D’INVESTISSEMENTS

Par définition, un investissement est l'acquisition ou le développement d'un bien (quelque soit sa forme, matérielle ou non) par une entreprise, une collectivité ou un individu. Un investissement implique dans le cadre économique simple :

1. Une dépense immédiate, payable en une ou plusieurs fois

2. Des entrées futures, appelées "cash flows"

3. Une valeur résiduelle

Il existe plusieurs critères et techniques pour les choix d'investissements, que nous présenterons ci-après, qui permettent d’opter pour un investissement A ou B : celui de la "valeur actuelle nette" (VAN), celui du "taux interne de rentabilité" (TRI) ou encore celui de "délai de récupération".

Remarque: Il ne faut pas oublier aussi que les techniques de décisions (cf. chapitre de Théorie Des Jeux) ont une énorme importance lorsque les sommes considérées atteignent des valeurs non négligeables.

VALEUR ACTUELLE NETTE

Comme nous l’avons spécifié plus haut, un investissement implique trois points. Ce qui intéresse bien évidemment l'investisseur, c’est qu'en valeur actuelle, l'investissement rapporte plus que ce qui est dépensé.

Voyons un situation type : une entreprise souhaite acquérir une nouvelle machine valant 6'000.-, ce qui devrait permettre d’abaisser les coûts de production de 1'000.- durant 5 ans. Nous estimons que dans 5 ans, la valeur résiduelle de cette machine sera de 3'000.-. Doit-on acheter cette machine si cet investissement peut être financé par un emprunt à 10% ?

Quelles informations avons-nous ici ?

1. La dépense immédiate

2. La valeur finale ou résiduelle du bien d’équipement après 5 ans

3. Les cash-flow de chaque année (qui sont constant sur toute la période dans cet exemple)

4. Le taux d’intérêt (taux géométrique moyen du marché) de l'emprunt correspondant

Quelles informations, ou questions intéressantes, financièrement parlant, pouvons nous nous poser par rapport aux données ci-dessus ? :

1. Quel serait le capital initial qui aux taux du marché nous permettrait de retirer 1'000.- par année pendant 5 ans (jusqu’à ce qu’on solde le compte) ? :

  (162)

ce qui s’écrit si (nous retrouvons la relation de la rente certaine postnumerando vue dans le chapitre d'économétrie) :

  (163)

Dans notre exemple cette somme (après un petit calcul) revient à environ 3790.-.

En d’autres termes, il nous suffirait de mettre en épargne 3'790.- pendant les mêmes 5 ans, pour en retirer 1’000.- par année jusqu’à solder le compte. Donc pour l’instant, un investissement de 3'790 pour économiser (gagner) 1'000.- par année semble beaucoup plus favorable qu’en dépenser 6'000.- (…) pour le même retour, sur la même durée.

Déjà là, nous pouvons dire que l'achat de la machine est défavorable.

Mais il ne faut pas oublier aussi un deuxième facteur… la valeur résiduelle de notre machine !!!

2. Quelle serait le capital initial qui au taux du marché nous rapporterait une valeur équivalente à la valeur résiduelle de notre machine (c’est une valeur immobilisée au même titre qu’une épargne, donc on peut s’intéresser à ce qu’il adviendrait si cette somme provenait d’une épargne) ?

  (164)

Dans notre exemple, cette somme revient environ à 1'862.-

En d'autres termes, il nous suffirait de mettre en épargne 1'862.- pendant les mêmes 5 ans, pour obtenir une somme égale à la valeur résiduelle de notre machine.

Et alors ?

La somme :

  (165)

représente le retour sur la base d'une épargne initiale pour obtenir, par rapport aux informations de valeur résiduelle et de cash-flow, la somme finale équivalent à l’achat de notre machine. Or, dans cet exemple, cette somme nous donne environ 5653.-.

Ce résultat est important car il est à comparer avec l’investissement que nous voulions faire initialement. Deux options s'offrent donc à nous :

1. Acheter la machine à 6'000.- avec les cash-flow et le valeurs résiduelle que nous connaissons

2. Epargner 5653.- pendant la même période, avec les mêmes cash-flow pour nous retrouver avec une épargne finale qui devrait équivalente à celle à la valeur résiduelle de notre machine.

Or, que pouvons nous conclure dans notre exemple ? Eh, bien simplement que dans un cas défavorable :

  (166)

En d’autres termes, pour le financier, le calcul intéressant à faire est le suivant :

  (167)

qui :

1. Lorsqu'il est négatif correspond à un investissement qu'il vaut mieux éviter

2. Lorsqu'il est nul est un investissement indécidable

3. Lorsqu'il est positif est un bon investissement

Donc dans le cas d'un choix entre plusieurs investissement, nous choisirons celui dont la VAN est la plus grande. Si les cash-flow sont non déterministes il faudra alors calculer l'espérance et la variance du VAN. Les spécialistes abrègent souvent le calcul de l'espérance du VAN par l'abréviation VANe pour "valeur actuelle nette espérée" ou plus fréquemment en anglai "expected net present value" (eN.P.V.).

Remarque: Le VAN est aussi souvent appelé "quasi-rente actualisée" ou encore en anglais "net present value" (N.P.V.)

TAUX DE RENTABILITÉ INTERNE

Définition (technique): Le "taux de rentabilité interne" (TRI), appelé aussi parfois "taux limite de rentabilité" est le taux d'actualisation pour lequel la valeur actualisée des rentrées nettes de fonds résultant d'un projet d'investissement est égale à la valeur actualisée des décaissements requis pour réaliser cet investissement.

En d'autres termes, cela revient à se demander quel est le taux moyen géométriquedu marché pour lequel la V.A.N. du projet est nulle. Soit à satisfaire la relation :

  (168)

Donc entre deux investissement, nous choisissons dans les entreprises celui dont le TRI est le plus élevé et satisfait aux contraintes internes.

DÉLAI DE RÉCUPÉRATION ET D'AMORTISSEMENT

Le "délai de récupération" ou "pay back" (en anglais) est un autre indicateur pour l'aide à la décision dans le cadre des choix d'investissements de projets et plus simple à l'utilisation (et à la compréhensions) que le VAN.

Cet indicateur a pour simple et seul objectif de montrer quand, dans le temps, l'investissement sera remboursé. En d'autres termes, il indique le nombre de périodes nécessaires pour que la somme des cash-flows couvre l'investissement initial. C'est une information très simple à déterminer qui revient à chercher le plus petit entier p tel que :

  (169)

ou encore :

  (170)

Définition: Le "délai d'amortissement" est le nombre de périodes nécessaire tel que :

  (171)

ou encore :

  (172)

THÉORIE DES FILES D'ATTENTES

La théorie des files d'attentes est un outil extrêmement puissant permettant de prendre en compte et de modéliser les goulots d'étranglement dans les processus des entreprises soit au niveau de la logistique ou des centrales téléphoniques ou encore dans les caisses de grands magasins ou encore dans les toilettes des grands stades sportifs (…). Elle est donc une partie intégrante des techniques mathématiques de gestion.

Elle fait donc appel à des méthodes statistiques et algébriques que nous avons étudiées dans les chapitres de statistiques et de théorie des graphes. Elle n'en est alors que plus passionnante.

Pour présenter le sujet, plutôt que de faire une généralisation abstraite, nous avons choisi de développer la théorie autour d'un exemple concret et classique qui est le télétrafic. Une généralisation à tout autre cas d'étude se faisant ensuite relativement facilement par analogies.

Considérons donc un central téléphonique regroupant les lignes d'un ensemble d'immeubles d'une ville et ne possédant pas autant de lignes allant vers le réseau que de lignes allant vers les différents particuliers qu'il dessert.

Nous pouvons donc légitiment nous demander de combien de lignes nous avons besoin pour desservir tous ces abonnés.

Pour dimensionner son réseau, un opérateur va devoir calculer le nombre de ressources à mettre en œuvre pour qu'avec une probabilité extrêmement proche de 1, un usager qui décroche son téléphone puisse disposer d'un circuit. Pour cela, il va falloir développer quelques relations de probabilité de blocage. Ces relations vont demander une modélisation statistique des instants de début et de fin d'appels ainsi que des durées de ces appels. Les paragraphes qui suivent vont donc introduire les lois de probabilités utilisées pour ces dimensionnements.

MODÉLISATION DES ARRIVÉES

Considérons des appels qui débuteraient de manière aléatoire. Prenons ensuite un intervalle de temps t et divisons cet intervalle en n sous intervalles de durée t/n.

Nous choisissons n suffisamment grand pour que les hypothèses suivants soient respectées :

H1. Une seule arrivée d'appel peut survenir dans un intervalle t/n

H2. Les instants d'arrivée d'appels sont indépendants les uns des autres (…)

H3. La probabilité qu'un appel arrive dans un sous intervalle donné est proportionnelle à la durée du sous intervalle.

Nous écrivons alors la probabilité de un appel  dans un sous intervalle (1) de la manière suivante :

  (173)

où le 1 en indice du p représente donc l'analyse sur 1 appel, le 1 entre parenthèses le fait que l'analyse se fait sur 1 sous-intervalle et enfin le terme  représente le coefficient de proportionnalité entre la probabilité et la durée t/n du sous-intervalle.

L'hypothèse de départ consistant à considérer comme nulle la probabilité d'avoir plusieurs appels dans un sous intervalle s'écrit alors :

  (174)

La probabilité de n'avoir aucun appel durant un sous intervalle de temps t/n s'écrit donc :

  (175)

En développant, nous obtenons :

  (176)

et en utilisant la propriété énoncée juste au-dessus :

  (177)

La probabilité d'avoir k arrivées d'appels durant n intervalles de temps s'obtient alors en considérant le nombre de manière de choisir k intervalles parmi n… (puisqu'il ne peut y avoir plus d'un appel par intervalle)

Pour chacune de ces solutions, nous aurons alors forcément k intervalles avec une arrivée d'appel et n-k intervalles avec aucune arrivée d'appel. Nous avons vu dans le chapitre de statistique que la loi qui permettait d'obtenir la probabilité de choisir un certain arrangement d'issues binaires parmi un nombre total d'issues était la loi de Bernoulli donnée par :

  (178)

Il vient donc dans notre cas de figure que la probabilité d'une des solutions sera :

  (179)

La probabilité globale s'obtient en sommant les probabilités de tous les cas ce qui nous donne la loi binomiale (cf. chapitre de Statistiques) :

  (180)

Ou encore, en remplaçant les probabilités par leurs valeurs en fonction de  :

  (181)

La limite de la probabilité  lorsque n tend vers l'infini va être égale à la probabilité d'avoir kt. Nous notons  cette probabilité : arrivées d'appel durant un intervalle de temps

  (182)

En reprenant alors les différents termes de l'expression de  et en faisant tendre n vers l'infini, il vient :

  (183)

En utilisant les développements de Taylor (cf. chapitres de Suites Et Séries) :

  (184)

Soit en prenant que le premier terme, c'est-à-dire en considérant x très petit  :

  (185)

Donc :

  (186)

et pour la dernière partie :

  (187)

d'où après regroupement :

  (188)

Cette relation est extrêmement important représente la probabilité d'observer k arrivées d'appels dans un intervalle de durée t. Il s'agit d'une distribution de Poisson (cf. chapitre de Statistiques). Il s'ensuit par analogie avec la forme générale de la loi de Poissons que le  paramètre  est le taux moyen d'arrivée (taux moyen d'apparition) d'appels par unité de temps. Typiquement il s'agira d'un nombre moyen d'appels par secondes.

Ainsi, nous avons pour espérance et variance (cf. chapitre de Statistiques):

  (189)

Maintenant, introduisons la variable aléatoire  représentant le temps séparant deux arrivées d'appel.

Nous introduisons pour cela la probabilité A(t) qui est la probabilité que le temps  soit inférieur ou égal à une valeur t :

  (190)

Nous avons donc :

  (191)

Or,  représente la probabilité qu'il n'y ait aucune arrivée d'appels durant un temps t. Cette probabilité a justement été établie plus haut :

  (192)

Nous en déduisons donc :

  (193)

Nous pouvons aussi introduit la densité de probabilité de la variable aléatoire. Nous obtenons ainsi :

  (194)

Remarque: Rappelons que dans le chapitre de statistiques nous avons souvent fait la démarche inverse. C'est-à-dire compte tenu d'une densité de probabilité a(t) nous cherchions la fonction de répartition A(t) via une intégration dans le domaine de définition de la variable aléatoire.

La densité de probabilité permet donc de calculer la durée moyenne entre deux arrivées d'appel :

  (195)

En intégrant par partie, il vient :

  (196)

Nous obtenons ainsi, que pour un taux d'arrivé d'appels de  appels par secondes, le temps moyen entre appel est égal à  (résultat relativement logique mais encore fallait-il le démontrer rigoureusement).

Supposons maintenant qu'aucun appel ne soit arrivé jusqu'à un temps  et que nous souhaitons calculer la probabilité qu'un appel arrive durant une durée t après le temps .

Nous devons donc calculer la probabilité d'avoir une durée entre deux appels inférieure à  tout en étant supérieure à .

Cette probabilité s'écrit . En utilisant la formule de Bayes (cf. chapitre de Probabilités) :

  (197)

mais avec les notations idoines il vient :

  (198)

Cette probabilité peut encore s'écrire :

  (199)

En reprenant les expressions des différentes probabilités :

  (200)

Nous voyons donc que la probabilité d'apparition d'un  appel durant un temps t après une durée  pendant laquelle aucun n'est arrivé est la même que la probabilité d'apparition d'un appel pendant une durée t, indépendamment de ce qui a pu arriver avant. Nous considérons donc que le phénomène (la loi exponentielle) est sans mémoire.

MODÉLISATION DES DURÉES

Pour étudier les lois de probabilité qui modélisent les durées des appels, nous procédons comme précédemment.

Nous considérons donc un intervalle de temps de durée t que nous décomposons en n sous intervalles de durée t/n. Nous choisissons n de sorte que les hypothèses suivantes restent justifiées :

H1. La probabilité qu'un appel se termine durant un sous intervalle est proportionnelle à la durée du sous intervalle.

Nous noterons :

  (201)

cette probabilité, expression dans laquelle  représente le coefficient de proportionnalité.

H2. La probabilité qu'un appel se termine durant un sous intervalle est indépendant du sous intervalle considéré.

Nous introduisons alors la variable aléatoire  représentant la durée d'un appel.. Nous introduisons alors la probabilité H(t) que la durée d'un appel soit inférieure ou égale à t :

  (202)

La probabilité qu'un appel ayant débuté à t = 0 ne se termine pas avant t s'écrit alors :

  (203)

cette probabilité est égale à la probabilité que l'appel ne se termine dans aucun des n sous intervalles de durée t/n :

  (204)

En faisant tendre n vers l'infini, nous obtenons :

  (205)

Nous obtenons donc l'expression de la probabilité qu'un appel ait une durée inférieure ou égale à t :

  (206)

Nous pouvons en déduire la densité de probabilité associée, notée h(t) :

  (207)

De la même manière que dans les paragraphes précédents, la durée moyenne d'appel (laps de temps moyen entre deux fins d'appels) s'obtient en calculant (toujours la même intégration par parties que plus haut) :

  (208)

En conclusion, nous avons  appels qui cessent par secondes et nous avons une durée moyenne d'appel égale à .

Les probabilités d'apparition d'appels et de fin d'appels qui ont été développées dans les paragraphes précédents permettent de modéliser le processus complet d'apparition et de fin d'appels.

MODÉLISATION DES ARRIVÉES ET DÉPARTS

A chaque instant un certain nombre d'appels vont apparaître et d'autres vont se terminer. Nous pouvons donc modéliser l'état où l'on se trouve à un instant donné comme une chaîne d'états.

Chaque état représente le nombre de communications en cours. Nous concevons donc bien que si, à un instant donnée, il y a k communications nous pouvons passer que dans deux états adjacents selon nos hypothèse : k-1 et k+1.

Nous reconnaissons alors une chaîne de Markov (cf. chapitre de Probabilités). La probabilité de passer d'un état i à un état j pendant un temps dt sera dont notée .

Nous introduisons alors les probabilités de transition d'état suivantes :

- Etant dans l'état k, la probabilité  pour passer à l'état k + 1 durant un intervalle de temps dt sera notée

- Etant dans l'état k, la probabilité  pour passer à l'état k-1 durant un intervalle de temps dt sera notée

- Etant dans l'état k + 1, la probabilité  pour passer à l'état k durant un intervalle de temps dt sera notée

- Etant dans l'état k - 1, la probabilité  pour passer à l'état k durant un intervalle de temps dt sera notée


  
(209)

Les grandeurs  et  sont des taux d'arrivée (apparition) et de départ (fin) d'appels du même type que ceux utilisés lors des paragraphes précédents. La seule différence tient au fait que ces taux ont en indice l'état où se trouve le système.

Nous pouvons alors introduire la probabilité d'état, c'est-à-dire la probabilité d'être dans un état k à un instant t. Notons pour cela  cette probabilité (à rapprocher de la notation  utilisée pour les chaînes de Markov à temps discret dans le chapitre de probabilité).

La variation de cette probabilité durant un intervalle de temps dt est alors égale à la probabilité de rejoindre cet état en venant d'un état k-1 ou d'un état k+1 mois la probabilité de quitter cet état pour aller vers un état k-1 ou vers un état k+1.

Ce qui s'écrit :

  (210)

En supposant le système stable, c'est-à-dire en supposant qu'il se stabilise sur des probabilités d'état fixes lorsque le temps tend vers l'infini, nous pouvons écrire que :

  (211)

Nous pouvons alors noter  d'où finalement :

  (212)

Nous aurions pu introduire cette dernière relation d'une autre manière : Elle exprime simplement le fait que la probabilité de partir d'un état est égale à celle pour y arriver (c'est peut-être plus simple ainsi).

Cette relation est vérifiée pour tout  avec les conditions mathématiques suivant (car sinon ces termes n'ont aucun sens mathématique) :

  (213)

et la condition logique réelle suivante (des appels non encore existants ne peuvent finir…) :

  (214)

Remarque: Insistons sur le fait que la stabilité des probabilités signifie qu'il y a une probabilité égale de quitter l'état  que de le rejoindre.

En écrivant le système d'équation précédent, nous trouvons :

  (215)

Nous trouvons alors assez facilement la forme générale :

  (216)

Le système se trouvant obligatoirement dans un des états nous avons :

  (217)

En remplaçant avec la relation antéprécédente :

  (218)

Ce qui donne aussi :

  (219)

et donc :

  (220)

PROBABILITÉ DE BLOCAGE (FORMULE D'ERLANG B)

Nous allons nous intéresser ici à un système disposant de N canaux de communication (chaque canal censé supporter un débit de 1 un appel avec réponse immédiate). Si les N canaux sont occupés, les appels qui arrivent alors sont perdus (absence de tonalité par exemple). Nous parlons alors de blocage ou ruine du système.

Nous allons cherche à estimer cette probabilité de blocage en fonction du nombre de canaux disponibles et du trafic.

Compte tenu de ce qui a été énoncé sur le caractère sans mémoire du processus d'arrivée d'appels, nous pouvons considérer que la probabilité  (probabilité d'avoir k appels à l'état k) est indépendante de l'état du système tel que :

  (221)

Ainsi, à chaque état k du système la loi de probabilité de type poisson est valable. La différence de traitement c'est que plutôt que de considérer des états, nous allons considérer qu'un canal de communication peut-être considéré comme un état propre.

Pour la probabilité de fin d'appel, nous avons par contre :

  (222)

Effectivement, cette probabilité traduit juste que si k appels sont en cours chacun a une probabilité  de se terminer, d'où la somme qui donne .

Ainsi, en injectant ces relations dans :

  (223)

Il vient :

  (224)

En introduisant alors la variable :

  (225)

qui représente le nombre d'appels qui apparaissent sur le nombre d'appels qui se terminent pendant un intervalle de temps, ce qui représente en fait tout simplement le trafic, il vient :

  (226)

ou encore en introduisant le 1 dans la sommation :

  (227)

En reportant dans l'expression de :

  (228)

il vient :

  (229)

La probabilité de blocage de rejet d'un système disposant de N canaux et pour un trafic A s'écrit alors :

  (230)

Ce qui s'écrit traditionnellement :

  (231)

Cette relation est très importante en théorie des files d'attentes et porte le nom de "formule d'Erlang-B".


  
(232)

PROBABILITÉ DE MISE EN ATTENTE (FORMULE D'ERLANG C)

Considérons maintenant un système pour lequel les appels bloqués peuvent être mis en file d'attente avant d'être servis.

Avec ce système, nous avons toujours :

  (233)

mais pour la probabilité de fin d'appel l'analyse devient plus subtile. D'abord il y a la probabilité que les appels qui se trouvent sur les canaux N disponibles cessent et qui est donnée par :

  (234)

Mais dès que le nombre d'appels est plus grand que le nombre de canaux de communication disponible, la probabilité que cessent les appels est :

  (235)

Ce qui exprime que quelque soit le nombre d'appels, N ont la probabilité d'être mis en attente dès que k (le nombre d'appels) est supérieur ou égal à N.

Ainsi, pour résumer :

  (236)

En utilisant :

  (237)

Nous obtenons par décomposition du terme produit :

  (238)

D'où finalement :

  (239)

En utilisant l'expression de :

  (240)

Nous pouvons décomposer la sommation :

  (241)

et décomposer le deuxième produit :

  (242)

Sous l'hypothèse que  La somme :

  (243)

peut être simplifiée. Effectivement, en posant , il vient :

  (244)

et comme nous l'avons montré lors de notre étude la fonction Zeta (cf. chapitre de Suites Et Séries) cette somme peut s'écrire sous la forme :

  (245)

Donc :

  (246)

Donc finalement :

  (247)

Nous avons donc pour :

  (248)

La probabilité de mise en file d'attente se note C(N, A) est elle est égale à :

  (249)

en procédant exactement comme dans les paragraphes précédents, nous avons finalement :

  (250)

qui donne la probabilité qu'un utilisateur ait à attendre avant que son appel soit traité. Cette dernière relation est appelée "formule d'Erlang-C". Traditionnellement on note :

  (251)

Le "W" venant de l'anglais "wait" (attendre).

 
 
  nombre de visiteurs venus 745267 visiteurs (2556327 hits) Ici!

Tracked by Histats.com
Recherche personnalisée
$value) { if ($param == 'client') { google_append_url($google_ad_url, $param, 'ca-mb-' . $GLOBALS['google'][$param]); } else if (strpos($param, 'color_') === 0) { google_append_color($google_ad_url, $param); } else if ((strpos($param, 'host') === 0) || (strpos($param, 'url') === 0)) { google_append_url($google_ad_url, $param, $google_scheme . $GLOBALS['google'][$param]); } else { google_append_globals($google_ad_url, $param); } } google_append_url($google_ad_url, 'dt', round(1000 * array_sum(explode(' ', microtime())))); return $google_ad_url; } $google_ad_handle = @fopen(google_get_ad_url(), 'r'); if ($google_ad_handle) { while (!feof($google_ad_handle)) { echo fread($google_ad_handle, 8192); } fclose($google_ad_handle); } ?>
 
 
Ce site web a été créé gratuitement avec Ma-page.fr. Tu veux aussi ton propre site web ?
S'inscrire gratuitement