L'encyclopédie des Sciences
  Probabilités
 

Le calcul des probabilités s'occupe des phénomènes aléatoires (dits plus esthétiquement: "processus stochastiques"), c'est-à-dire de phénomènes qui ne mènent pas toujours à la même issue et qui peuvent êtres étudiés grâce aux nombres et à leurs conséquences et apparitions. Néanmoins, même si ces phénomènes ont des issues variées, dépendant du hasard, nous observons cependant une certaine régularité statistique. Le jet d'un dé, le tirage du Loto pourraient être analysés par les lois de la mécanique, mais ce serait trop compliqué et même impossible car il faudrait parfaitement connaître les conditions initiales ce qui comme vous pouvez le voir dans le chapitre de Physique Quantique Ondulatoire est de toute façon impossible. 

Définitions: Il existe plusieurs manières de définir une probabilité. Principalement, nous parlons de:

D1. "Probabilité expérimentale ou inductive" qui est la probabilité déduite de toute la population concernée.

D2. "Probabilité théorique ou déductive" qui est la probabilité connue grâce à l'étude du phénomène sous-jacent sans expérimentation. Il s'agit donc d'une connaissance "à priori" par opposition à la définition précédente qui faisait plutôt référence à une notion de probabilité "à posteriori".

Comme il n'est pas toujours possible de déterminer des probabilités a priori, nous sommes souvent amenés à réaliser des expériences. Il faut donc pouvoir passer de la première à la deuxième solution. Ce passage est supposée possible en terme de limite (avec une population dont la taille tend vers la taille de la population réelle).

La modélisation formelle par le calcul des probabilités a été inventée par A.N. Kolmogorov dans un livre paru en 1933. Cette modélisation est faite à partir de l'espace de probabilités (U, A, P) que nous définirons de manière un peu complète plus loin et que nous pouvons relier la théorie à la théorie de la mesure (voir chapitre du même nom).

UNIVERS DES ÉVÉNEMENTS

Définitions : 

D1. L'univers des événements, ou des "observables",U est l'ensemble de toutes les issues (résultats) possibles, appelées "événements élémentaires", qui se présentent au cours d'une épreuve aléatoire déterminée.

L'univers peut être fini (dénombrable) si les événements élémentaires sont en nombre fini ou continu (non dénombrable) s'ils sont infinis.

D2. Un "événement" quelconque A est un ensemble d'événements élémentaires et constitue une partie de l'univers des possible U. Il est possible qu'un événement ne soit constitué que d'un seul événement élémentaire.

Exemple:

Considérons l'univers de tous les groupes sanguins possible, alors l'événement A "l'individu est de rhésus positif" est représenté par:

  (1)

alors que l'événement B "l'individu est donneur universel" est représenté par:

  (2)

qui constitue donc un événement élémentaire.

D3. Soit U un univers et A un événement, nous disons que l'événement A "à lieu" (ou "se réalise") si lors du déroulement de l'épreuve se présente l'issue i   et que  . Dans le cas contraire, nous disons que A "n'a pas lieu".

D4. Le sous-ensemble vide  de U s'appelle "événement impossible". En effet, si lors de l'épreuve l'issue i se présente, nous avons toujours  et donc l'événement n'a donc jamais lieu.

Si U est fini, ou infini dénombrable, tout sous-ensemble de U est un événement, ce n'est plus vrai si U est non dénombrable (nous verrons dans le chapitre de Statistique pourquoi).

D5. L'ensemble U s'appelle aussi "événement certain". En effet, si lors de l'épreuve l'issue i se présente, nous avons toujours  (car U est l'univers des événements). L'événement U a donc toujours lieu.

D6. Soit A et B deux sous-ensembles de U. Nous savons que les événements   et   sont tous deux des sous-ensembles de U donc des événements aussi respectivement conjoints et disjoints. 

Si deux événements A et B sont tels que :

    (3)

les deux événements ne peuvent pas êtres réalisables pendant la même épreuve (résultat de lancer d'un dé typiquement), nous disons qu'ils sont des "événements incompatibles".

Sinon, si :

  (4)

les deux événements peuvent êtres réalisables dans la même épreuve (possibilité de voir un chat noir au moment où on passe sous une échelle par exemple), nous disons inversement qu'ils sont des "événements indépendants".

AXIOMatique de kolmogorov

La probabilité d'un événement sera en quelque sorte le répondant de la notion de fréquence d'un phénomène aléatoire, en d'autres termes, à chaque événement nous allons attacher un nombre réel, appartenant à l'intervalle [0,1], qui mesurera sa probabilité (chance) de réalisation. Les propriétés des fréquences que nous pouvons mettre en évidence lors d'épreuves diverses nous permettent de fixer les propriétés des probabilités.

Soit U un univers. Nous disons que nous définissons une probabilité sur les événements de U si à tout événement A de U nous associons un nombre ou une mesure P(A), appelé "probabilité à priori de l'événement A" ou "probabilité marginale de A".

A1. Pour tout événement A:

    (5)

Ainsi, la probabilité de tout événement est un nombre réel compris entre 0 et 1 inclus (c'est du bon sens humain...).

A2. La probabilité de l'événement certain ou de l'ensemble (somme) des événements est égal à 1:

  (6)

A3. Si , alors:

  (7)  

la probabilité de la réunion ("ou") de deux événements incompatibles est donc égale à la somme de leurs probabilités (loi d'addition). Nous parlons alors de "probabilité disjointe". Par exemple, si nous considérons qu'il est impossible d'avoir les cheveux totalement blonds et bruns en même temps que chaque état à une probabilité de 50%, alors la probabilité d'être l'un ou l'autre des couleurs est la somme des probabilités...

Autrement dit sous forme plus générale si est une suite d'évènements disjoints deux à deux ( et ne peuvent pas se produire en même temps si ) alors :

  (8)

Nous parlons alors de "σ-additivité" car si nous regardons de plus près, les trois axiomes ci-dessus la mesure P forme une σ-algèbre (cf. chapitre de Théorie de la Mesure).

Une conséquence immédiate des axiomes (A2) et (A3) est la relation entre les probabilités d'un événement A et son complémentaire, noté :

  (9)

Définition: Si A et B sont indépendants (ou mutuellement exclusifs), nous savons que, alors (très important en statistiques!) :

  (10)

la probabilité de l'intersection ("et") de deux événements indépendants est égale au produit de leurs probabilités (loi de multiplication). Nous parlons alors de "probabilité conjointe" (c'est le cas le plus fréquent).

Autrement dit sous forme plus générale: les événements sont indépendants si la probabilité de l'intersection est le produit des probabilités :

  (11)

Remarque: Attention ! Il ne faut pas confondre "indépendants" et "incompatibles". Deux événements de probabilités non nulles ne sont jamais indépendants.

Soit U un univers comportant un nombre fini n d'issues possibles:

    (12)

Les événements:

  (13)

sont appelés "événements élémentaires". Lorsque ces événements ont même probabilité, nous disons qu'ils sont "équiprobables". Dans ce cas, il est très facile de calculer leur probabilité. En effet, ces événements étant par définition incompatibles entre eux à ce niveau de notre discours, nous avons en vertu de l'axiome 3 des probabilités :

  (14)

mais puisque :

   (15)

et que les probabilités du membre de droite sont par hypothèse équiprobables, nous avons :

  (16)

PROBABILITÉS CONDITIONNELLES

Que pouvons-nous déduire sur la probabilité d'un évènement B sachant qu'un évènement A est réalisé? En d'autres termes, nous voulons savoir s'il est possible de définir la probabilité d'un événement conditionnellement (relativement) à un autre événement.

Cette probabilité est appelée "probabilité conditionnelle" ou "probabilité à priori" de B sachant A, et se note dans le cadre de l'étude des probabilités conditionnelles:

P(B / A)   (17)

et souvent dans la pratique:

P(B | A)   (18)

Nous avons aussi le cas P(A | B) qui est appelé "fonction de vraisemblance de A" ou encore "probabilité à posteriori" de A sachant B. Elle est postérieure, au sens qu'elle dépend directement de B.

Historiquement, le premier mathématicien à avoir utilisé correctement la notion de probabilité conditionnelle fut Thomas Bayes (1702-1761). Aussi parlons-nous souvent de Bayes ou de bayésien dès que des probabilités conditionnelles sont en jeu: formule de Bayes, statistique bayésienne…

La notion de probabilité conditionnelle que nous allons introduire est beaucoup moins simple qu'elle ne paraît a priori et les problèmes de conditionnement sont un source inépuisable d'erreurs en tout genre (il existe de fameux paradoxes sur le sujet). A titre d'illustration, nous pourrons méditer les deux exemples donnés un peu plus bas.

Commencons d'abord par un exemple simpliste: Supposons que nous ayons deux dès. Imaginons maintenant que nous ayons lancé seulement le premier dé. Nous voulons savoir quelle est la probabilité qu'en lançant le second dé, la somme des deux chiffres vaille une certaine valeur. Ainsi, la probabilité d'obtenir cette valeur fixée sachant la valeur du premier dé est totalement différente de la probabilité d'obtenir cette même valeur en lançant les deux dès. Comment calculer cette nouvelle probabilité?

Formalisons la démarche:

Après le lancer du premier dé, nous avons une nouvelle loi qui tient compte de l'information supplémentaire:

    (19)

Notons cette nouvelle loi P(. / A) . Comment la déterminer? Deux solutions sont envisageables : 

S1. Soit nous remodélisons notre problème

S2. Soit nous calculons P(. / A

À partir de la probabilité P initiale. Nous allons choisir la deuxième solution. Soit , nous pressentons que P(B / A) doit être proportionnel à P(B), la constante de proportionnalité étant déterminée par la normalisation .

Soit maintenant (B est inclus dans le complémentaire de ). Il est assez intuitif que . Ceci nous mène aux définitions suivantes :

   et      (20)

en rappelant que le nombre P(B / A)  s'appelle "probabilité conditionnelle de B sachant A". 

Ainsi, la connaissance d'une information sur une expérience peut modifier l'idée que nous nous faisons de la probabilité d'un évènement. Ainsi, le fait de savoir que B est réalisé réduit l'ensemble des résultats possibles de U à B. A partir de là, seules les éventualités de ont une importance. La probabilité de A sachant B doit donc être proportionnelle à .

Le coefficient de proportionnalité 1/P(B) assure lui que l'application qui à A associe P(A / B)  est bien une probabilité, pour laquelle B est l'événement certain. Effectivement, si les deux événements A et B sont incompatibles, nous avons alors:

  (21)

et nous voyons alors P(A / B) qui vaut P(A) et P(B / A) qui vaut P(B) soit l'information de A n'apporte rien sur B et réciproquement!!

Une autre façon assez intuitive pour voir les choses est de se représenter la mesure de probabilité P. comme une mesure d'aires de sous-ensembles de

En effet, si A et B sont deux sous-ensembles de  d'aires respectives P(A) et P(B) alors à la question de savoir qu'elle est la probabilité qu'un point du plan appartienne à B sachant qu'il appartient à A il est assez évident de répondre que cette probabilité est donnée par:

  (22)

Remarque: Attention la notation P(B / A)  est quelque peu dangereuse. En effet, B / A n'est pas un événement (ni une division par ailleurs...)!

Une loi de probabilité conditionnelle est donc une loi de probabilité. En particulier, si sont disjoints (incompatibles) et réalisé parmi les expériences où B l'est aussi. Alors :

  (23)

aussi :

  (24)

La définition des probabilités conditionnelles s'utilise souvent sous la forme :

  (25)

Soit la probabilité de B sachant A est donc:

  (26)

Exemples:

E1. Supposons une maladie comme la méningite. La probabilité de l'avoir sera noté  (chiffre arbitraire pour l'exemple) et un signe de cette maladie comme le mal de tête qui sera noté . Supposons connu la probabilité d'avoir mal à la tête si nous avons une méningite. Le théorème de Bayes donne alors la probabilité (à priori) d'avoir un méningite si nous avons mal à la tête! :

  (27)

E2. Sachant qu'une famille a deux enfants et que l'un d'eux est un garçon, quelle est la probabilité que l'autre soit un garçon aussi?

Cet énoncé manque de rigueur au point d'être ambigu et on peut lui donner deux interprétations différentes qui n'ont pas la même réponse : 1/3 pour l'une et 1/2 pour l'autre.

Effectivement, si nous considérons un groupe de parents de deux enfants. Si nous demandons à tous ceux qui ont au moins un fils de former un sous-groupe et que nous demandons à un des parents du sous-groupe si son autre enfant est aussi un garçon, quelle est la probabilité qu'il réponde oui ? Réponse : 1/3.

Expliquons cette réponse de manière non formelle: Dans le groupe de parents, nous avons 1/4 de parents de fille-fille (FF), 1/4 de fille-garçon (FG), 1/4 de garçon-fille (GF) et 1/4 de garçon-garçon (GG). Donc 3/4 des parents (FG, GF et GG) vont dans le sous-groupe. Donc seul 1/3 des parents du sous-groupe a aussi un garçon pour autre enfant, soit deux garçons (GG).

Ensuite imaginons que nous arrivons chez une connaissance dont nous savons seulement qu'elle a deux enfants. Un enfant m'ouvre la porte, c'est un garçon. Quelle est la probabilité que le second enfant soit un garçon ? Réponse : 1/2.

Expliquons cette autre réponse de manière non formelle : Avant d'ouvrir la porte, nous savons que la famille contient (FF), (FG), (GF) ou (GG). Après avoir ouvert la porte, je sais qu'elle contient donc (GF) ou (GG) et la probabilité que le second enfant soit G est 1/2. Notons que si c'est une fille qui avait ouvert, alors je saurais que la famille contient FF ou FG.

En revanche, s'il existait une coutume exigeant qu'un fils ouvre la porte, pour autant qu'il y ait un fils, alors la probabilité que le second enfant soit aussi un fils serait de 1/3. En effet, dans ce cas, après qu'un garçon m'ait ouvert la porte, alors je saurais que je suis dans le cas (FG), (GF) ou (GG) car une fille ne peut ouvrir que dans le cas (FF). Notons que dans le cas (FG), la fille doit céder sa place au garçon, ce qui influe sur les probabilités.

Au fait, le défaut de l'énoncé est que nous ne pouvons pas répondre car la procédure par laquelle l'information est obtenue n'est pas précisée.

De façon générale, si A et B sont deux événements (définis sans ambiguïté) d'un espace probabilisé (lui aussi non ambigu), il n'y a pas d'ambiguïté pour déterminer la probabilité conditionnelle de AB. sachant

En revanche, si A est un événement et B une assertion, on ne peut pas répondre à un exercice de la forme : Nous savons B; quelle est la probabilité de A?

Pour résoudre ce problème, nous faisons l'hypothèse que la probabilité d'avoir un garçon est de 50%. Dans la réalité, ce n'est pas tout à fait le cas. Nous faisons aussi l'hypothèse que les naissances sont des événements indépendants.

Soit GG l'évènement : les deux enfants sont des garçons

Soit G l'évènement : l'un des deux est un garçon

Nous avons donc:

  (28)

Or P(G|GG) = 1 car si les deux sont des garçons, alors l'un des deux est un garçon (toujours vrai) et nous avons aussi P(GG) = 1/4 ainsi que P(G) = 3/4.

Ainsi:

  (29)

Pour en revenir à la théorie, notons que nous avons aussi:

  (30)

qui est la "formule des probabilités totales" ou encore "théorie des probabilités totales". Mais aussi, pour tout j, nous avons :

  (31)

C'est la forme générale de la "formule de Bayes" ou "théorème de Bayes" que nous utiliserons un tout petit peu en mécanique statistique et dans le cadre de l'étude de la théorie des filtes d'attentes (cf. chapitre de Techniques De Gestion). Il faut savoir que les implications de ce théorème sont cependant considérables dans le quotidien, dans la médecine, dans l'industrie et dans le domaine du Data Mining informatique.

Exemple:

Deux machines  et  produisent respectivement 100 et 200 pièces.  produit 5% de pièces défectueuses et  en produit 6%. Quelle est la probabilité pour qu'un objet défectueux ait été fabrique par la machine ?

L'événement constaté, A est donc la présence d'une pièce défectueuse et les causes sont les machines  et . Nous avons alors:

  (32)

Ainsi, pour résumer simplement, si A et B sont deux évènements, le théorème de Bayes permet de déterminer la probabilité de A sachant B, si nous connaissons les probabilités de A, de B et de B sachant A.

L'analyse bayésienne fournit donc un outil puissant de formalisation du raisonnement dans l'incertain et les exemples que nous avons montrés illustrent surtout à quel point cet outil est délicat à employer.

Une différence (c'est intéressent de la souligner) entre l'inférence bayésienne et les statistiques classiques est que:

- Les méthodes bayésiennes utilisent des méthodes impersonnelles pour mettre à jour des probabilités personnelles, dites aussi subjectives (une probabilité est en fait toujours subjective, lorsqu'on analyse ses fondements).

- Les méthodes statistiques utilisent des méthodes personnelles pour traiter des fréquences impersonnelles.

Les deux approches se complètent, la statistique étant en général préférable lorsque les informations sont abondantes et d'un faible coût de collecte, la bayésienne dans le cas où elles sont rares et/ou onéreuses à rassembler. En cas de grande abondance de données, les résultats sont asymptotiquement les mêmes dans chaque méthode, la bayésienne étant simplement plus coûteuse en calcul. En revanche, la bayésienne permet de traiter des cas où la statistique ne disposerait pas d'assez de données pour qu'on puisse en appliquer les théorèmes limites.

MARTINGALES

Une martingale est une technique permettant d'augmenter les chances de gain aux jeux de hasard tout en respectant les règles de jeu. Le principe dépend complètement du type de jeu qui en est la cible, mais le terme est accompagné d'une aura de mystère qui voudrait que certains joueurs connaissent des techniques secrètes mais efficaces pour tricher avec le hasard. Par exemple, de nombreux joueurs (ou candidats au jeu) cherchent LA martingale qui permettra de battre la banque dans les jeux les plus courants dans les casinos (des institutions dont la rentabilité repose presque entièrement sur la différence - même faible - qui existe entre les chances de gagner et celles de perdre).

De nombreuses martingales ne sont que le rêve de leur auteur, certaines sont en fait inapplicables, quelques-unes permettent effectivement de tricher un peu. Les jeux d'argent sont en général inéquitables : quel que soit le coup joué, la probabilité de gain du casino (ou de l'État dans le cas d'une loterie) est plus importante que celle du joueur. Dans ce type de jeu, il n'est pas possible d'inverser les chances, seulement de minimiser la probabilité de ruine du joueur.

L'exemple le plus courant est la martingale de la roulette, elle consiste à jouer une chance simple à la roulette (noir ou rouge, pair ou impair) de façon à gagner, par exemple, une unité dans une série de coups en doublant sa mise si l'on perd, et cela jusqu'à ce que l'on gagne. Exemple : le joueur mise 1 unité sur le rouge, si le rouge sort, il arrête de jouer et il a gagné 1 unité (2 unités de gain moins l'unité de mise), si le noir sort, il double sa mise en pariant 2 unités sur le rouge et ainsi de suite jusqu'à ce qu'il gagne.

Ayant une chance sur deux de gagner, il peut penser qu'il va finir par gagner ; quand il gagne, il est forcément remboursé de tout ce qu'il a joué, plus une fois sa mise de départ.

Cette martingale semble être sûre en pratique. À noter que sur le plan théorique, pour être sûr de gagner, il faudrait avoir la possibilité de jouer au cas où un nombre de fois illimité. Ce qui présente des inconvénients majeurs :

Cette martingale est en fait limitée par les mises que le joueur peut faire car il faut doubler la mise à chaque coup tant que l'on perd : 2 fois la mise de départ, puis 4, 8, 16.... s'il perd 10 fois de suite, il doit pouvoir avancer 1024 fois sa mise initiale pour la 11e partie ! Il faut donc beaucoup d'argent pour gagner peu.

Les roulettes comportent un "0" qui n'est ni rouge ni noir. Le risque de perdre lors de chaque coup est ainsi plus grand que 1/2.

De plus, pour paralyser cette stratégie, les casinos proposent des tables de jeu par tranche de mise : de 1 à 100 euros, de 2 à 200, de 5 à 500, etc (bon ensuite voir s'il est possible de changer de table…). Impossible donc d'utiliser cette méthode sur un grand nombre de coups, ce qui augmente le risque de tout perdre.

Le black jack est un jeu qui possède des stratégies gagnantes : plusieurs techniques de jeu, qui nécessitent généralement de mémoriser les cartes, permettent de renverser les chances en faveur du joueur. Le mathématicien Edward Thorp a ainsi publié en 1962 un livre qui fut à l'époque un véritable best-seller. Mais toutes ces méthodes demandent de longues semaines d'entraînement et sont facilement décelables par le croupier (les brusques changements de montant des mises sont caractéristiques). Le casino a alors tout loisir d'écarter de son établissement les joueurs en question. Le black jack reste pourtant le jeu le moins défavorable au joueur : l'avantage du casino n'est que de 0.66 % face à un bon joueur, il est de 2.7 % à la roulette et jusqu'à 10 % pour les machines à sous.

Il faut noter qu'il existe des méthodes assez évoluées. L'une d'elles repose sur les combinaisons les moins jouées. Dans les jeux où le gain dépend du nombre de joueurs gagnants (Loto...), jouer les combinaisons les moins jouées optimisera les gains. C'est ainsi que certaines personnes vendent des combinaisons qui seraient statistiquement très rarement utilisées par les autres joueurs. On peut tout de même deviner que certains numéros sont joués plus souvent : beaucoup de joueurs cochant leur date de naissance, ou une autre date, les numéros 1, 9, et 19 correspondants à l'année sont très souvent joués. Il en est de même des 12 premiers numéros correspondants aux mois.

Partant de ce raisonnement, on peut encore conclure qu'un joueur qui aurait réussi à déterminer ainsi les combinaisons statistiquement les moins jouées, afin d'optimiser son espérance de gain ne sera en fait certainement pas le seul joueur à avoir obtenu par l'analyse ces fameuses combinaisons, et tous ces joueurs risquent donc finalement d'être très déçus par leurs gains s'il s'avérait que cette combinaison équiprobable sorte au tirage ! Cela revient à dire que les numéros en théorie les moins joués sont en fait surjoués par combinaisons, le mieux serait peut-être de réaliser un savant mélange de numéros sous-joués et de numéros surjoués pour obtenir les combinaisons idéales, qui peuvent par ailleurs être observées dans les tirages passés lorsqu'il n'y a pas eu de gagnant. Une autre conclusion à tout cela est peut-être que le mieux est encore de jouer des combinaisons aléatoires qui ont finalement moins de chance d'être également choisies par les joueurs qui incorporent un facteur humain et harmonieux dans le choix de leurs nombres.

ANALYSE COMBINATOIRE

Définition: "L'analyse combinatoire" est le domaine de la mathématique qui s'occupe de l'étude de l'ensemble des issues ou arrangements (combinaisons) ordonnés ou non possibles d'événements ou faits (distinguables ou non tous distinguables) possibles selon certaines contraintes données.

Propriétés :

P1. Une suite d'objets (événements, issues,...) est dite "ordonnée" si chaque suite composée d'un ordre particulier des objets est compatbilisé comme une configuration particulière.

Corollaire : une suite est non ordonnée si et seulement si nous intéresse la fréquence d'apparition des objets indépendamment de leur ordre.

P2. Des objets (d'une suite) sont dits "distincts" si leurs charactéristiques ne permettent pas de les confondre avec des autres objets.

Remarque: Nous avons choisi de mettre l'analyse combinatoire dans ce chapitre car lorsque nous calculons des probabilités, nous avons également assez souvent besoin de savoir quelle est la probabilité de tomber sur une combinaison ou un arrangement d'événements donnés sous certaines contraintes (le Loto par exemple...).

Il existe plusieurs types d'arrangements selons les contraintes et les propriétés des éléments arrangés. Nous allons présenter et démontrer ci-dessous les 5 cas les plus répandus à partir desquels nous pouvons trouver (habituellement) tous les autres :

ARRANGEMENTS AVEC RÉPÉTITION

Définition : Un "arrangement avec répétition" est une suite ordonnée de longueur m de n objets distincts non nécessairement tous différents dans la suite (avec répétition).

Soient A et B deux ensembles finis de cardinaux respectifs m, n tels que trivialement il y ait m façons de choisir un objet dans A (de type a) et n façons de choisir un objet dans B (de type b).

Nous avons vu en théorie des ensemble que si A et B sont disjoints, que: 

  (33)

Nous en déduisons donc les propriété suivantes:

P1. Si un objet ne peut être à la fois de type a et de type b et s'il y a m façons de choisir un objet de type a et n façons de choisir un objet de type b, alors il y a   façons de choisir un objet de type a ou de type b.

P2. Si nous pouvons choisir un objet de type a de m façons puis un objet de type b de n façons, alors il y a (produit cartésien de deux ensembles – voir chapitre de Théorie Des Ensembles)  :

  (34)

de choisir un seul et unique objet de type a puis un objet de type b.

Avec les mêmes notations, choisir une fonction de A dans B, c'est choisir (dans le cas général) pour chaque élément de A, son unique image parmi les n éléments de B. Il y a donc n façons de choisir l'image  du premier élément  de A, puis aussi n façons de choisir l'image du deuxième, …, puis n façons de choisir  l'image du m-ième. Le nombre d'applications totales possibles de A dans B est donc égal au produit de m égaux à n. Ainsi, nous avons :

  (35)

 est l'ensemble des applications de A dans B.

Ce résultat mathématique est assimilable au résultat non-ordonné (un arrangement dont l'ordre des éléments de la suite n'est pas est pris en compte) de m tirages dans un sac contenant n boules différentes avec remise après chaque tirage.

Exemple:

Combien de "mots" (ordonnés) de 7 lettres pouvons nous former à partir d'un alphabet de 24 lettres distinctes ?

  (36)

Une généralisation simple de ce dernier résultat peut consister dans l'énoncé du problème suivant :

Donc, si nous disposons de m objets  tels que  peut prendre  états différents alors le nombre de combinaisons possibles est:

  (37)

Et si nous avons   alors nous retombons sur :

  (38)

PERMUTATIONS SIMPLES

Définition (première version) : Une "permutation simple" (appelée anciennement "substitution") de nn objets par définition tous différents dans la suite (sans répétition). objets distincts est une suite ordonnée de ces

Le nombre d'arrangements de n éléments peut être calculé par récurrence : il y a n places pour un premier élément, n-1 pour un deuxième élément,…, et il ne restera qu'une place pour le dernier élément restant.

Il est dès lors trivial que nous aurons un nombre d'arrangements donné par : 

    (39)

Rappelons que le produit: 

    (40)

est appelé "factorielle de n" et nous la notons n! pour

Il y a donc pour n éléments distinguables :

  (41)

arrangements possibles.

Exemple:

Combien de "mots" (ordonnés) de 7 lettres distinctes pouvons nous former ?

  (42)

Ce résultat nous amène à l'assimiler au résultat ordonné (un arrangement dont l'ordre des éléments de la suite est pris en compte) du tirage de toutes les boules d'un sac contenant n boules distinguables sans remise.

Définition (ensembliste) : une permutation d'un ensemble X est une bijection de l'ensemble X sur lui-même, y compris le cas où est infini. Une permutation de n éléments est une bijection d'un ensemble fini de cardinal n sur lui-même. Une permutation de n éléments est aussi un n-uplet de n éléments distincts. L'ensemble X étant fini, il y autant d'applications bijectives de X dans lui-même que d'applications injectives de X dans lui-même, soit .

PERMUTATIONS AVEC RÉPÉTITION

Définition : Lorsque nous considérons le nombre de permutations ordonnées (différentes) d'une suite de  n objets distincts tous nécessairement non différents dans la suite nous parlons de "permutation avec répétition".

Remarque: Il ne faut pas confondre cette dernière définition avec "l'arrangement avec répétition" qui est une suite ordonnée de longueur m de n objets distincts non nécessairement tous différents.

Lorsque certains éléments éléments ne sont pas distinguables dans une suite d'objets (ils sont répétitifs dans la suite), alors le nombre d'arrangements (permutations) que nous pouvons constituer se réduit alors assez trivialement à un nombre plus petit que si tous les éléments étaient distinguables.

Soit le nombre d'ojets du type i, avec par conséquent:

  (43)

alors, nous notons :

  (44) avec

le nombre d'arrangements possibles (pour l'instant inconnu) avec répétition (un ou plusieurs éléments répétitifs dans une suite d'éléments sont non distinguables par permutation).

Si chacune des  places occupées par des éléments identiques était occupée par des éléments diffèrents, le nombre de permutations serait alors à multiplier par chacun des  (cas précédent). 

Il vient alors que nous retombons sur la factorielle telle que :

  (45)

alors:

  (46)

Si les n objets sont tous différentes dans la suite, nous avons alors :

  (47)

et nous nous retrouvons bien avec une permutation simple tel que :

  (48)

Exemple:

Combien de "mots" (ordonnés) pouvons-nous former avec les lettres du mot "mississippi" :

  (49)

Ce résultat nous amène à l'assimiler au résultat ordonné (un arrangement dont l'ordre des éléments de la suite est pris en compte) du tirage de n boules non tous distinguables d'un sac contenant boules avec remise limitée pour chaque boule.

ARRANGEMENTS SIMPLES SANS RÉPÉTITION

Définition : Un "arrangement simple sans répétition" est une suite ordonnée de  p objets (tous différents dans la suite) pris parmi n objets distincts avec .

Nous nous proposons maintenant  de dénombrer les arrangements possibles de p objets parmi n. Nous noterons  le nombre des ces arrangements. Il est aisé de calculer  et de vérifier que ; il existe en effet n façons de choisir le premier objet et (n-1) façons de choisir le deuxième lorsque nous avons déjà le premier. Pour déterminer , nous raisonnons alors par récurrence. 

Nous supposons  connu et nous en déduisons :

    (50)

Dès lors: 

  (51)

alors:


  
(52)

d'où :

  (53)

Ce résultat nous amène à l'assimiler au résultat ordonné (un arrangement dont l'ordre des éléments de la suite est pris en compte) du tirage de p boules d'un sac contenant  n boules différentes sans remise.

Exemple:

Soit les 24 lettres de l'alphabet, combien de "mots" (ordonnés) de 7 lettres distinctes pouvons nous former ?

  (54)

Le lecteur aura peut-être remarqué que si nous prenons nous nous retrouvons bien avec :

  (55)

Une permutation simple est donc un arrangement simple sans répétition avec !

COMBINAISONS SIMPLES

Définition : Une "combinaison simple" ou "choix" est une suite non-ordonnée (dont l'ordre ne nous intéresse pas!) de p éléments tous différents (pas nécessairement dans le sens visuel du terme!) choisis parmi n objets distincts et est par définition notée et appelée la "binômiale". 

Si nous permutons les éléments de chaque arrangement simple de p éléments parmi n, nous obtenons toutes les permutations simples et nous savons qu'il y en a p! d'où en utilisant la convention d'écriture du site Internet :

  (56)

C'est une relation très souvent utilisée dans les jeux de hasard mais également dans l'industrie via la loi hypergéométrique (cf. chapitre de Techniques De Gestion).

Remarques:

R1. Nous avons nécessairement par définition

R2. Selon les auteurs nous inversons l'indice ou le suffice de C il donc être proudent!

Exemple:

Soit un alphabet de 24 lettres, combien avons nous de choix de prendre 7 lettres parmi les 24 sans prendre en compte l'ordre dans lequel sont tirées les lettres :

  (57)

La même valeur peut être obtenue avec la fonction COMBIN() de MS Excel.

Ce résultat nous amène à l'assimiler au résultat non ordonné (un arrangement dont l'ordre des éléments de la suite n'est pas pris en compte) du tirage de p boules d'un sac contenant n boules différentes sans remise.

Il existe, relativement à la binômiale, une autre relation très souvent utilisée dans de nombreux cas d'études ou également de manière plus globable en physique ou analyse fonctionnelle. Il s'agit de la "formule de Pascal" :

  (58)

Démonstration:

  (59)

Or  donc :

  (60)

et de même  :

  (61)

Ainsi :

  (62)

C.Q.F.D.

CHAÎNES DE MARKOV

Les chaînes de Markov sont des outils statistiques et probabilistes simples mais dont la forme de présentation mathématique prête parfois à l'horreur. Nous allons tenter ici de simplifier un maximum les notations pour introduire cet outil formidable très utilisé au sein des entreprises pour gérer la logistique, les files d'attentes aux centrales d'appel ou aux caisses de magasins jusqu'à la théorie de la défaillance pour la maintenance préventive, en physique statistique ou en génie biologique (et la liste est encore longue et pour plus de détails le lecteur pourra se reporter aux chapitres concernés disponibles sur le site…).

Définition : Nous noterons  un processus stochastique (aléatoire) fonction du temps dont la valeur à chaque instant dépend de l'issue d'une expérience aléatoire. Ainsi, à chaque instant t, X(t) est donc une variable aléatoire.

Si nous considérons un temps discret, nous notons alors  un processus stochastique à temps discret. Si nous supposons que les variables aléatoires  ne peuvent prendre qu'un ensemble discret de valeurs. Nous parlons alors de "processus à temps discret et à espace discret".

Remarque: Il est tout à fait possible comme dans l'étude du télétrafic d'avoir un processus à temps continu et à espace d'état discret.

Définition :  est une "chaîne de Markov" si et seulement si :

  (63)

en d'autres termes (c'est très simple!) la probabilité pour que la chaîne soit dans un certain état à la n-ième étape du processus ne dépend que de l'état du processus à l'étape n – 1 et pas des étapes précédentes!

Remarque: En probabilité un processus stochastique vérifie la propriété markovienne si et seulement si la distribution conditionnelle de probabilité des états futurs, étant donné l'instant présent, ne dépend que de ce même état présent et pas des états passés. Un processus qui possède cette propriété est donc appelé "processus de Markov".

Définition: Une "chaîne de Markov homogène" est une chaîne telle que la probabilité qu'elle a pour passer dans un certain état à la n-ième soit indépendante du temps. En d'autres termes, la loi de probabilité caractérisant la prochaine étape ne dépend pas du temps (de l'étape précédente), et en tout temps la loi de probabilité à tout moment de la chaîne est toujours la même pour caractériser la transition à l'étape en cours.

Nous pouvons alors définir la (loi) de "probabilité de transition" d'un état i vers un état j par :

  (64)

Il est alors naturel de définir la "matrice de transition" :

  (65)

Les chaînes de Markov peuvent être représentées graphiquement sous la forme d'un graphe orienté (cf. chapitre de Théorie Des Graphes). Nous associons alors à chaque composant un arc orienté et sa la probabilité de transition.

Exemple:


  (66)

Ainsi, les seules transitions permises par les 4 états (matrice 4x4) sont celles indiquées par les flèches. Ce qui fait que la matrice de transition s'écrit alors :

  (67)

L'analyse du régime transitoire d'une chaîne de Markov consiste à déterminer la matrice-colonne (vecteur) p(n) d'être dans un état j à l'étape n :

  (68)

Ce vecteur de probabilité dépend (c'est assez intuitif) de la matrice de transition P et du vecteur de probabilités initiales p(0).

Pour étudier ce vecteur de probabilités, nous pouvons faire les remarques suivantes :

  (69)

or :

  (70)

ce qui s'écrit encore :

  (71)

ce qui peut s'écrire finalement :

  (72)

Nous verrons un exemple applicatif simple et pragmatique de ceci dans le chapitre de Génie biologique.






Ajouter un commentaire à cette page:
Votre nom:
Votre message:

 
  nombre de visiteurs venus 484505 visiteurs (2038418 hits) Ici!

Tracked by Histats.com
Recherche personnalisée
$value) { if ($param == 'client') { google_append_url($google_ad_url, $param, 'ca-mb-' . $GLOBALS['google'][$param]); } else if (strpos($param, 'color_') === 0) { google_append_color($google_ad_url, $param); } else if ((strpos($param, 'host') === 0) || (strpos($param, 'url') === 0)) { google_append_url($google_ad_url, $param, $google_scheme . $GLOBALS['google'][$param]); } else { google_append_globals($google_ad_url, $param); } } google_append_url($google_ad_url, 'dt', round(1000 * array_sum(explode(' ', microtime())))); return $google_ad_url; } $google_ad_handle = @fopen(google_get_ad_url(), 'r'); if ($google_ad_handle) { while (!feof($google_ad_handle)) { echo fread($google_ad_handle, 8192); } fclose($google_ad_handle); } ?>
 
 
=> Veux-tu aussi créer une site gratuit ? Alors clique ici ! <=