1. UNIVERS DES ÉVÉNEMENTS



CALCUL DES PROBABILITÉS

1. Univers des événements

1.1. Axiomes

1.2. Probabilités conditionnelles

1.3. Martingales

2. Analyse combinatoire

1.1. Arrangements avec répétition

1.2. Permutations simples

1.3. Permutations avec répétitions

1.4. Arrangements simples sans répétitions

1.5. Combinaisons simples

1.5.1. Binômiale

1.5.2. Formule de Pascal

3. Chaînes de Markov

Définitions : 

D1. L'univers des événements, ou des "observables", U est l'ensemble de toutes les issues (résultats) possibles, appelées "événements élémentaires", qui se présentent au cours d'une épreuve aléatoire déterminée.

L'univers peut être fini (dénombrable) si les événements élémentaires sont en nombre fini ou continu (non dénombrable) s'ils sont infinis.

D2. Un "événement" quelconque A est un ensemble d'événements élémentaires et constitue une partie de l'univers des possible U. Il est possible qu'un événement ne soit constitué que d'un seul événement élémentaire.

exempleExemple:

Considérons l'univers de tous les groupes sanguins possible, alors l'événement A "l'individu est de rhésus positif" est représenté par:

equation   (6.1)

alors que l'événement B "l'individu est donneur universel" est représenté par:

equation   (6.2)

qui constitue donc un événement élémentaire.

D3. Soit U un univers et A un événement, nous disons que l'événement A "à lieu" (ou "se réalise") si lors du déroulement de l'épreuve se présente l'issue i  equation et que  equation. Dans le cas contraire, nous disons que A "n'a pas lieu".

D4. Le sous-ensemble vide equation de U s'appelle "événement impossible". En effet, si lors de l'épreuve l'issue i se présente, nous avons toujours  equation et donc l'événement equation n'a donc jamais lieu.

Si U est fini, ou infini dénombrable, tout sous-ensemble de U est un événement, ce n'est plus vrai si U est non dénombrable (nous verrons dans le chapitre de Statistique pourquoi).

D5. L'ensemble U s'appelle aussi "événement certain". En effet, si lors de l'épreuve l'issue i se présente, nous avons toujours equation (car U est l'univers des événements). L'événement U a donc toujours lieu.

D6. Soit A et B deux sous-ensembles de U. Nous savons que les événements  equation et  equation sont tous deux des sous-ensembles de U donc des événements aussi respectivement conjoints et disjoints. 

Si deux événements A et B sont tels que :

  equation   (6.3)

les deux événements ne peuvent pas êtres réalisables pendant la même épreuve, nous disons alors qu'ils sont des "événements incompatibles".

Sinon, si :

equation   (6.4)

les deux événements peuvent êtres réalisables dans la même épreuve (possibilité de voir un chat noir au moment où on passe sous une échelle par exemple), nous disons inversement qu'ils sont des "événements indépendants".

Pour résumer:

- Incompatibles : Ils ne peuvent se produire ensemble.

- Indépendants : la réalisation de l'un ne modifie pas la probabilité de réalisation de l'autre.

1.1. AXIOMatique de kolmogorov

La probabilité d'un événement sera en quelque sorte le répondant de la notion de fréquence d'un phénomène aléatoire, en d'autres termes, à chaque événement nous allons attacher un nombre réel, appartenant à l'intervalle [0,1], qui mesurera sa probabilité (chance) de réalisation. Les propriétés des fréquences que nous pouvons mettre en évidence lors d'épreuves diverses nous permettent de fixer les propriétés des probabilités.

Soit U un univers. Nous disons que nous définissons une probabilité sur les événements de U si à tout événement A de U nous associons un nombre ou une mesure P(A), appelé "probabilité à priori de l'événement A" ou "probabilité marginale de A".

A1. Pour tout événement A:

equation  (6.5)

Ainsi, la probabilité de tout événement est un nombre réel compris entre 0 et 1 inclus (c'est du bon sens humain...).

A2. La probabilité de l'événement certain ou de l'ensemble (somme) des événements possibles est égale à 1:

equation   (6.6)

A3. Si equation sont deux événements incompatibles (disjoints), alors:

equation   (6.7)  

la probabilité de la réunion ("ou") de deux événements incompatibles est donc égale à la somme de leurs probabilités (loi d'addition). Nous parlons alors de "probabilité disjointe".

Par exemple, si nous considérons qu'il est impossible d'avoir les cheveux totalement blonds et bruns en même temps et que chaque état à une probabilité de 50%, alors la probabilité d'être l'un ou l'autre des couleurs est la somme des probabilités... Nous retrouverons ce genre de probabilité dans le chapitre de Génie Industriel dans la méthode AMDEC des systèmes à structure complexe pour un exemple pratique.

Autrement dit sous forme plus générale si equation est une suite d'évènements disjoints deux à deux (equation et equation ne peuvent pas se produire en même temps si equation) alors :

equation   (6.8)

Nous parlons alors de "s-additivité" car si nous regardons de plus près les trois axiomes ci-dessus la mesure P forme une s-algèbre (cf. chapitre de Théorie de la Mesure).

Une conséquence immédiate des axiomes (A2) et (A3) est la relation entre les probabilités d'un événement A et son complémentaire, noté equation :

equation   (6.9)

Définition: Si A et B sont indépendants (ou mutuellement exclusifs), nous savons queequation, alors (très important en statistiques!) :

equation  (6.10)

la probabilité de l'intersection ("et") de deux événements indépendants est égale au produit de leurs probabilités (loi de multiplication). Nous parlons alors de "probabilité conjointe" (c'est le cas le plus fréquent).

Autrement dit sous forme plus générale, les événements equation sont indépendants si la probabilité de l'intersection est le produit des probabilités :

equation   (6.11)

Remarque: Attention à ne pas confondre "indépendants" et "incompatibles"!

Soit U un univers comportant un nombre fini n d'issues possibles:

  equation   (6.12)

Les événements:

equation   (6.13)

sont donc appelés "événements élémentaires". Lorsque ces événements ont même probabilité, nous disons qu'ils sont "équiprobables". Dans ce cas, il est très facile de calculer leur probabilité. En effet, ces événements étant par définition incompatibles entre eux à ce niveau de notre discours, nous avons en vertu de l'axiome 3 des probabilités :

equation   (6.14)

mais puisque :

equation   (6.15)

et que les probabilités du membre de droite sont par hypothèse équiprobables, nous avons :

equation   (6.16)

1.2. PROBABILITÉS CONDITIONNELLES

Que pouvons-nous déduire sur la probabilité d'un évènement B sachant qu'un évènement A est réalisé? En d'autres termes, nous voulons savoir s'il est possible de définir la probabilité d'un événement conditionnellement (relativement) à un autre événement.

Ce type de probabilité est appelée "probabilité conditionnelle" ou "probabilité à posteriori" de B sachant A, et se note dans le cadre de l'étude des probabilités conditionnelles:

P(B / A)   (6.17)

et souvent dans la pratique pour éviter la confusion avec une possible division:

P(B | A)   (6.18)

Nous avons aussi le cas:

P(A | B)   (6.19)

qui est appelé "fonction de vraisemblance de A" ou encore "probabilité à priori" de A sachant B (cas beaucoup moins intéressant....).

Historiquement, le premier mathématicien à avoir utilisé correctement la notion de probabilité conditionnelle fut Thomas Bayes (1702-1761). Aussi parlons-nous souvent de Bayes ou de bayésien dès que des probabilités conditionnelles sont en jeu: formule de Bayes, statistique bayésienne...

La notion de probabilité conditionnelle que nous allons introduire est beaucoup moins simple qu'elle ne paraît a priori et les problèmes de conditionnement sont une source inépuisable d'erreurs en tout genre (il existe de fameux paradoxes sur le sujet).

Commençons d'abord par un exemple simpliste: Supposons que nous ayons deux dès. Imaginons maintenant que nous ayons lancé seulement le premier dé. Nous voulons savoir quelle est la probabilité qu'en lançant le second dé, la somme des deux chiffres vaille une certaine valeur minimale. Ainsi, la probabilité d'obtenir cette valeur minimale fixée sachant la valeur du premier dé est totalement différente de la probabilité d'obtenir cette même valeur minimale en lançant les deux dès en même temps. Comment calculer cette nouvelle probabilité?

Formalisons la démarche:

Après le lancer du premier dé, nous avons:

  equation   (6.20)

Soit l'hypothèse que equation, nous pressentons que P(B / A) doit être proportionnel à P(B), la constante de proportionnalité étant déterminée par la normalisation:

equation   (6.21)

Soit maintenant equation (B est inclus dans le complémentaire de A donc les événements sont incompatibles). Il est assez intuitif que sous l'hypothèse précédente nous ayons:

equation   (6.22)

Ceci nous mène aux définitions suivantes des probabilités à posteriori et respectivement à prori:

equation   et    equation   (6.23)

Ainsi, le fait de savoir que B est réalisé réduit l'ensemble des résultats possibles de U à B. A partir de là, seules les éventualités de equation ont une importance. La probabilité de A sachant B et inversement (par symétrie) doit donc être proportionnelle à equation!

Le coefficient de proportionnalité qui est le dénominateur permet d'assurer l'événement certain. Effectivement, si les deux événements A et B sont incompatibles (pensez à l'histoire du chat noir et de l'échelle par exemple), nous avons donc:

equation   (6.24)

et nous voyons alors P(B / A) qui vaut P(B) et donc A n'apporte rien sur B et réciproquement!!

Une autre façon assez intuitive pour voir les choses est de se représenter la mesure de probabilité P comme une mesure d'aires de sous-ensembles de equation.

En effet, si A et B sont deux sous-ensembles de equation d'aires respectives P(A) et P(B) alors à la question de savoir qu'elle est la probabilité qu'un point du plan appartienne à B sachant qu'il appartient à A il est assez évident de répondre que cette probabilité est donnée par:

equation   (6.25)

Indiquons aussi que la définition des probabilités conditionnelles s'utilise souvent sous la forme suivante :

equation   (6.26)

appelée "formule des probabilités composées". Ainsi, la probabilité à posteriori de B sachant A peut donc aussi s'écrire sous la forme:

equation   (6.27)

exemple Exemples:

Supposons une maladie comme la méningite. La probabilité de l'avoir sera noté equation (chiffre arbitraire pour l'exemple) et un signe de cette maladie comme le mal de tête sera noté equation. Supposons connue la probabilité à posteriori d'avoir mal à la tête si nous avons une méningite:

equation   (6.28)

Le théorème de Bayes donne alors la probabilité à priori d'avoir une méningite si nous avons mal à la tête! :

equation   (6.29)

Pour en revenir à la théorie, notons que nous avons aussi:

equation   (6.30)

qui est appelée la "formule des probabilités totales" ou "théorème des probabilités totales". Mais aussi, pour tout j, nous avons le corollaire suivant en utilisant les résultats précédents:

equation   (6.31)

qui est la forme générale de la "formule de Bayes" ou "théorème de Bayes" que nous utiliserons un tout petit peu en Mécanique Statistique et dans le cadre de l'étude de la théorie des files d'attentes (cf. chapitre de Techniques De Gestion). Il faut savoir que les implications de ce théorème sont cependant considérables dans le quotidien, dans la médecine, dans l'industrie et dans le domaine du Data Mining informatique.

exemple Exemples:

E1. Deux machines equation et equation produisent respectivement 100 et 200 pièces. equation produit 5% de pièces défectueuses et equation en produit 6% (ces valeurs proviennent d'une loi exponentielle!). Quelle est la probabilité pour qu'un objet défectueux ait été fabrique par la machine equation?

L'événement constaté A est donc la présence d'une pièce défectueuse et la probabilité recherchée est la probabilité à priori que celle-ci provienne de la machine equation.

Nous avons alors:

equation   (6.32)

E2. D'un lot de 10 pièces dont le 30% est défectueux, nous prélevons sans remise un échantillon de taille 3. Quelle est la probabilité que la seconde pièce soit bonne (quelque soit la première)?

Nous avons:

equation   (6.33)

equation est la probabilité que la deuxième soit bonne sachant que la première est mauvaise et equation est la probabilité que la deuxième soit bonne sachant que la première est bonne. equation est donc la probabilité que la première soit mauvaise, equation la probabilité que la première soit bonne.

L'analyse bayésienne fournit donc un outil puissant de formalisation du raisonnement dans l'incertain et les exemples que nous avons montrés illustrent surtout à quel point cet outil est délicat à employer..

1.3. MARTINGALES

Une martingale en probabilités (il en existe une autre dans les processus stochastiques) est une technique permettant d'augmenter les chances de gain aux jeux de hasard tout en respectant les règles de jeu. Le principe dépend complètement du type de jeu qui en est la cible, mais le terme est accompagné d'une aura de mystère qui voudrait que certains joueurs connaissent des techniques secrètes mais efficaces pour tricher avec le hasard. Par exemple, de nombreux joueurs (ou candidats au jeu) cherchent LA martingale qui permettra de battre la banque dans les jeux les plus courants dans les casinos (des institutions dont la rentabilité repose presque entièrement sur la différence - même faible - qui existe entre les chances de gagner et celles de perdre).

De nombreuses martingales ne sont que le rêve de leur auteur, certaines sont en fait inapplicables, quelques-unes permettent effectivement de tricher un peu. Les jeux d'argent sont en général inéquitables : quel que soit le coup joué, la probabilité de gain du casino (ou de l'État dans le cas d'une loterie) est plus importante que celle du joueur. Dans ce type de jeu, il n'est pas possible d'inverser les chances, seulement de minimiser la probabilité de ruine du joueur.

L'exemple le plus courant est la martingale de la roulette, elle consiste à jouer une chance simple à la roulette (noir ou rouge, paire ou impaire) de façon à gagner, par exemple, une unité dans une série de coups en doublant sa mise si l'on perd, et cela jusqu'à ce que l'on gagne. Exemple : le joueur mise 1 unité sur le rouge, si le rouge sort, il arrête de jouer et il a gagné 1 unité (2 unités de gain moins l'unité de mise), si le noir sort, il double sa mise en pariant 2 unités sur le rouge et ainsi de suite jusqu'à ce qu'il gagne.

Ayant une chance sur deux de gagner, il peut penser qu'il va finir par gagner ; quand il gagne, il est forcément remboursé de tout ce qu'il a joué, plus une fois sa mise de départ.

Cette martingale semble être sûre en pratique. À noter que sur le plan théorique, pour être sûr de gagner, il faudrait avoir la possibilité de jouer au cas où un nombre de fois illimité. Ce qui présente des inconvénients majeurs :

Cette martingale est en fait limitée par les mises que le joueur peut faire car il faut doubler la mise à chaque coup tant que l'on perd : 2 fois la mise de départ, puis 4, 8, 16.... s'il perd 10 fois de suite, il doit pouvoir avancer 1024 fois sa mise initiale pour la 11e partie ! Il faut donc beaucoup d'argent pour gagner peu.

Les roulettes comportent un "0" qui n'est ni rouge ni noir. Le risque de perdre lors de chaque coup est ainsi plus grand que 1/2...

De plus, pour paralyser cette stratégie, les casinos proposent des tables de jeu par tranche de mise : de 1 à 100.-, de 2 à 200.-, de 5 à 500.-, ... (bon ensuite voir s'il est possible de changer de table...). Impossible donc d'utiliser cette méthode sur un grand nombre de coups, ce qui augmente le risque de tout perdre.

Le black jack est un jeu qui possède des stratégies gagnantes : plusieurs techniques de jeu, qui nécessitent généralement de mémoriser les cartes, permettent de renverser les chances en faveur du joueur. Le mathématicien Edward Thorp a ainsi publié en 1962 un livre qui fut à l'époque un véritable best-seller. Mais toutes ces méthodes demandent de longues semaines d'entraînement et sont facilement décelables par le croupier (les brusques changements de montant des mises sont caractéristiques). Le casino a alors tout loisir d'écarter de son établissement les joueurs en question.

Il faut noter qu'il existe des méthodes assez évoluées. L'une d'elles repose sur les combinaisons les moins jouées. Dans les jeux où le gain dépend du nombre de joueurs gagnants (Loto...), jouer les combinaisons les moins jouées optimisera les gains. C'est ainsi que certaines personnes vendent des combinaisons qui seraient statistiquement très rarement utilisées par les autres joueurs.

Partant de ce raisonnement, on peut encore conclure qu'un joueur qui aurait réussi à déterminer ainsi les combinaisons statistiquement les moins jouées, afin d'optimiser son espérance de gain ne sera en fait certainement pas le seul joueur à avoir obtenu par l'analyse ces fameuses combinaisons, et tous ces joueurs risquent donc finalement d'être très déçus par leurs gains s'il s'avérait que cette combinaison équiprobable sorte au tirage! Cela revient à dire que les numéros en théorie les moins joués sont en fait surjoués par combinaisons, le mieux serait peut-être de réaliser un savant mélange de numéros sous-joués et de numéros surjoués pour obtenir les combinaisons idéales, qui peuvent par ailleurs être observées dans les tirages passés lorsqu'il n'y a pas eu de gagnant. Une autre conclusion à tout cela est peut-être que le mieux est encore de jouer des combinaisons aléatoires qui ont finalement moins de chance d'être également choisies par les joueurs qui incorporent un facteur humain et harmonieux dans le choix de leurs nombres.


page suivante : 2. Analyse combinatoire