4.4. FONCTION BINOMIALE




COURS DE STATISTIQUES


1. Echantillons
2. Moyennes
2.1. Moyenne arithmétique
2.2. Médiane
2.3. Moyenne quadratique
2.4. Moyenne harmonique
2.5. Moyenne géométrique
2.6. Moyenne mobile/glissante
2.7. Moyenne pondérée
2.8. Moyenne fonctionnelle
2.9 Propriétés des moyennes
3. Types de variables
3.1. Variables discrètes
3.1.2. Espérance discrète
3.1.3. Variance discrète
3.1.4. Variable centrée réduite
3.1.5. Covariance discrète
3.1.6. Coefficient de corrélation
3.2. Variables continues
3.2.1. Densité de probabilité
3.2.2. Espérance continue
3.2.3. Variance continue
4. Fonctions de distributions
4.1. Fonction discrète uniforme
4.2. Fonction de Bernoulli
4.3. Fonction Géométrique
4.4. Fonction Binomiale
4.5. Fonction hypergéométrique
4.6. Fonction multinomiale
4.7. Fonction de Poisson
4.8. Fonction de Gauss-Laplace/Loi Normale
4.8.1. Somme de deux variables aléatoires normales
4.8.2. Produit de deux variables aléatoires normales
4.8.3. Loi Normale Centré Réduite
4.8.4. Droite de Henry
4.9. Fonction Log-Normale
4.10. Fonction uniforme continue
4.11. Fonction triangulaire
4.12. Fonction de Pareto
4.13. Fonction exponentielle
4.14. Fonction de Cauchy
4.15. Fonction bêta
4.16. Fonction gamma
4.17. Fonction de khi-deux
4.18. Fonction de Student
4.19. Fonction de Fisher-Snedecor
4.20. Fonction de Benford
5. Estimateurs de vraisemblance
5.1. Estimateurs de la loi Normale
5.2. Estimateur de la loi de Poisson
5.3. Estimateur de la loi de Binomiale
5.4. Estimateurs de la loi de Weibull
6. Intervalles de confiance
6.1.1. I.C. sur la moyenne avec avec variance théorique connue
6.2.2. I.C. sur la variance avec avec moyenne théorique connue
6.3.3. I.C. sur la variance avec avec moyenne empirique connue
6.4.4. I.C. sur la moyenne avec avec moyenne empirique connue
7. Loi faible des grands nombres
7.1.1. Inégalité de Markov
7.2.2. Inégalité de Bienaymé-Tchebychev
8. Fonction caractéristique
9. Théorème central limite
10. Tests d'adéquations (tests d'hypothèses)
10.1. Analyse de la variance (ANOVA à un facteur)
10.2. Test d'ajustement du khi-deux
11. Calculs d'erreurs
11.1. Incertitudes relatives et absolues
11.2. Erreurs statistiques
11.3. Propagation des erreurs
11.4. Chiffres significatifs

Si nous revenons maintenant à notre épreuve de Bernoulli. Plus généralement, tout N-uplet particulier formé de k succès et de N-k échecs aura pour probabilité (dans le cadre d'un tirage avec remise ou sans remise si la population est grande en première approximation...):

equation   (7.194)

d'être tiré (ou d'apparaître) quel que soit l'ordre d'apparition des échecs et réussites.

Mais, nous savons que la combinatoire permet de déterminer le nombre de N-uplets de ce type (le nombre de manières d'ordonner les apparitions d'échecs et de réussites). Le nombre d'arrangements possibles étant, nous l'avons démontré (cf. chapitre Probabilités), donné par la binomiale :

equation   (7.195)

Donc comme la probabilité d'obtenir une série de k succès et N-k échecs particuliers est toujours identique (quelque soit l'ordre) alors il suffit de multiplier la probabilité d'une série particulière par la combinatoire (cela étant équivalent à faire à une somme):

equation   (7.196)

pour avoir la probabilité totale d'obtenir une quelconque de ces séries possibles (puisque chacune est possible).

Remarque: Cela équivaut à l'étude d'un tirage avec remise (cf. chapitre de Probabilités) simple avec contrainte sur l'ordre ou à l'étude d'une série de succès ou d'échecs. Nous utiliserons cette relation dans le cadre de la théorie des files d'attentes ou en fiabilité. Il faut noter que dans le cas de grandes populations, même si le tirage n'est pas avec remise il est considéré comme tel...

Ecrite autrement ceci donne la "fonction Binomiale" (ou "loi Binomiale") connue aussi sous la forme de la fonction de distribution suivante:

equation   (7.197)

et parfois notée:

equation   (7.198)

et peut être calculée dans MS Excel à l'aide de la fonction LOI.BINOMIALE( ).

Nous disons parfois que la loi Binomiale est non exhaustive car la taille de la population initiale n'est pas apparente dans l'expression de la loi.

exempleExemple:

Nous souhaitons tester l'alternateur d'un groupe électrogène. La probabilité de défaillance à la sollicitation de ce matériel est estimée à 1 défaillance pour 1'000 démarrages.

Nous décidons d'effecteur un test de 100 démarrages. La probabilité d'observer 1 panne au cours de ce test est de:

equation   (7.199)

Nous avons bien évidemment pour la fonction de répartition (très utile dans la pratique comme le contrôle de lots de fournisseurs ou la fiabilité!): 

equation   (7.200)

Effectivement, nous avons démontré dans le chapitre de Calcul Algébrique que:

equation   (7.201)

Donc:

equation   (7.202)

Il vaut mieux utiliser MS Excel pour ne pas s'embêter à calculer ce genre de relations (ou tout autre logiciel largement répandu) en utilisant la fonction CRITERE.LOI.BINOMIALE( ).

L'espérance mathématique (moyenne) de P(N,k) est:

 equation   (7.203)

Or:

equation   (7.204)

d'où:

equation   (7.205)

donne le nombre moyen de fois que l'on obtiendra l'issue souhaitée de probabilité p après N essais.

Avant de calculer la variance, introduisons la relation suivante:

equation   (7.206)

En effet, en utilisant les développements précédents:

equation   (7.207)

Commençons maintenant le (long) calcul de la variance dans lequel nous allons utiliser les résultats précédents:

equation
  (7.208)

L'écart-type étant equation, nous avons : 

equation   (7.209)

exempleExemple:

Tracé de la fonction de distribution et respectivement de répartition de la loi binomiale equation:

equationequation
  (7.210)

FONCTION HYPERGÉOMÉTRIQUE

Nous considérons pour approche à cette fonction un exemple simple concernant une urne contenant n boules dont m sont noires et les autres m' blanches (pour un exemple concret utilisé dans l'industrie se reporter au chapitre de Génie Industriel). Nous tirons successivement, et sans les remettre dans l'urne, p boules. Quelle est la probabilité que parmi ces p boules, il y en ait k qui soient noires (dans cet énoncé l'ordre du tirage ne nous intéresse donc pas!).

Nous parlons souvent de "tirage exhaustif" avec la loi hypergéométrique car contrairement à la loi binomiale, la taille du lot qui sert de base au tirage va apparaître dans la loi. Raison pour laquelle la loi hypergéométrique tend vers les valeurs de la loi normale lorsque la taille du lot est petite.

Remarque: Cela équivaut à l'étude non ordonnée d'un tirage sans remise (cf. chapitre de Probabilités) avec contrainte sur les occurrences appelé parfois "tirage simultané". Nous utiliserons cette relation souvent dans le domaine de la qualité ou de la fiabilité ou les boules noires sont associées à des éléments avec défauts et les blanches à des éléments sans défauts.

Les p boules peuvent être choisies parmi les n boules de equation façons (représentant donc le nombre de tirages différents possibles) avec pour rappel (cf. chapitre de Probabilités) :

equation   (7.211)

Les k boules noires peuvent être choisies parmi les m noires de equation façons. Les p-k boules blanches peuvent être elles choisies de equation façons. Il y a donc equation tirages qui donnent k boules noires et p-k boules blanches.

La probabilité recherchée vaut donc:

equation   (7.212)

et est dite suivre une "fonction Hypergéométrique" (ou "loi Hypergéométrique") et peut être obtenue heureusement de manière directe dans MS Excel avec la fonction LOI.HYPERGEOMETRIQUE( ).

exempleExemples:

E1. Nous souhaitons mettre en production un petit développement informatique de 10'000 lignes de code. Le retour d'expérience) montre que la probabilité de défaillance est de 1 bug pour 1'000 lignes de code.

Nous testons environ 50% des fonctions du logiciel au hasard avant l'envoi au client (soit l'équivalent de 5'000 lignes de code). La probabilité d'observer 5 bugs est avec MS Excel:

=LOI.HYPERGEOMETRIQUE(5;5000;10000;10000)=24.62%

E2. Dans une petite production unique d'un lot de 1'000 pièces dont nous savons que 30% en moyenne sont mauvaises à cause de la complexité des pièces par retour d'expérience d'un fabrication précédente similaire. Nous savons qu'un client va en tirer 20 au hasard pour décider d'accepter ou de rejeter le lot. Il ne rejettera pas le lot s'il trouve zéro pièce défectueuse parmi ces 20. Quelle est la probabilité d'en avoir exactement 0 de défectueuse?

=LOI.HYPERGEOMETRIQUE (0;20;300;1000)=0.073%

et comme on exige un tirage nul, le calcul de la loi hypergéométrique se simplifie en:

equation   (7.213)

Il n'est pas interdit de faire le calcul direct de l'espérance et de la variance la fonction hypergéométrique mais le lecteur pourra sans trop de peine imaginer que ce calcul va être... relativement indigeste. Alors nous pouvons utiliser une méthode indirecte qui de plus est intéressante.

D'abord le lecteur aura peut-être, même certainement, remarqué qu'au fait l'expérience de la loi hypergéométrique est une série d'essais de Bernoulli (sans remise bien entendu!).

Alors, nous allons tricher en utilisant dans un premier temps la propriété de linéarité de l'espérance. Définissons pour cela une nouvelle variable correspondant implicitement au fait à l'expérience da la fonction hypergéométrique (k essais de Bernoulli de suite!) :

equation   (7.214)

equation représente la réussite d'obtenir au i-ème tirage une boule noire (soit 0 ou 1). Or, nous savons que pour tout i la variable aléatoire equation suit une fonction de Bernoulli pour laquelle nous avons démontré lors de notre étude de la loi de Bernoulli que equation. Dès lors, de par la propriété de linéarité de l'espérance nous avons :

equation   (7.215)

Or, dans l'essai de Bernoulli, p est la probabilité d'obtenir l'élément recherché (pour rappel...). Dans la loi hypergéométrique ce qui nous intéresse est la probabilité d'avoir une boule noire (qui sont en quantité m, avec donc m' boules blanches) par rapport à la quantité totale de boules n. Et le rapport nous donne évidemment cette probabilité. Ainsi, nous avons :

equation   (7.216)

k est le nombre de tirages (attention à ne pas confondre avec l'énoncé initial!). Cette moyenne donne donc le nombre moyen de boules noires lors d'un tirage de k boules parmi n.

Pour déterminer la variance, nous allons utiliser la variance de la fonction de Bernoulli et la relation suivante démontrée lors de l'introduction de l'espérance et de la covariance au début de ce chapitre :

equation   (7.217)

Dons en rappelant que nous avons equation il vient:

equation   (7.218)

Or, pour la loi de Bernoulli, nous avons:

equation   (7.219)

Alors nous avons déjà:

equation   (7.220)

Ensuite, nous avons facilement:

equation   (7.221)

Le calcul de equation nécessite une bonne compréhension des probabilités (c'est un bon rappel!).

L'espérance equation est donnée (implicitement) par la somme pondérée des probabilités que deux événements aient lieu en même temps comme nous le savons. Or, nos événements sont binaires: soit c'est une boule noire (1) soit c'est une boule blanche (0). Donc tous les termes de la somme n'ayant pas deux boules noirs consécutivement seront nuls!

Le problème est alors de calculer la probabilité d'avoir deux boules noires consécutives et celle-ci s'écrit donc:

equation   (7.222)

Donc nous avons finalement:

equation   (7.223)

Soit:

equation   (7.224)

Finalement:

equation   (7.225)

où nous avons utilisé le fait que:

equation   (7.226)

est composé de:

equation   (7.227)

terme puisqu'il correspond au nombre de façons qu'il y a de choisir le couple (i, j) avec equation.

Donc finalement:

equation   (7.228)

exempleExemple:

Tracé de la fonction de distribution et répartition pour la fonction Hypergéométrique de paramètre equation:

equation equation
  (7.229)


page suivante : 4.6. Fonction multinomiale