4.7. FONCTION DE POISSON




COURS DE STATISTIQUES


1. Echantillons
2. Moyennes
2.1. Moyenne arithmétique
2.2. Médiane
2.3. Moyenne quadratique
2.4. Moyenne harmonique
2.5. Moyenne géométrique
2.6. Moyenne mobile/glissante
2.7. Moyenne pondérée
2.8. Moyenne fonctionnelle
2.9 Propriétés des moyennes
3. Types de variables
3.1. Variables discrètes
3.1.2. Espérance discrète
3.1.3. Variance discrète
3.1.4. Variable centrée réduite
3.1.5. Covariance discrète
3.1.6. Coefficient de corrélation
3.2. Variables continues
3.2.1. Densité de probabilité
3.2.2. Espérance continue
3.2.3. Variance continue
4. Fonctions de distributions
4.1. Fonction discrète uniforme
4.2. Fonction de Bernoulli
4.3. Fonction Géométrique
4.4. Fonction Binomiale
4.5. Fonction hypergéométrique
4.6. Fonction multinomiale
4.7. Fonction de Poisson
4.8. Fonction de Gauss-Laplace/Loi Normale
4.8.1. Somme de deux variables aléatoires normales
4.8.2. Produit de deux variables aléatoires normales
4.8.3. Loi Normale Centré Réduite
4.8.4. Droite de Henry
4.9. Fonction Log-Normale
4.10. Fonction uniforme continue
4.11. Fonction triangulaire
4.12. Fonction de Pareto
4.13. Fonction exponentielle
4.14. Fonction de Cauchy
4.15. Fonction bêta
4.16. Fonction gamma
4.17. Fonction de khi-deux
4.18. Fonction de Student
4.19. Fonction de Fisher-Snedecor
4.20. Fonction de Benford
5. Estimateurs de vraisemblance
5.1. Estimateurs de la loi Normale
5.2. Estimateur de la loi de Poisson
5.3. Estimateur de la loi de Binomiale
5.4. Estimateurs de la loi de Weibull
6. Intervalles de confiance
6.1.1. I.C. sur la moyenne avec avec variance théorique connue
6.2.2. I.C. sur la variance avec avec moyenne théorique connue
6.3.3. I.C. sur la variance avec avec moyenne empirique connue
6.4.4. I.C. sur la moyenne avec avec moyenne empirique connue
7. Loi faible des grands nombres
7.1.1. Inégalité de Markov
7.2.2. Inégalité de Bienaymé-Tchebychev
8. Fonction caractéristique
9. Théorème central limite
10. Tests d'adéquations (tests d'hypothèses)
10.1. Analyse de la variance (ANOVA à un facteur)
10.2. Test d'ajustement du khi-deux
11. Calculs d'erreurs
11.1. Incertitudes relatives et absolues
11.2. Erreurs statistiques
11.3. Propagation des erreurs
11.4. Chiffres significatifs

Pour certains événements forts rares, la probabilité p est très faible et tend vers zéro. Toutefois la valeur moyenne equation tend vers une valeur fixe lorsque n tend vers l'infini.

Nous partirons donc d'une distribution binomiale de moyenne equation que nous supposerons finie lorsque n tend vers l'infini.

La probabilité de k réussites lors de n épreuves vaut (loi Binomiale) : 

equation   (7.242)

En posant equation (où m est temporairement la nouvelle notation pour la moyenne selon equation), cette expression peut s'écrire:

equation   (7.243)

En regroupant les termes, nous pouvons mettre la valeur de equation sous la forme:

equation   (7.244)

Nous reconnaissons que, lorsque n tend vers l'infini, le deuxième facteur du produit a pour limite equation.

Quant au troisième facteur, puisque nous nous intéressons aux petites valeurs de k (la probabilité de réussite est très faible), sa limite pour n tendant vers l'infini vaut 1.

Cette technique de passage à la limite est parfois appelée dans ce contexte: "théorème limite de Poisson".

Nous obtenons ainsi la "fonction de Poisson" (ou "loi de Poisson"), appelée également parfois "loi des événements rares", donnée donc par:

equation   (7.245)

qui peut être obtenu dans MS Excel avec la fonction LOI.POISSON( ).

Il s'agit bien d'une loi de probabilité puisque en utilisant les séries de Taylor, nous montrons que la somme des probabilités cumulées est bien:

equation   (7.246)

Remarque: Nous retrouverons fréquemment cette loi dans différents chapitres du site comme par exemple lors de l'étude du Génie Industriel en maintenance préventive ou encore dans le même chapitre lors de l'étude des théories des files d'attentes (le lecteur peut s'y reporter pour un exemple intéressant et pragmatique) et enfin dans le domaine de l'assurance.

exempleExemple:

Tracé de la fonction de distribution et répartition pour la fonction de Poisson de paramètre equation:

equationequation
  (7.247)

Cette distribution est importante car elle décrit beaucoup de processus dont la probabilité est petite et constante. Elle est souvent utilisée dans la "queing theory" (temps d'attente), test d'acceptabilité et fiabilité, et contrôles statistiques de qualité. Entre autres, elle s'applique aux processus tels que l'émission des quanta de lumière par des atomes excités, le nombre de globules rouges observés au microscope, le nombre d'appels arrivant à une centrale téléphonique. La distribution de Poisson est valable pour de nombreuses observations faites en physique nucléaire ou corpusculaire.

L'espérance (moyenne) de la fonction de Poisson est (nous utilisons la série de Taylor de l'exponentielle):

equation   (7.248)

et donne le nombre moyen de fois que l'on obtiendra l'issue souhaitée.

Ce résultat peut paraître déroutant.... la moyenne s'exprime par la moyenne??? Oui il ne faut simplement pas oublier que celle-ci est donnée au début par:

equation   (7.249)

Remarque: Pour plus de détails le lecteur peut aussi se reporter à la partie concernant les "estimateurs" dans le présent chapitre.

La variance de la fonction de distribution de Poisson est elle donnée par (en utilisant à nouveau les séries de Taylor):

equation
  (7.250)

toujours avec:

equation   (7.251)

Les lois théoriques de distribution statistiques sont établies en supposant la réalisation d'un nombre infini de mesures. Il est évident que nous ne pouvons en effectuer qu'un nombre fini N. D'où la nécessité d'établir des correspondances entre les valeurs utiles théoriques et expérimentales. Pour ces dernières nous n'obtenons évidemment qu'une approximation dont  la validité est toutefois souvent admise comme suffisante.


page suivante : 4.8. Fonction de Gauss-Laplace/Loi Normale