Cours de statistique




COURS DE STATISTIQUES


1. Echantillons
2. Moyennes
2.1. Moyenne arithmétique
2.2. Médiane
2.3. Moyenne quadratique
2.4. Moyenne harmonique
2.5. Moyenne géométrique
2.6. Moyenne mobile/glissante
2.7. Moyenne pondérée
2.8. Moyenne fonctionnelle
2.9 Propriétés des moyennes
3. Types de variables
3.1. Variables discrètes
3.1.2. Espérance discrète
3.1.3. Variance discrète
3.1.4. Variable centrée réduite
3.1.5. Covariance discrète
3.1.6. Coefficient de corrélation
3.2. Variables continues
3.2.1. Densité de probabilité
3.2.2. Espérance continue
3.2.3. Variance continue
4. Fonctions de distributions
4.1. Fonction discrète uniforme
4.2. Fonction de Bernoulli
4.3. Fonction Géométrique
4.4. Fonction Binomiale
4.5. Fonction hypergéométrique
4.6. Fonction multinomiale
4.7. Fonction de Poisson
4.8. Fonction de Gauss-Laplace/Loi Normale
4.8.1. Somme de deux variables aléatoires normales
4.8.2. Produit de deux variables aléatoires normales
4.8.3. Loi Normale Centré Réduite
4.8.4. Droite de Henry
4.9. Fonction Log-Normale
4.10. Fonction uniforme continue
4.11. Fonction triangulaire
4.12. Fonction de Pareto
4.13. Fonction exponentielle
4.14. Fonction de Cauchy
4.15. Fonction bêta
4.16. Fonction gamma
4.17. Fonction de khi-deux
4.18. Fonction de Student
4.19. Fonction de Fisher-Snedecor
4.20. Fonction de Benford
5. Estimateurs de vraisemblance
5.1. Estimateurs de la loi Normale
5.2. Estimateur de la loi de Poisson
5.3. Estimateur de la loi de Binomiale
5.4. Estimateurs de la loi de Weibull
6. Intervalles de confiance
6.1.1. I.C. sur la moyenne avec avec variance théorique connue
6.2.2. I.C. sur la variance avec avec moyenne théorique connue
6.3.3. I.C. sur la variance avec avec moyenne empirique connue
6.4.4. I.C. sur la moyenne avec avec moyenne empirique connue
7. Loi faible des grands nombres
7.1.1. Inégalité de Markov
7.2.2. Inégalité de Bienaymé-Tchebychev
8. Fonction caractéristique
9. Théorème central limite
10. Tests d'adéquations (tests d'hypothèses)
10.1. Analyse de la variance (ANOVA à un facteur)
10.2. Test d'ajustement du khi-deux
11. Calculs d'erreurs
11.1. Incertitudes relatives et absolues
11.2. Erreurs statistiques
11.3. Propagation des erreurs
11.4. Chiffres significatifs

La statistique est une science qui a pour objet le groupement méthodique de faits ou événements répétitifs qui se prêtent à une évaluation numérique dans le temps suivant une loi donnée.

Il faut savoir que parmi tous les domaines de la mathématique, celle qui est utilisée à la plus large échelle dans un cadre professionnel dans les entreprises est bien la statistique! Raison pour laquelle ce chapitre est un des plus gros alors que seuls les concepts élémentaires y sont présentés!

Il est peut être inutile de préciser que la statistique est beaucoup utilisée en ingénierie, physique théorique, en économétrie, en gestion de projets, dans l'industrie des processus, dans les domaines des assurances vies et non vies, dans l'actuariat ou dans la simple analyse de banque de données (avec MS Excel très souvent... malheureusement....) et la liste est encore longue. Par ailleurs, nous rencontrerons les outils présentés ici assez souvent dans les chapitres de Mécanique des Fluides, de Thermodynamique, des Techniques de Gestion, du Génie Industriel et d'Économétrie (en particulier dans ces deux dernières). Le lecteur pourra donc s'y reporter pour avoir des applications pratiques concrètes des quelques-uns des éléments théoriques les plus importants qui seront vus ici.

Signalons également que outre les quelques exemples simples données sur ces pages, de nombreux autres exemples applicatifs sont donnés sur le serveur d'exercices du site dans les catégories Probabilités et Statistiques, Génie Industriel, Économétrie et Techniques de Gestion.

Définition: Le but principal de la statistique est de déterminer les caractéristiques d'une population donnée à partir de l'étude d'une partie de cette population, appelée "échantillon" ou "échantillon représentatif".

Remarque: Le traitement des données concerne la "statistique descriptive". L'interprétation des données à partir des estimateurs s'appelle "l'inférence statistique" (ou "statistique inférentielle"), et l'analyse de données en masse la "statistique fréquentielle" (en opposition à l'inférence bayesienne).

Lorsque nous observons un événement prenant en compte certains facteurs, il peut arriver qu'une deuxième observation ait lieu dans des conditions qui semblent identiques. En répétant ces mesures plusieurs fois sur différents objets supposés similaires, nous pouvons constater que les résultats observables sont distribués statistiquement autour d'une valeur moyenne qui est, finalement le résultat possible le plus probable. Dans la pratique, nous n'effectuons cependant parfois qu'une seule mesure et il s'agit alors de déterminer la valeur de l'erreur que nous commettons en adoptant celle-ci comme moyenne mesurée. Cette détermination nécessite de connaître le type de distribution statistique auquel nous avons à faire et c'est ce que nous allons nous attarder (entre autres) à étudier ici (les bases du moins!). Il existe cependant plusieurs approches méthodologiques courantes (les moins courantes n'étant pas citées pour l'instant) face au hasard :

1. Une toute première consiste à ignorer purement et simplement les éléments aléatoires, pour la bonne raison que l'on ne sait pas comment les intégrer. Nous utilisons alors la "méthode des scénarios" appelé aussi "simulation déterministe". C'est typiquement un outil utilisé par les financiers ou gestionnaires non diplômés travaillant avec des outils comme MS Excel (qui inclut un outil de gestion de scénarios) ou MS Project (qui inclut un outil de type scénarios optimiste, pessimiste, attendu déterministes).

2. Une seconde approche envisageable, quand nous ne savons pas associer des probabilités précises aux futurs événements aléatoires, est la théorie des jeux (cf. chapitre de la Théorie Des Jeux Et De La Décision) où l'on utilise des critères de sélection semi-empiriques comme le critère du maximax, du minimax, de Laplace, de Savage, etc.

3. Enfin, quand nous pouvons lier des probabilités aux événements aléatoires, soit que ces probabilités découlent de calculs ou de mesures, soit qu'elles reposent sur une expérience acquise auprès de situations antérieurs de même nature que la situation actuelle, nous pouvons faire appel aux statistiques descriptives et inférentielles (contenu du présent chapitre) pour tirer des informations exploitables et pertinentes de cette masse de données acquises.

4. Une dernière approche quand nous avons connaissance de probabilités relatives aux issues intervenantes faisant suite à des choix stratégiques est l'utilisation de la théorie de la décision (cf. chapitre de la Théorie Des Jeux Et De La Décision).

Remarque: Sans la statistique mathématique, un calcul sur des données (par exemple une moyenne), n'est qu'un "indicateur". C'est la statistique mathématique qui lui donne le statut d'estimateur dont on maîtrise le biais, l'incertitude et autres caractéristiques statistiques. Nous cherchons en général à ce que l'estimateur soit sans biais, convergeant et efficace.

Introduisons avant de continuer quelques définitions qui vont nous être utiles pour la suite sur le concept d'échantillons et de moyennes :

1. ÉCHANTILLONS

Lors de l'étude statistique d'ensembles d'informations, la façon de sélectionner l'échantillon est aussi importante que la manière de l'analyser. Il faut que l'échantillon soit représentatif de la population (nous ne faisons pas nécessairement référence à des populations humaines!). Pour cela, l'échantillonnage aléatoire est le meilleur moyen d'y parvenir.

Le statisticien part toujours de l'observation d'un ensemble fini d'éléments, que nous qualifions de "population". Les éléments observés, en nombre n, sont tous de même nature, mais cette nature peut être fort différente d'une population à l'autre.

Définitions:

D1. Nous sommes en présence d'un "caractère quantitatif" lorsque chaque élément observé fait explicitement l'objet d'une même mesure. A un caractère quantitatif donné, nous associons une "variable quantitative" continue ou discrète qui synthétise toutes les valeurs possibles que la mesure considérée est susceptible de prendre (ce type d'information étant représenté par des courbes de Gauss, de Bêta, de Poisson, etc.)

Remarque: Nous reviendrons sur le concept de "variable" en statistiques plus loin...

D2. Nous sommes en présence d'un "caractère qualitatif" lorsque chaque élément observé fait explicitement l'objet d'un rattachement unique à une "modalité" choisie dans un ensemble de modalités exclusives (de type: homme | femme) permettant de classer tous les éléments de l'ensemble étudié selon un certain point de vue (ce type d'information étant représenté par des diagrammes à barre, fromages, diagrammes à bulles, etc.). L'ensemble des modalités d'un caractère peut être établi à priori avant l'enquête (une liste, une nomenclature, un code) ou après enquête. Une population étudiée peut être représentée par un caractère mixte, ou ensemble de modalités tel que genre, tranche salariale, tranche d'âge, nombre d'enfants, situation matrinomaile par exemple pour un individu.

D3. Un "échantillon aléatoire" est un échantillon tiré au hasard dans lequel tous les individus d'une population ont la même chance, ou "équiprobabilité" (et nous insistons sur le fait que cette probabilité doit être égale), de se retrouver dans l'échantillon.

D4. Dans le cas contraire d'un échantillon dont les éléments n'ont pas été pris au hasard, nous disons alors que l'échantillon est "biaisé" (dans le cas inverse nous disons qu'il est "non-biaisé")

Remarque: Un petit échantillon représentatif est, de loin, préférable à un grand échantillon biaisé. Mais lorsque la taille des échantillons utilisés est petite, le hasard peut donner un résultat moins bon que celui qui est biaisé...

page suivante : 2. Moyennes