M4202C_S - Statistique inférentielle
TP 1 - LFGN

2021/2022 - A. Ridard
In [33]:
# importation des modules
import numpy as np
import numpy.random as npr
import scipy.stats as sps
import matplotlib.pyplot as plt

Remarque :

  • Pour calculer les lois de probabilité (pmf ou pdf) et les fonctions de répartition (cdf), on utilisera scipy.stats (sps)
  • Pour simuler des réalisations de variable aléatoire, on préfèrera numpy.random (npr)

Lois usuelles finies : le point de vue empirique

Dans cette partie, nous allons effectuer nos premières simulations pour approcher les espérances vues en cours de Probabilités.

Pour chacune des lois suivantes :

  • Simuler 100 réalisations à l'aide du générateur adapté
  • Calculer la moyenne de ces 100 valeurs
  • Comparer cette moyenne empirique avec la moyenne théorique (espérance) vue en cours

Loi uniforme (npr.randint) sur $\{1,...,6\}$

In [37]:
# Réponse

Loi de Bernoulli (npr.binomial) de paramètre $p = 0.3$

In [38]:
# Réponse

Loi binomiale (npr.binomial) de paramètres $n = 20$ et $p = 0.3$

In [39]:
# Réponse

Loi Forte des Grands Nombres

Nous avons observé, pour trois lois usuelles finies, que la moyenne empirique (pour 100 réalisations) était proche de la moyenne théorique.
En fait, ce résultat se généralise au travers du théorème de la Loi Forte des Grands Nombres (LFGN).



Théorème (LFGN) :

Soit $X_i$ des v.a. indépendantes et de même loi (éventuellement inconnue) d'espérance $m$.
Alors, la moyenne empirique converge (presque sûrement) vers la moyenne théorique : $$\bar X_n=\displaystyle\frac{1}{n}\sum_{i=1}^{n}X_i\xrightarrow[n\to+\infty]{(p.s.)}m$$

En pratique, on considère que la moyenne empirique (pour $n$ assez grand) est proche de la moyenne théorique



Ecrire un script permettant d'illustrer ce théorème de la manière suivante, par exemple avec les $X_i$ de loi uniforme sur [0,1[.

In [43]:
# Réponse