Définition
Lors de la mesure d’une grandeur physique $X$, l’erreur est la différence entre la valeur mesurée $x$ et la valeur vraie de $X$. La valeur vraie est en général inconnue puisqu'on la cherche.
C'est une erreur qui a toujours lieu dans le même sens. Elles sont indécelables par l'analyse statistique et sont liées à la notion de justesse (écart entre la valeur moyenne observée et la valeur vraie).
Ces erreurs ont diverses origines
Ces erreurs sont aléatoires, on ne peut pas en prévoir le sens. Ce peut-être tantôt une erreur en plus tantôt une erreur en moins. Si on effectue N mesures dans des conditions de répétabilité, le meilleur estimateur de la valeur vraie est la valeur moyenne $\overline{x}$ des N mesures. Mais à chaque mesure sur les N on peut avoir une différence avec $\overline{x}$. La différence est appelée erreur aléatoire :
Cette variabilité est liée à la notion de précision et l'incertitude sur une mesure permet d'estimer leur importance, en supposant négligeables les erreurs systématiques.
L'origine de ces erreurs est multiples:
Il faut donc beaucoup de rigueur et de soin pour éviter certaines erreurs fortuites.
Exemple : Commenter les figures ci-dessous en fonction du type d'erreur commise. Puis dessiner une image contenant un type d'erreur non représentée.
Erreurs : | Erreurs : | Erreurs : |
---|---|---|
![]() |
![]() |
![]() |
L’incertitude traduit les tentatives scientifiques pour estimer l’importance de l’erreur aleatoire commise. En absence d’erreur systematique, elle definit un intervalle autour de la valeur mesurée qui inclut la valeur vraie avec un niveau de confiance déterminé.
Le mot incertitude signifie doute ; l’incertitude du résultat d’un mesurage reflète l’impossibilité de connaître exactement la valeur du mesurande.
Le traitement statistique est basé sur la répétition des mesures d'une grandeur $X$. Dans la pratique, on réalise un nombre fini $N$ de mesures, de résultats respectifs $x_1, x_2,\dots, x_n$ dont on cherche à extraire les meilleures estimations de la moyenne et de la variance ou écart-type.
Les résultats des mesures effectuées de la grandeur $X$ doivent être présentés sous la forme :
Définition : Centre d'une distribution
On dit qu’on a une évaluation de type A de l’incertitude-type si une grandeur est estimée par des moyens statistiques. On notera ($x_1, x_2,\dots, x_n$) un n-échantillon de $X$, où $x_i$ représente la variable aléatoire associée à la $i^{\text{ième}}$ mesure de la gradeur $X$.
Définition : Dispersion d'une distibution
Il s'agit d'estimer ce que nous pourrions aussi appeler la largeur d'une distribution. La grandeur la plus simple à déterminer est l'étendue, différence entre les valeurs maximale et minimale. Mais celle-ci est très sensible aux valeurs extrêmes qui ne sont pas toujours représentatives, et peuvent même parfois être absurdes. D'ou l'utilisation de l'écart type.
Loi de distribution :
Il faut assortir le résultat de la moyenne d’une incertitude type $u(x)$. Les mesures indépendantes de la grandeur X se distribuent selon une loi mathématique appelée loi de distribution gaussienne ou loi normale $f(x)$ donnée par la représentation graphique suivante:
La loi de distribution définie par la fonction $f$ nous permet de connaître la probabilité que la grandeur X soit comprise dans un intervalle donné. Par exemple la probabilité de trouver la grandeur $X$ dans l'intervalle [$\overline{x}-\sigma, \overline{x}+\sigma]$ est de $68,2 \%$
$t_{n,p\%}$ est appelé coefficient de student dependant du nombre n de mesures et du degré de probabilité souhaité (p%).
Exercice 1 :
Calculer :
Exercice 2 :
Pour huit maison d'un même modèle nous mesurons les résistances thermiques $R = \dfrac{\Delta T}{\Phi}$. Nous obtenons les valeurs suivantes en mK/W
remarque : La résistance thermique quantifie l'opposition à un flux thermique entre deux isothermes ( $T_{1}$ et $T_{2}$) entre lesquels s'échange un flux thermique $\Phi$
mesures = [39, 41, 41, 43, 41, 37, 39, 39]
def moyenne(mesures):
moyenne(mesures)
from math import sqrt
def ecart_type(mesures):
ecart_type(mesures)
def incertitude_type(Et, n):
return Et/sqrt(n)
deltaR = 2.37*incertitude_type(ecart_type(mesures), len(mesures))
print(deltaR)
Que signifie ces résultats ?
$\sigma_{exp}$ est le paramètre qui caractérise la dispersion des valeurs $x_i$ et caractérise donc l'incertitude sur une mesure. Si on effectue $n$ mesures, $\overline{x}$ est une moyenne parmi tant d'autres (on peut répéter $m$ fois l'expérience avec $n$ mesures et on aurait $m$ moyennes). La théorie montre que que la distribution de l'ensemble des moyennes est bien moins dispersée que l'ensemble des mesures uniques (elle est divisée par $\sqrt{n}$).
Dans le cas où l'on effectue une moyenne sur un petit nombre de mesure $\sigma_{exp}$ n'est pas un bon estimateur de l'écart-type et la théorie montre qu'il est plus approprié d'utiliser l'incertitude-type $u(x)$.
À retenir, si on réalise $n$ mesures de $x$, avec les résultats $x_1 , x_2 ,\dots x_n$ , on écrira le résultat final sous la forme :
où $\overline{x}$ et $u(x)$ sont les meilleurs estimateurs de la valeur vraie et de l'incertitude-type de la mesure de la grandeur $X$
Le résultat de la mesure est la valeur obtenue lors de la mesure.
Dans ce cas il faut prendre en compte la précision $\Delta$ de l'appareil :
Exemple : un appareil de classe 2 comportant 150 divisions introduira une incertitude absolue de $\dfrac{2}{100}\times 150$ soit 3 divisions et ceci quelle que soit l’amplitude de la déviation.
Exemple : gamme 2 V ; Résolution 1 mV ; précision $\pm 0.1\% + 2 $ dgt ; lecture $1.000\, V$
La précision de cette mesure sera $\Delta = 0.1\%*1V+2*1 mV=3mV$).
Exemple de notice d'un multimètre bon marché
Une fois la précision $\Delta$ déterminée, l’incertitude-type sera calculée par une des lois suivantes :
loi normale $u(x) =\dfrac{\Delta}{3}$ : loi uniforme $u(x) =\dfrac{\Delta}{\sqrt{3}}$ : loi triangulaire $u(x) =\dfrac{\Delta}{\sqrt{6}}$
Le calcul de l'incertitude élargie et l'affichage des résultats restent sur le même principe. Avec uun niveau de confiance de $95\%$ et une loi uniforme : $$\Delta x = 2u(x) = \dfrac{2\Delta}{\sqrt{3}}$$
La mesure d'une grandeur $X$ peut-être entachée de plusieurs incertitudes. Par exemple lors d'une mesure à la règle en dehors de l'incertitude liée à la graduation $u_1(x)$ il peut y avoir une incertitude liée au positionnement de la règle $u_2(x)$. Dans ce cas les résultats statistiques montrent qu'un bon estimateur de l'incertitude type peut s'écrire :
De manière générale s'il existe $p$ sources d'incertitudes on écrira :
Prenons tout de suite un exemple, la mesure du pas (notée $a$) d'un disque optique à l'aide du phénomène d'interférence est liée aux mesures de deux grandeurs différentes :
Soient $d = d_m \pm \Delta d_m$ et $\ell = \ell_m \pm \Delta\ell_m$
Dans ce cas on parle de mesure indirecte. La valeur de la grandeur $a$ n'est pas accessible directement avec un appareil de mesure. Par contre on peut calculer cette valeur à l'aide d'une relation entre les différentes grandeurs.
Les valeurs de $l$, $d$ et $\lambda$ vont être responsables d'une incertitude sur la mesure de $a$.
![]() |
![]() |
Propriété :
Si $Y = f(X_1, \dots, X_n)$ avec $X_1,\dots ,X_n$ indépendantes alors :
Si nous appliquons ce résultat (formule de Taylor Young à l'ordre 1) à la relation précédente que l'on peut exprimer sous la forme :
$$ a = f(d, \ell)\quad\quad \text{avec les mesures $d$ et $\ell$ indépendantes}$$On obtient :
$$u^2(a) = \left(\dfrac{\partial f}{\partial d}u(d)\right)^2 + \left(\dfrac{\partial f}{\partial \ell}u(\ell)\right)^2$$Il nous faut maintenant exprimer la dérivée partielle pour chaque variable :
$$\dfrac{\partial f}{\partial d} = \dfrac{8\,\lambda^2\,d}{2\,a\,\ell^2}$$Il n'y a plus qu'à écrire notre incertitude type sur $a$:
$$u(a) = \left(\dfrac{4\,\lambda^2\,d}{a\,\ell^2}\right)^2u^2(d) + \left(-\dfrac{4\,\lambda^2\,d^2}{a\,\ell^3}\right)^2u^2(\ell)$$Application numérique :
La propagation des incertitudes décrites par la formule précédente devient particulièrement simple dans les cas particuliers suivants :
Exemples :
En mesurant la longueur du pendule et sa période, donc deux mesures, on peut en déduire l'intensité de la pesanteur
$$g = l\times\frac{4\pi^2}{T^2}$$En déduire l'expression de $\Delta g$
$\lambda = 567 \pm 1\,\text{nm}\quad D = 2,23 \pm 0,005\,\text{m}\quad a=100 \pm 1\,\mu\text{m}$
Déterminer pour un niveau de confiance de $95\%$ la mesure $i = i_m \pm \Delta i_m$
$R = 23,4 \pm 0,2\,\Omega\quad I = 0,375 \pm 0,001\,\text{A}$
Déterminer pour un niveau de confiance de $95\%$ la mesure $P = P_m \pm \Delta P_m$
L’espérance d’une variable aléatoire discrète $X$ dont les valeurs possibles sont $x_1, x_2,\dots, x_n$ est, lorsqu’elle existe, la somme des valeurs prises par cette variable, pondérées par leurs probabilités de réalisation.
Remarque : Dans le cas particulier ou toutes les probabilités sont égales, l'expression prend la forme de la moyenne arithmétique.
Exemple:
Considérons une loterie dont les gains seraient attribués en fonction de la roue suivante :
La somme que l'on peut gagner est une variable aléatoire $X$ de loi de probabilité :
L'espérance notée $E(X)$ de la variable aléatoire $X$ sera : $E(X) = 0\times\dfrac{7}{10} + 50\times\dfrac{2}{10} + 100\times\dfrac{1}{10} = 20$
L’espérance des gains est de 20 euros par partie, si la mise est nulle. Par conséquent si la mise est inférieure à 20 euros, il est conseillé de jouer à l'infini. Par contre si la mise est de exactement 20 euros, l'espérance des gains est de 0.
Définiton de la moyenne d'échantillonnage
Pour des échantillons de taille n, la moyenne d'échantillonnage est donnée par : $$\overline{X} = \dfrac{1}{n}\sum\limits_{i=1}^{n}x_i$$
La variance et l'écart-type mesurent eux la dispersion des mesures autour de la moyenne (ou espérance).
Variance
La variance est une mesure de la dispersion (ou de la distribution) des valeurs de la variable aléatoire autour de la moyenne. Si les valeurs tendent à se concentrer au voisinage de la moyenne la variance est faible tandis que si les valeurs tendent à se disperser plus loin la variance est grande.
import numpy as np
import scipy.stats as stat
echantillon = np.array([2., 3., 6., 8., 11.])
print(np.mean(echantillon)) #moyenne
print(np.std(echantillon)) #écart-type
print(stat.describe(echantillon)) #dénominateur en N-1 ?