Sous-sections

7.2 Moindres carrés discrets

7.2.1 Cas général

Théorème:
soient N+1 points distincts ${x_{k}}$, alors il existe un polynôme unique p(x) de degré n ($n\le N$) $p(x)=\sum_{0}^{n}a_{i}.x^{i}$ réalisant la meilleure approximation de f(x) au sens de la norme euclidienne :

\begin{displaymath}
\min_{a_{i}}{\sum_{k=0}^{N}\left(f(x_{k})-\sum_{i=0}^{n}a_{i}.x_{k}^{i}\right)^{2}}\end{displaymath}

Ce polynôme p(x) est appelée l'approximation au sens des moindres carrés discrets de f .

7.2.1.1 Construction

Soient N+1 points distincts $x_{k}$, on veut déterminer les n+1 coefficients $a_{i}$ minimisant l'erreur :


\begin{displaymath}
E(a_{0},a_{1},\ldots a_{n})=\sum_{k=0}^{N}(f(x_{k})-\sum_{i=1}^{n}a_{i}.x_{k}^{i})^{2}\end{displaymath}

$E(a_{i})$ est une forme quadratique en $a_{i}$, et son minimum est atteint pour :


\begin{displaymath}
\frac{\partial E(a_{i})}{\partial a_{j}}=0\mbox{ pour j=0,n}\end{displaymath}

On obtient un système linéaire d'ordre n+1 :

\begin{displaymath}
A.x=B\end{displaymath}

avec $x=\{ a_{i}\}$, $A\in\mathbb{R}^{n+1}*\mathbb{R}^{n+1}$, $B\in\mathbb{R}^{n+1}$

7.2.2 Équation des moindres carrés


\begin{displaymath}
A=\left[\begin{array}{cccc}
N+1 & \sum_{k=0}^{N}x_{k} & \ldo...
...{k}^{n+1} & \ldots & \sum_{k=0}^{N}x_{k}^{2n}\end{array}\right]\end{displaymath}


\begin{displaymath}
B=\left[\begin{array}{c}
\sum_{k=0}^{N}y_{k}\\
\sum_{k=0}^{...
...{k}\\
\vdots\\
\sum_{k=0}^{N}x_{k}^{n}y_{k}\end{array}\right]\end{displaymath}


\begin{displaymath}
X=\left[\begin{array}{c}
a_{0}\\
a_{1}\\
\vdots\\
a_{n}\end{array}\right]\end{displaymath}

Cette équation est ``l'équation normale''


\begin{displaymath}
A.X=B\end{displaymath}

7.2.3 Droite des moindres carrés

Approximation $p(x)=a_{0}+a_{1}.x$ $\leadsto$ ``équation normale''


\begin{displaymath}
A=\left[\begin{array}{cc}
N+1 & \sum_{k=0}^{N}x_{k}\\
\sum_{k=0}^{N}x_{k} & \sum_{k=0}^{N}x_{k}^{2}\end{array}\right]\end{displaymath}


\begin{displaymath}
B=\left[\begin{array}{c}
\sum_{k=0}^{N}y_{k}\\
\sum_{k=0}^{N}x_{k}y_{k}\end{array}\right]\end{displaymath}


\begin{displaymath}
X=\left[\begin{array}{c}
a_{0}\\
a_{1}\end{array}\right]\end{displaymath}

en introduisant la moyenne des $x_{k}$ et $y_{k}$


\begin{displaymath}
\bar{x}=\frac{1}{N+1}\sum_{0}^{N}x_{k}\mbox{ et }\bar{y}=\frac{1}{N+1}\sum_{0}^{N}y_{k}\end{displaymath}

la covariance et la variance


\begin{displaymath}
\sigma(x,y)=\frac{1}{N+1}\sum_{0}^{N}(x_{k}-\bar{x}).(y_{k}-\bar{y})\end{displaymath}


\begin{displaymath}
\sigma(x^{2})=\frac{1}{N+1}\sum_{0}^{N}(x_{k}-\bar{x})^{2}\end{displaymath}

l'approximation $p(x)=a_{0}+a_{1}x$ par moindre carrés s'écrit alors:


\begin{displaymath}
a_{1}=\frac{\sigma(x,y)}{\sigma(x^{2})}\end{displaymath}


\begin{displaymath}
a_{0}=\bar{y}-a_{1}.\bar{x}\end{displaymath}


Pr. Marc BUFFAT
marc.buffat@univ-lyon1.fr
2007-11-26