Sous-sections

6.8 Méthode de décomposition

6.8.1 Construction d'une suite itérative

Décomposition
de A = E - F avec E inversible

\begin{displaymath}
A.X=B\Leftrightarrow X=E^{-1}.(F.X+B)\end{displaymath}

Algorithme
 

\begin{algorithm}
% latex2html id marker 3406\caption{point fixe}
\par
\begin{...
...r
~$\ldots$
\par
~$X^{(k+1)}=E^{-1}.(F.X^{(k)}+B)$\end{list}\par
\end{algorithm}

Dans la pratique, on utilise que 2 vecteurs $X1=X^{k}$et $X2=X^{k+1}$

6.8.2 Convergence

théorème:
la méthode itérative $e^{(k+1)}=G.e^{(k)}$ converge si et seulement si le rayon spectral $\rho(G)$ de la matrice G est strictement inférieur à 1. Par définition

\begin{displaymath}
\rho(G)=\max_{i=1,n}{\left\vert\lambda_{i}\right\vert}\end{displaymath}

$\lambda_{i}$ est la $i^{ieme}$ valeur propre de G
remarque:
théorème du point fixe
$F(x)=G.x$ avec $F'(x)=G$ converge si $\left\Vert G\right\Vert <1$

6.8.3 Méthode de Jacobi

6.8.3.1 description de la méthode

itération
de Jacobi

\begin{displaymath}
D.X^{(k+1)}=(E+F).X^{(k)}+B\end{displaymath}


\begin{displaymath}
X_{i}^{(k+1)}=X_{i}^{(k)}+\frac{1}{A_{ii}}(B_{i}-\sum_{j=1}^{n}A_{ij}.X_{j}^{(k)})\end{displaymath}


\begin{displaymath}
X_{i}^{(k+1)}=X_{i}^{(k)}+\frac{1}{A_{ii}}R_{i}^{(k)}\end{displaymath}

6.8.3.2 convergence de la méthode

théorème:
Si A est une matrice à diagonale dominante, alors la méthode de Jacobi converge
définition:
matrice à diagonale dominante
A est à diagonale dominante si

\begin{displaymath}
\forall i  \left\vert A_{ii}\right\vert>\sum_{j=1;j\neq i}^{n}\left\vert A_{ii}\right\vert\end{displaymath}

Algorithme
 

\begin{algorithm}
% latex2html id marker 3495\caption{jacobi
}
\par
\begin{lis...
...par
~finpour
\par
jusqu'\\lq {a}~sqrt(Residu)~$<$~Eps\end{list}\par
\end{algorithm}

6.8.4 Méthode de Gauss-Seidel

6.8.4.1 description de la méthode

6.8.4.2 convergence de la méthode

théorème:
Si A est une matrice à diagonale dominante, alors la méthode de Gauss-Seidel converge
Algorithme
 

\begin{algorithm}
% latex2html id marker 3548\caption{Gauss Seidel
}
\par
\beg...
...par
~finpour
\par
jusqu'\\lq {a}~sqrt(Residu)~$<$~Eps\end{list}\par
\end{algorithm}

6.8.4.3 Variante SOR (successive overrelaxation méthod)

paramêtre $\omega$ d'accélération de la convergence


\begin{displaymath}
X^{(k+1)}=\omega X_{GS}^{(k+1)}+(1-\omega)X^{k}\end{displaymath}


\begin{displaymath}
X^{(k+1)}=(D-\omega E)^{-1}(\omega F+(1-\omega)D)X^{k}+\omega(D-\omega E)^{-1}B\end{displaymath}

6.8.4.4 Exemple

englishméthode GaussSeidel et SOR sous Maple


Pr. Marc BUFFAT
marc.buffat@univ-lyon1.fr
2008-02-28