Sous-sections

1.5 Étude de la convergence du schéma explicite

Pour étudier la convergence de la solution numérique \bgroup\color{black}$ u_{i}^{n}$\egroup du schéma aux différences finies (1.34) vers la solution exacte \bgroup\color{black}$ u(x,t)$\egroup de l'équation (1.1), on peut soit essayer d'étudier directement la convergence, ce qui peut être compliqué et pas toujours possible, soit utiliser un résultat d'analyse du à Lax (Richtmyer et Norton 1967):

Théorème de Lax
pour un problème linéaire aux valeurs initiales, la solution numérique d'un schéma itératif en temps aux différences finies converge vers la solution exacte si le schéma est consistant et stable.

La consistance et la stabilité d'un schéma sont en général beaucoup plus facile à étudier que sa convergence.

1.5.1 Étude de la consistance du schéma explicite

La consistance caractérise la façon dont l'équation aux différences finies (EDF) approche l'équation aux dérivées partielles (EDP).

consistance
un schéma aux différences finies est consistant à l'équation exacte si l'EDF tends vers l'EDP lorsque les pas de discrétisation en temps et en espace tendent vers zéro indépendamment.
Pour formaliser cette approche, notons \bgroup\color{black}$ u(x,t)$\egroup la solution de l'EDP, i.e \bgroup\color{black}$ u(x,t)$\egroup vérifie exactement l'équation: \bgroup\color{black}$ EDP[u]=0$\egroup , et \bgroup\color{black}$ u_{i}^{n}$\egroup la solution de l'EDF, i.e. \bgroup\color{black}$ u_{i}^{n}$\egroup vérifie exactement l'équation: \bgroup\color{black}$ EDF[u]=0$\egroup . Nous allons calculer la différence \bgroup\color{black}$ E_{t}$\egroup entre l'EDP et l'EDF aux noeuds du maillage et pour la solution exacte \bgroup\color{black}$ u$\egroup :

\bgroup\color{black}$\displaystyle E_{t}=EDF[u(i\Delta x,n\Delta t)]-EDP[u]_{(i\Delta x,n\Delta t)}$\egroup

ce qui donne, compte tenu du fait que \bgroup\color{black}$ EDP[u]=0$\egroup

\bgroup\color{black}$\displaystyle E_{t}=EDF[u(i\Delta x,n\Delta t)]$\egroup

Cette différence est l'erreur de troncature du schéma aux différences finies, et corresponds donc à l'erreur commise lorsque l'on remplace la solution approchée \bgroup\color{black}$ u_{i}^{n}$\egroup par la solution exacte aux noeuds du maillage \bgroup\color{black}$ u(i\Delta x,n\Delta t)$\egroup dans l'équation aux différences EDF.

Le schéma EDF est dit consistant à l'équation EDP si cette erreur de troncature tends vers zéro lorsque le pas de discrétisation en temps \bgroup\color{black}$ \Delta t$\egroup et le pas de discrétisation en espace \bgroup\color{black}$ \Delta x$\egroup tendent vers zéro indépendamment.

\bgroup\color{black}$\displaystyle \lim_{\Delta x\rightarrow0, \Delta t\rightarrow0}E_{t}=EDF[u(i\Delta x,n\Delta t)]=0$\egroup

Appliquons cette définition au schéma explicite (1.34), en notant \bgroup\color{black}$ u(i\Delta x,n\Delta t)=U_{i}^{n}$\egroup la solution exacte aux noeuds du maillage:

\bgroup\color{black}$\displaystyle E_{t}=\frac{U_{i}^{n+1}-U_{i}^{n}}{\Delta t}-\kappa \frac{U_{i+1}^{n}-2U_{i}^{n}+U_{i-1}^{n}}{\Delta x^{2}}$\egroup

Pour calculer cette erreur de troncature, on exprime toutes les quantités en fonction de \bgroup\color{black}$ U_{i}^{n}$\egroup en effectuant des développement en série de Taylor au voisinage du point \bgroup\color{black}$ (i\Delta x,n\Delta t)$\egroup :

$\displaystyle U_{i}^{n+1}=U_{i}^{n}+\left.\frac{\Delta t}{1!}\frac{\partial U}{...
...c{\partial^{2}U}{\partial t^{2}}\right\vert _{\left(i,n\right)}+O(\Delta t^{3})$    
$\displaystyle U_{i+1}^{n}=U_{i}^{n}+\left.\frac{\Delta x}{1!}\frac{\partial U}{...
...c{\partial^{4}U}{\partial x^{4}}\right\vert _{\left(i,n\right)}+O(\Delta x^{5})$    
$\displaystyle U_{i-1}^{n}=U_{i}^{n}-\left.\frac{\Delta x}{1!}\frac{\partial U}{...
...l^{4}U}{\partial x^{4}}\right\vert _{\left(i,n\right)}+O(\Delta x^{5})\textrm{}$    

En reportant ces développements dans l'erreur de troncature , il vient

\bgroup\color{black}$\displaystyle E_{t}=\left.\frac{\partial U}{\partial t}\rig...
...^{4}}\right\vert _{\left(i,n\right)}\right)+O(\Delta t^{2},\Delta x^{4})$\egroup

On utilise ensuite le fait que \bgroup\color{black}$ U_{i}^{n}$\egroup vérifie l'équation exacte au point \bgroup\color{black}$ (i,n):$\egroup

\bgroup\color{black}$\displaystyle \left.\frac{\partial U}{\partial t}\right\ver...
...}-\left.\kappa\frac{\partial^{2}U}{\partial x^{2}}\right\vert _{(i,n)}=0$\egroup

ce qui donne l'expression de l'erreur de troncature du schéma explicite:

$\displaystyle E_{t}=\left.\frac{\Delta t}{2}\frac{\partial^{2}U}{\partial t^{2}...
...\partial^{4}U}{\partial x^{4}}\right\vert _{(i,n)}+O(\Delta t^{2},\Delta x^{4})$ (1.38)

Cette erreur de troncature tends bien vers zéro, lorsque \bgroup\color{black}$ \Delta t$\egroup et \bgroup\color{black}$ \Delta x$\egroup tendent vers zéro indépendamment.

Le schéma explicite 1.34 est donc consistant à l'équation de la chaleur (1.1) et l'erreur de troncature est en \bgroup\color{black}$ O(\Delta t,\Delta x^{2})$\egroup , i.e. d'ordre 1 en temps et d'ordre 2 en espace.

L'ordre de troncature est aussi la précision de la solution numérique, i.e l'erreur entre la solution numérique \bgroup\color{black}$ u_{i}^{n}$\egroup et la solution exacte \bgroup\color{black}$ U_{i}^{n}$\egroup est en \bgroup\color{black}$ O(\Delta t,\Delta x^{2})$\egroup .

Remarque: on peut transformer l'erreur de troncature (1.37) en dérivant l'équation exacte par rapport à t pour calculer \bgroup\color{black}$ \frac{\partial u^{2}}{\partial t^{2}}$\egroup :

\bgroup\color{black}$\displaystyle \frac{\partial^{2}U}{\partial t^{2}}=\kappa\f...
...}{\partial x^{2}}\left(\kappa\frac{\partial^{2}U}{\partial x^{2}}\right)$\egroup

En remplaçant dans (1.37) il vient:

\bgroup\color{black}$\displaystyle E_{t}=\kappa\left(\kappa\frac{\Delta t}{2}-\f...
...c{\partial^{4}U}{\partial x^{4}}\right\vert+O(\Delta t^{2},\Delta x^{4})$\egroup

on remarque que pour la valeur particulière de \bgroup\color{black}$ \Delta t$\egroup telle que:

$\displaystyle \kappa\frac{\Delta t}{\Delta x^{2}}=\frac{1}{6}$ (1.39)

le premier terme de l'erreur de troncature s'annulle, et la précision du schéma augmente pour être en \bgroup\color{black}$ O(\Delta t^{2},\Delta x^{4})$\egroup .

1.5.2 Etude de la stabilité du schèma explicite

La notion de stabilité s'applique à des schèmas, pour lesquels on calcule des solutions de façon itérative. Les calculs s'éffectuent sur des ordinateurs avec une précision finie, et donc sont sujet à des erreurs d'arrondis. Lors d'un calcul itératif, ces erreurs peuvent être amplifiées par le schèma numérique. Le but de l'étude de stabilité est donc de déterminer quelle est l'amplification des erreurs (ou perturbations) par le schèma.

stabilité
un schèma itératif est dit stable, si les perturbations de la solution numérique ne sont pas amplifiées au cours des itérations.
Soit \bgroup\color{black}$ u_{i}^{n}$\egroup la solution à l'étape \bgroup\color{black}$ n$\egroup de l'équation aux différences (1.34). la solution \bgroup\color{black}$ u_{i}^{n+1}$\egroup à l'étape \bgroup\color{black}$ n+1$\egroup vérifie:

$\displaystyle u_{i}^{n+1}=u_{i}^{n}+r\left(u_{i+1}^{n}-2u_{i}^{n}+u_{i-1}^{n}\right)$ (1.40)

Soit \bgroup\color{black}$ \epsilon_{i}^{n}$\egroup une perturbation de la solution à l'étape \bgroup\color{black}$ n$\egroup . La solution perturbée \bgroup\color{black}$ u_{i}^{n+1}+\epsilon_{i}^{n+1}$\egroup à l'étape \bgroup\color{black}$ n+1$\egroup est solution de l'équation aux différences:

$\displaystyle u_{i}^{n+1}+\epsilon_{i}^{n}=u_{i}^{n}+\epsilon_{i}^{n}+r\left(u_...
...n}-2\left(u_{i}^{n}+\epsilon_{i}^{n}\right)+u_{i-1}^{n}+\epsilon_{i}^{n}\right)$ (1.41)

L'équation sur la perturbation est obtenue en effectuant la différence (1.40)-(1.39):

$\displaystyle \epsilon_{i}^{n+1}=\epsilon_{i}^{n}+r\left(\epsilon_{i+1}^{n}-2\epsilon_{i}^{n}+\epsilon_{i-1}^{n}\right)$ (1.42)

On décompose cette perturbation en tout point \bgroup\color{black}$ x_{i}=i\Delta x$\egroup du maillage et à tout instant \bgroup\color{black}$ t_{n}$\egroup sous la forme d'une série de modes de Fourier (en notant \bgroup\color{black}$ I=\sqrt{-1}$\egroup ):

$\displaystyle \varepsilon_{i}^{n}=\sum\limits _{m=1}^{\infty}\psi_{m}^{n}e^{I\omega_{m}i\Delta x}$ (1.43)

Le problème étant linéaire, chacun des modes vérifie l'équation (1.41), qui s'écrit pour un mode \bgroup\color{black}$ m$\egroup :

$\displaystyle \psi_{m}^{n+1}e^{I\omega_{m}i\Delta x}=\psi_{m}^{n}e^{I\omega_{m}...
...{m}(i+1)\Delta x}-2e^{I\omega_{m}i\Delta x}+e^{I\omega_{m}(i-1)\Delta x}\right)$ (1.44)

En simplifiant par \bgroup\color{black}$ e^{I\omega_{m}i\Delta x}$\egroup l'équation (1.43) s'écrit :

$\displaystyle \psi_{m}^{n+1}=\psi_{m}^{n}\left[1+r\left(e^{I\omega_{m}\Delta x}-2+e^{-I\omega_{m}\Delta x}\right)\right]$ (1.45)

En posant \bgroup\color{black}$ \beta=\omega_{m}\Delta x$\egroup et en utilisant les relations trigonométriques \bgroup\color{black}$ \cos\beta=\frac{e^{I\beta}+e^{-I\beta}}{2}$\egroup et \bgroup\color{black}$ sin^{2}\frac{\beta}{2}=\frac{1}{2}\left(1-\cos\beta\right),$\egroup l'équation (1.44) devient :

$\displaystyle \psi_{m}^{n+1}=\psi_{m}^{n}\left(1-4r\sin^{2}\frac{\beta}{2}\right)$ (1.46)

Il est clair que si l'amplitude \bgroup\color{black}$ \psi_{m}^{n}$\egroup de chaque mode de la perturbation diminue d'une itération à l'autre, l'erreur décroît et la perturbation finit par disparaître. Ceci se traduit par la condition:

$\displaystyle \left\vert\frac{\psi_{m}^{n+1}}{\psi_{m}^{n}}\right\vert=\left\vert 1-4r\sin^{2}\frac{\beta}{2}\right\vert\leq1$ (1.47)

qui doit être vérifiée pour chaque mode \bgroup\color{black}$ m$\egroup , i.e. \bgroup\color{black}$ \forall\omega_{m}$\egroup c'est à dire \bgroup\color{black}$ \forall\beta$\egroup .

Dans l'équation (1.46) on note par \bgroup\color{black}$ G=\left\vert\frac{\psi_{m}^{n+1}}{\psi_{m}^{n}}\right\vert$\egroup le facteur d'amplification du schèma.

Remarque: cette analyse de stabilité n'a pas prise en compte les conditions aux limites. Le type des conditions aux limites et leurs discrétisations sélectionnent certains modes de Fourier. Dans notre étude, la condition aux limites sur la perturbation est une condition homogéne de Dirichlet: \bgroup\color{black}$ \varepsilon_{0}^{n}=\varepsilon_{N}^{n}=0$\egroup , et elle impose des modes de Fourier en \bgroup\color{black}$ \sin(m\pi\frac{i\Delta x}{L})$\egroup pour vérifier ces conditions aux limites ( i.e. \bgroup\color{black}$ \omega_{m}=\frac{m\pi}{L}   m\in\mathbb{Z}$\egroup ). On verra à la fin du chapitre une autre façon de faire l'analyse de stabilité: l'approche matricielle qui prend en compte directement les conditions aux limites.

L'inégalité (1.46), s'écrit:

\bgroup\color{black}$\displaystyle -1\le1-4r\sin^{2}\beta\le1    \forall\beta$\egroup

soit

\bgroup\color{black}$\displaystyle \frac{1}{2\sin^{2}\beta}\ge r\ge0     \forall\beta$\egroup

Cette inégalité impose une valeur maximale à \bgroup\color{black}$ r$\egroup :

$\displaystyle r\le\frac{1}{2}$ (1.48)

Le schèma explicite est donc conditionnellement stable, avec un critère de stabilité donné par la condition:


$\displaystyle \kappa\frac{\Delta t}{\Delta x^{2}}$ $\displaystyle \leq$ $\displaystyle \frac{1}{2}$ (1.49)

Cette condition s'utilise de la façon suivante: on fixe le maillage en espace, i.e. le pas \bgroup\color{black}$ \Delta x$\egroup et le pas en temps d'intégration en temps \bgroup\color{black}$ \Delta t$\egroup doit alors être choisi tel que:

\bgroup\color{black}$\displaystyle \Delta t\le\frac{\Delta x^{2}}{2\kappa}$\egroup

On remarque que plus on augmente le nombre de points en espace (i.e. plus \bgroup\color{black}$ \Delta x$\egroup diminue), plus il faut prendre un pas en temps \bgroup\color{black}$ \Delta t$\egroup petit. C'est l'un des principales inconvénients de ce schéma explicite.


1.5.3 Étude de la convergence du schéma explicite

Pour ce schéma explicite, il est possible d'étudier directement la convergence de la solution numérique vers la solution exacte. Pour cela nous allons déterminer la solution exacte de l'équation aux différences finies (1.35):

\bgroup\color{black}$\displaystyle u_{i}^{n+1}=u_{i}^{n}+r\left(u_{i+1}^{n}-2u_{i}^{n}+u_{i-1}^{n}\right)$\egroup

Par analogie avec la solution exacte (1.17), nous allons chercher une solution \bgroup\color{black}$ u_{i}^{n}$\egroup sous la forme d'une série:

\bgroup\color{black}$\displaystyle u_{i}^{n}=\sum_{m=1}^{M}C_{m}\Lambda_{m}^{n}\sin\left(\frac{m\pi}{L}i\Delta x\right)$\egroup

où les coefficients \bgroup\color{black}$ \Lambda_{m}^{n}$\egroup donnent la dépendance temporelle et les \bgroup\color{black}$ C_{m}$\egroup prennent en compte la condition initiale.

En notant \bgroup\color{black}$ N$\egroup le nombre d'intervalle en espace, on a \bgroup\color{black}$ \Delta x=L/N$\egroup et la série s'écrit:

\bgroup\color{black}$\displaystyle u_{i}^{n}=\sum_{m=1}^{M}C_{m}\Lambda_{m}^{n}\sin\left(m\pi\frac{i}{N}\right)$\egroup

Cette série discréte ne comprends que \bgroup\color{black}$ M=N-1$\egroup modes indépendants. En effet pour \bgroup\color{black}$ m>N$\egroup , le mode \bgroup\color{black}$ m$\egroup est confondu aux noeuds du maillage avec un mode \bgroup\color{black}$ q<N$\egroup tel que \bgroup\color{black}$ m=p  N+q$\egroup , puisque:

\bgroup\color{black}$\displaystyle \sin\left((pN+q)\pi\frac{i}{N}\right)=sin(q\pi\frac{i}{N})$\egroup

et pour \bgroup\color{black}$ m=N$\egroup on a un mode identiquement nul. Ce nombre de modes \bgroup\color{black}$ M=N-1$\egroup est en fait le nombre de degrés de liberté de la solution numérique: \bgroup\color{black}$ \left\{ u_{i}^{n}\right\} $\egroup est définie par \bgroup\color{black}$ N+1$\egroup valeurs aux points de maillage, mais on impose 2 conditions aux limites \bgroup\color{black}$ u_{0}^{n}=0$\egroup et \bgroup\color{black}$ u_{N}^{n}=0$\egroup , ce qui donne en définitive \bgroup\color{black}$ N-1$\egroup degrés de liberté.

La solution \bgroup\color{black}$ u_{i}^{n}$\egroup s'écrit donc:

\bgroup\color{black}$\displaystyle u_{i}^{n}=\sum_{m=1}^{N-1}C_{m}\Lambda_{m}^{n}\sin\frac{m\pi i}{N}$\egroup

Le problème étant linéaire, chacun des modes est solution de l'équation (1.35), ce qui donne en simplifiant par \bgroup\color{black}$ C_{m}$\egroup qui ne dépend ni de \bgroup\color{black}$ i$\egroup ni de \bgroup\color{black}$ n$\egroup :


$\displaystyle \Lambda_{m}^{n+1}\sin\frac{m\pi i}{N}$ $\displaystyle =$ $\displaystyle \Lambda_{m}^{n}\sin\frac{m\pi i}{N}+r\left(\Lambda_{m}^{n}\sin\fr...
...ambda_{m}^{n}\sin\frac{m\pi i}{N}+\Lambda_{m}^{n}\sin\frac{m\pi(i-1)}{N}\right)$  
  $\displaystyle =$ $\displaystyle \Lambda_{m}^{n}\sin(\frac{m\pi i}{N})\left(1+2r(\cos\frac{m\pi}{N}-1)\right)$  
  $\displaystyle =$ $\displaystyle \Lambda_{m}^{n}\sin(\frac{m\pi i}{N})\left(1-4r\sin^{2}\frac{m\pi}{2N}\right)$  

d'où le coefficient \bgroup\color{black}$ \Lambda_{m}^{n}$\egroup

\bgroup\color{black}$\displaystyle \Lambda_{m}^{n}=\left(1-4r\sin^{2}\frac{m\pi}{2N}\right)^{n}$\egroup

Les coefficients \bgroup\color{black}$ C_{m}$\egroup sont déterminés de façon à vérifier la condition initiale aux noeuds du maillage \bgroup\color{black}$ u_{i}^{0}=C(i\Delta x)$\egroup :

\bgroup\color{black}$\displaystyle C(i\Delta x)=\sum_{m=1}^{N-1}C_{m}\sin\frac{m\pi i}{N}   \forall i=1,N-1$\egroup

Ce sont donc les coefficients de la transformée de Fourier de la condition initiale \bgroup\color{black}$ C(x)$\egroup calculée aux noeuds du maillage:

\bgroup\color{black}$\displaystyle C_{m}=\frac{2}{N}\sum_{i=1}^{N-1}C(i\Delta x)\sin\frac{m\pi i}{N}$\egroup

La solution numérique s'écrit donc:


$\displaystyle u_{i}^{n}$ $\displaystyle =$ $\displaystyle \sum_{m=1}^{N-1}\left(C_{m}\left(1-4r\sin^{2}\frac{m\pi}{2N}\right)^{n}\sin\frac{m\pi i}{N}\right)$ (1.50)
$\displaystyle C_{m}$ $\displaystyle =$ $\displaystyle \frac{2}{N}\sum_{i=1}^{N-1}C(i\Delta x)\sin\frac{m\pi i}{N}$  

Comparons cette solution à la solution exacte (1.17) aux noeuds du maillage. La solution exacte au point \bgroup\color{black}$ x=i\Delta x$\egroup et à \bgroup\color{black}$ t_{0}=n\Delta t$\egroup s'écrit, en remplaçant \bgroup\color{black}$ \kappa$\egroup et \bgroup\color{black}$ \Delta t$\egroup en fonction de \bgroup\color{black}$ r$\egroup et \bgroup\color{black}$ N$\egroup :

$\displaystyle u(i\Delta x,n\Delta t)=\sum\limits _{m=1}^{\infty}C_{m}e^{-rn\left(\frac{m\pi}{N}\right)^{2}}\sin\left(\frac{m\pi i}{N}\right)$ (1.51)

En comparant les deux expressions (1.49) et (1.50), on voit que pour montrer la convergence de \bgroup\color{black}$ u_{i}^{n}$\egroup vers \bgroup\color{black}$ u(x,t_{0})$\egroup , il faut montrer que \bgroup\color{black}$ \Lambda_{m}^{n}$\egroup tends vers \bgroup\color{black}$ e^{-rn\left(\frac{m\pi}{N}\right)^{2}}$\egroup . Attention, on se place en un point \bgroup\color{black}$ x=i\Delta x$\egroup fixe et à un instant \bgroup\color{black}$ t_{0}=n\Delta t$\egroup fixé. Donc lorsque l'on fait tendre \bgroup\color{black}$ \Delta x$\egroup et \bgroup\color{black}$ \Delta t$\egroup vers zéro, les indices \bgroup\color{black}$ i$\egroup et \bgroup\color{black}$ n$\egroup augmentent en fonction de \bgroup\color{black}$ \Delta x$\egroup et \bgroup\color{black}$ \Delta t$\egroup . On introduit alors un petit paramètre \bgroup\color{black}$ \delta=\frac{m\pi}{N}=\frac{m\pi h}{L}$\egroup , et on effectue les développements limités par rapport à \bgroup\color{black}$ \delta$\egroup de \bgroup\color{black}$ \Lambda_{m}^{n}$\egroup :


$\displaystyle \Lambda_{m}^{n}$ $\displaystyle =$ $\displaystyle \left(1-4r\sin^{2}\frac{\delta}{2}\right)^{n}$ (1.52)
  $\displaystyle =$ $\displaystyle 1-nr\delta^{2}+\left(\frac{n}{12}r+\frac{n^{2}-n}{2}r^{2}\right)\delta^{4}+O(\delta^{6})$  

et de \bgroup\color{black}$ e^{-rn\left(\frac{m\pi}{N}\right)^{2}}$\egroup :

\bgroup\color{black}$\displaystyle e^{-rn\left(\frac{m\pi}{N}\right)^{2}}=1-nr\delta^{2}+\frac{n^{2}}{2}r^{2}\delta^{4}+O(\delta^{6})$\egroup

L'écart entre ces 2 développements s'écrit en remplaçant \bgroup\color{black}$ r$\egroup et \bgroup\color{black}$ \delta$\egroup en fonction de \bgroup\color{black}$ \Delta x$\egroup et \bgroup\color{black}$ \Delta t$\egroup et en notant que \bgroup\color{black}$ n=t_{0}/\Delta t$\egroup :


$\displaystyle \Lambda_{m}^{n}-e^{-rn\left(\frac{m\pi}{N}\right)^{2}}$ $\displaystyle \approx$ $\displaystyle \frac{nr}{12}\delta^{4}-\frac{nr^{2}}{2}\delta^{4}$  
  $\displaystyle \approx$ $\displaystyle \frac{\kappa t_{0}}{12}\left(\frac{m\pi}{L}\right)^{4}\Delta x^{2}-\frac{\kappa^{2}t_{0}}{2}\left(\frac{m\pi}{L}\right)^{4}\Delta t$  

Cet écart tend bien vers zéro lorsque \bgroup\color{black}$ \Delta t$\egroup et \bgroup\color{black}$ \Delta x$\egroup tendent vers zéro, et est d'ordre 2 en espace et d'ordre 1 en temps.

A partir de l'expression (1.49), on peut aussi en déduire le comportement de la solution numérique. Pour chaque mode \bgroup\color{black}$ m$\egroup de cette solution, on approxime la dépendance temporelle en exponentielle décroissante de la solution exacte par une fonction puissance \bgroup\color{black}$ \Lambda_{m}^{n}$\egroup . Pour qu'il y ait convergence, il faut donc que \bgroup\color{black}$ \left\vert\Lambda_{m}^{n}\right\vert\le1$\egroup (c'est aussi la condition pour que le développement limité 1.51 converge). Cette condition implique:

\bgroup\color{black}$\displaystyle \left\vert 1-4r\sin^{2}\frac{\delta}{2}\right\vert\le1$\egroup

qui est justement la condition de stabilité (1.47) du schéma explicite:

\bgroup\color{black}$\displaystyle r\le\frac{1}{2}$\egroup

Nous avons tracé sur la figure (1.5) le facteur d'amplification \bgroup\color{black}$ G_{m}$\egroup du mode \bgroup\color{black}$ m$\egroup

\bgroup\color{black}$\displaystyle G_{m}=1-4r\sin^{2}\frac{m\pi}{2N}$\egroup

en fonction de \bgroup\color{black}$ \frac{m}{N}$\egroup et pour différentes valeurs de \bgroup\color{black}$ r$\egroup .

Figure 1.5: Facteur d'amplification $ G_{m}$
\includegraphics[width=0.7\paperwidth]{CHAP1/Gm}

On note que ce facteur d'amplification est positif et inférieure à 1 pour les petits nombres d'ondes \bgroup\color{black}$ m$\egroup , et donc les grandes longueurs d'ondes \bgroup\color{black}$ \frac{L}{m\pi}$\egroup sont toujours amorties comme pour la solution exacte. Par contre le comportement des petites longueurs d'ondes (i.e. des grandes nombres d'ondes \bgroup\color{black}$ m$\egroup ) dépend de \bgroup\color{black}$ r$\egroup .

Pour \bgroup\color{black}$ r>\frac{1}{2}$\egroup , le facteur d'amplification des grands nombres d'ondes \bgroup\color{black}$ m$\egroup est négatif et inférieure à \bgroup\color{black}$ -1$\egroup , donc les petites longueurs d'ondes se mettent à osciller avec une amplitude croissante et le schéma diverge. La divergence du schéma explicite se traduit donc par l'apparition d'oscillations à hautes fréquences d'amplitudes croissantes.

Pour \bgroup\color{black}$ \frac{1}{4}<r<\frac{1}{2}$\egroup , le facteur d'amplification des grands nombres d'ondes \bgroup\color{black}$ m$\egroup est négatif, mais supérieure à \bgroup\color{black}$ -1$\egroup , donc les petites longueurs d'ondes se mettent aussi à osciller mais avec une amplitude décroissante et le schéma ne diverge pas. La solution numérique peut présenter des oscillations, mais qui décroissent au cours du temps.

Pour \bgroup\color{black}$ r<\frac{1}{4}$\egroup , le facteur d'amplification des grands nombres d'ondes \bgroup\color{black}$ m$\egroup reste toujours positif, et les petites longueurs d'ondes décroissent de façon monotone, comme dans la solution exacte.

Cette étude nous a donc fournit un renseignement supplémentaire par rapport à l'étude de stabilité: si on veut une convergence monotone de la solution numérique vers la solution exacte, il faut choisir \bgroup\color{black}$ r\le\frac{1}{4}$\egroup .


Pr. Marc BUFFAT
marc.buffat@univ-lyon1.fr
2008-04-07