Introduction
Un système différentiel linéaire homogène à coefficients constants est un système de la forme
\(\displaystyle{\left\{\begin{array}{ccc}x'_1 & = & a_{1,1}x_1+...+a_{1,n}x_n \\ \vdots & \vdots & \vdots \\ x'_n & = & a_{n,1}x_1+...+a_{n,n}x_n\end{array}\right.}\)
Si \(X(t)\) désigne le vecteur\( \displaystyle{\left[\begin{array}{ccc}x_1(t) \\ \vdots \\x_n(t)\end{array}\right]}\), le vecteur dérivé \(X'(t)\) s'écrit \(\displaystyle{\left[\begin{array}{ccc}x'_1(t) \\ \vdots \\ x'_n(t)\end{array}\right]}\), et le système s'écrit \(X'(t) = A X(t)\), où \(A\) est la matrice \(\displaystyle{\left(\begin{array}{ccc}a_{1,1} & ... & a_{1,n} \\ \vdots & \textrm{}& \vdots \\ a_{n,1} & ... & a_{n,n}\end{array}\right)}\)
Espace des solutions :
Rappelons que l'ensemble des applications dérivables de \(R\) dans \(R^n\) est un espace vectoriel \(E\) sur \(R\), de dimension infinie.
Si \(A\) est une matrice réelle carrée \(n\times n\) , les solutions de l'équation \(X' = A X\) sont des applications dérivables de \(R\) dans \(R^n\), et forment donc une partie de \(E\) . On va voir que cette partie est en fait un sous-espace de \(E\) :
Théorème :
Soit A une matrice réelle carrée \(n\times n\). L'ensemble des solutions de l'équation \(X' = A X\) est un espace vectoriel de dimension \(n\).
Cela veut dire notamment que, si \(U(t)\) et \(V(t)\) sont des solutions, toute combinaison linéaire \(a U(t) + b V(t)\) est aussi une solution.
Théorème :
L'ensemble \(S\) des solutions de l'équation \(X' = A X\), où \(A\) est une matrice réelle carrée \(n\times n\), est un espace vectoriel réel de dimension \(n\).
Démonstration :
1) Montrons que \(S\) est un sous-espace vectoriel de l'espace \(D\) des fonctions dérivables de \(R\) dans \(R_n\) :
Il faut montrer que \(0\in S\) et que, si \(U\) et \(V\) sont dans \(S\) et λ et μ dans \(R\), alors, \((\lambda U +\mu V)\in S\)
La fonction identiquement nulle \(U(t) = (0, ..., 0)\) est solution de \(X' = AX\)
Si deux fonctions \(U\) et \(V\) sont dans \(S\), on a , pour tout \(t\), \(U'(t) = A U(t)\) et \(V'(t) = A V(t)\).
La linéarité de la dérivation et le fait que l'application \(U\rightarrow A\) U est linéaire entraine que, pour tous réels λ et μ, on a bien \((\lambda U+\mu V)'=A(\lambda U+\mu V)\) et donc \((\lambda U+\mu V)\varepsilon S\)
2) Montrons que \(\textrm{dim}(S)\ge n\) :
Il suffit de trouver \(n\) éléments linéairement indépendants dans \(S\).
L'équation \(X' = A X\) vérifie évidemment les conditions de Cauchy-Lipschitz.
Soit donc \((e_1, ..., e_n)\) la base canonique de \(R^n\), et notons \(X_i(t)\) l'unique solution vérifiant \(X_i(0) = e_i ( i = 1 ... n)\). Montrons que les fonctions \(X_i(t)\) sont linéairement indépendantes.
Supposons donc qu'on ait une relation
\(\alpha_1X_1+...+\alpha_nX_n=0\)
Pour \(t = 0\), cela donnerait
\(\alpha_1X_1(0)+...+\alpha_nX_n(0)=0\)
soit encore
\(\alpha_1e_1+...+\alpha_(n)e_n=0\)
Puisque les vecteurs \((e_1, ..., e_n)\) sont indépendants, on en déduit que
\(\alpha_1=...=\alpha_(n)=0\)
3) Montrons que \(\textrm{dim}(S) \le n\) :
Il suffit de montrer que \(n + 1\) solutions de \(X' = AX\) sont toujours liées.
Soient donc \(U_1, ... , U_{n+1}\) des solutions.
Les vecteurs \(U_1(0), ... , U_{n+1} (0)\) de \(R^n\) sont liés, donc vérifient une relation de dépendance
\(\alpha_1U_1(0)+...+\alpha_{n+1}U_{n+1}(0)=0\) où les \(\alpha_i\) ne sont pas tous nuls.
La fonction \(U=\alpha_1U_1(0)+...+\alpha_{n+1}U_{n+1}\) est une solution, et vérifie la même condition initiale que la fonction identiquement nulle, à savoir \(U(0) = 0\). En vertu de l'unicité, \(U\) est la fonction nulle, et on a donc
\(\alpha_1U_1(0)+...+\alpha_{n+1}U_{n+1}(0)=0\)
On voit que \(n+1\) solutions sont toujours liées, donc \(\textrm{dim}(S) \le n\). On a donc finalement démontré que \(\textrm{dim}(S)=n\).
On a donc finalement démontré que \(\textrm{dim}(S)=n\).
Exemple :
Etudions le système
\(\displaystyle{\left\{\begin{array}{ll}x'=y \\ y'=-2x-3y \end{array}\right.}\)
En posant \(X=\displaystyle{\left[\begin{array}{c}x \\ y\end{array}\right]}\) et \(A=\displaystyle{\left(\begin{array}{cccccc}0 & 1 \\ -2 & -3\end{array}\right)}\) il s'écrit \(X'=AX\).
On constate que les fonctions \(U_1(t) = \displaystyle{\left[\begin{array}{cc}e^{-t} \\ -e^{-t}\end{array}\right]}\) et \(U_2(t) = \displaystyle{\left[\begin{array}{cc}e^{-2t} \\ -2e^{-2t}\end{array}\right]}\)sont des solutions non proportionnelles.
L'espace des solutions étant de dimension 2, \(U_1\) et \(U_2\) forment donc une base.
Toutes les solutions s'écrivent donc comme combinaisons linéaires de \(U_1\) et \(U_2\), c'est à dire
\(\displaystyle{U(t)=\textrm{c}U_1(t)+\textrm{d}U_2(t)=\left[\begin{array}{cc}c\textrm{e}^{-t}+\textrm{de}^{-2t} \\ -c\textrm{e}^{-t}-2\textrm{de}^{-2t} \end{array}\right]}\)
Ceci peut encore s'écrire
\(\displaystyle{\left\{\begin{array}{ll}x(t)=c\textrm{e}^{-t}+\textrm{de}^{-2t} \\ y(t)=-c\textrm{e}^{-t}-2\textrm{de}^{-2t} \end{array}\right.}\)
Dans les pages suivantes, nous apprendrons à trouver une base de l'espace des solutions d'un système \(X' = AX\).
La méthode de résolution dépendra de la forme de la matrice \(A\) et de ses propriétés.