Caractérisation des matrices inversibles et expression de l'inverse
Caractérisation
On a le résultat fondamental suivant :
Théorème : caractérisation d'une matrice inversible
Soit \(M\) une matrice de \(M_n(K)\). Elle est inversible si et seulement son déterminant est non nul.
De plus si \(M\) est inversible, \(\det(M^{-1})=\left[\det(M)\right]^{-1}\).
Preuve : de la caractérisation d'une matrice inversible
Soit \(M\) une matrice inversible. Cela signifie qu'il existe une matrice, notée \(M^{-1}\) de même type que \(M\) telle que \(MM^{-1}=M^{-1}M=I_n\).
Ceci donne, puisque le déterminant d'un produit de matrices est égal au produit des déterminants, \(\det(MM^{-1})=\det(M)\det(M^{-1})=\det I_n=1\). D'où le résultat.
Réciproquement, nous allons démontrer que si le déterminant de \(M\) est non nul alors \(M\) est inversible. Dire que le déterminant de \(M\) est non nul implique que les vecteurs colonnes de la matrice sont linéairement indépendants. La matrice est donc de rang \(n\). Ceci permet de conclure car on sait qu'une condition nécessaire et suffisante pour qu'une matrice d'ordre \(n\) soit inversible est qu'elle soit de rang \(n\).
Expression de l'inverse d'une matrice inversible
On peut compléter ce résultat en donnant une expression de la matrice inverse d'une matrice inversible.
Pour cela on commence par établir une relation entre une matrice \(M\), sa comatrice (ou matrice des cofacteurs) notée \(Com(M)\) et son déterminant.
Théorème : relations entre une matrice et sa comatrice
Soit \(M\) une matrice de \(M_n(K)\). On a les relations \(M\left[^tCom(M)\right]=\left[^tCom(M)\right]M=\left[\det(M)\right]I_n\)
La démonstration est basée sur les formules de développement d'un déterminant d'une matrice par rapport à une ligne ou une colonne... qui s'expriment de la manière suivante
Soit \(M=(m_{i,j})\in M_n(K)\).
Développement du déterminant par rapport à la \(i\)-ième ligne :
(*) \(\det M=\displaystyle{\sum^{k=n}_{k=1}}m_{i,k}\Delta_{i,k}\)
Développement du déterminant par rapport à la \(j\)-ième colonne :
(**) \(\det M=\displaystyle{\sum^{k=n}_{k=1}}m_{k,j}\Delta_{k,j}\)
( \(\Delta_{l,s}\) est le cofacteur de \(m_{l,s}\), c'est-à-dire \(\Delta_{l,s}=(-1)^{l+s}\det M_{l,s}\) où \(M_{l,s}\) est la matrice obtenue à partir de \(M\) en supprimant la \(l\)-ième ligne et la \(s\)-ième colonne)
...et sur le lemme suivant qui en est déduit directement :
Lemme :
Soit \(M=(m_{i,j})\in M_n(K)\). Alors on a :
\(\displaystyle{\sum^{k=n}_{k=1}}m_{i,k}\Delta_{j,k}=\left\{\begin{array}{ccc}\det M&\textrm{si}&i=j\\0&\textrm{si}&i\neq j\end{array}\right.\)
\(\displaystyle{\sum^{k=n}_{k=1}}m_{k,i}\Delta_{k,j}=\left\{\begin{array}{ccc}\det M&\textrm{si}&i=j\\0&\textrm{si}&i\neq j\end{array}\right.\)
Preuve : du lemme
Preuve du 1. du lemme :
si \(i=j\), la somme \(\displaystyle{\sum^{k=n}_{k=1}}m_{i,k}\Delta_{j,k}\) est égale à \(\displaystyle{\sum^{k=n}_{k=1}}m_{i,k}\Delta_{i,k}\) qui est égale au déterminant de \(M\) (formule du développement par rapport à la i-ième ligne du déterminant rappelée ci-dessus (*)).
si \(i\neq j\), on peut interpréter cette somme \(\displaystyle{\sum^{k=n}_{k=1}}m_{i,k}\Delta_{j,k}\) comme un déterminant en la comparant à la formule (*).
C'est le développement par rapport à la \(j\)-ième ligne (l'indice j est imposée la présence de \(\Delta_{j,k}\)) du déterminant d'une matrice admettant \(m_{i,k}\) comme coefficient de la \(j\)-ième ligne, \(k\)-ième colonne et \(\Delta_{j,k}\) comme mineur correspondant. Ce dernier point est réalisé dès que toutes les lignes différentes de la \(j\)-ième sont les mêmes que celles de \(M\).
Il s'agit donc de la matrice obtenue à partir de la matrice \(M\) en conservant toutes ses lignes sauf la \(j\)-ième qui est remplacée par la \(i\)-ième ligne de M\(.\)
D'après sa définition, cette matrice a deux lignes égales (puisque \(i\) est différent de \(j\)) et par conséquent son déterminant est nul.
Ce qui achève la démonstration du 1. du lemme.
On peut refaire la même démonstration en raisonnant sur les colonnes pour avoir la deuxième formule.
Preuve : du théorème
Calculons le produit de matrice \(M^tCom(M)\). On obtient \(M^tCom(M)=(a_{i,j})\) avec \(a_{i,j}=\displaystyle{\sum^{k=n}_{k=1}}m_{i,k}\Delta'_{k,j}\) où \(\Delta'_{k,j}\) est le terme général de la transposée de la matrice des cofacteurs autrement dit \(\forall(i,j)\in\{1,2,\ldots,n\}^2\), \(\Delta'_{k,j}=\Delta_{j,k}\).
Donc \(a_{i,j}=\displaystyle{\sum^{k=n}_{k=1}}m_{i,k}\Delta_{j,k}\).
Alors d'après le résultat du lemme, \(a_{i,j}=\left\{\begin{array}{ccc}\det M&\textrm{si}&i=j\\0&\textrm{si}&i\neq j\end{array}\right.\)
Il en résulte donc l'égalité \(M^tCom(M)=\det(M)I_n\).
La démonstration de l'autre égalité est semblable, en utilisant le deuxième résultat du lemme.
Théorème : expression de l'inverse d'une matrice inversible
Soit \(M\) une matrice inversible de \(M_n(K)\).
Alors \(M^{-1}=\frac{1}{\det(M)}^tCom(M)\) où \(Com(M)\) désigne la matrice des cofacteurs de \(M\).
Ce résultat est immédiat à partir de la formule précédente.
Si \(M\) est inversible, \(\det M\) est non nul, les relations précédentes impliquent donc
\(\frac{1}{det(M)}M^tCom(M)=I_n=M\frac{1}{\det(M)}^tCom(M)\)
D'où le résultat.
Remarque : 1
La formule \(M\left[^tCom(M)\right]=\left[^tCom(M)\right]M=\left[\det (M)\right]I_n\) permet de retrouver directement qu'une matrice \(M\) est inversible si et seulement si son déterminant est non nul.
Remarque : 2
Dans la pratique, la caractérisation à l'aide du déterminant, de l'inversibilité d'une matrice est très commode. Par contre la formule donnant l'inverse conduit en général à des calculs assez lourds.
Il est souvent plus simple de déterminer l'inverse d'une matrice en résolvant avec la méthode du Pivot de Gauss le système linéaire \(AX=Y\). En effet le résultat peut être écrit sous la forme \(X=A'Y\) et la matrice \(A'\) est l'inverse de \(A\).
Exemple : 1 : Cas des matrices d'ordre 2
La formule est dans ce cas très simple à utiliser. En effet, les cofacteurs sont des déterminants \(1\times1\) et par conséquent leur valeur est immédiate.
Soit une matrice \(A=\left(\begin{array}{cc}a&b\\c&d\end{array}\right)\) avec \(ad-bc\neq 0\). Alors \(A\) est inversible et l'on a \(\Delta_{1,1}=d\),\(\Delta_{2,1}=-b\), \(\Delta_{2,2=a}\)
D'où et \(Com(A)=\left(\begin{array}{cc}d&-c\\-b&a\end{array}\right)\) et \(A^{-1}=\frac{1}{ad-bc}\left(\begin{array}{cc}d&-b\\-c&a\end{array}\right)\).
Exemple : 2
La matrice \(A=\left(\begin{array}{ccc}1&3&3\\1&4&4\\1&3&4\end{array}\right)\) est-elle inversible et si oui, quelle est son inverse ?
Pour répondre à la première question, il suffit de calculer le déterminant de \(A\). Il vient : \(\det A=\left|\begin{array}{ccc}1&3&3\\1&4&4\\1&3&4\end{array}\right|=\left|\begin{array}{ccc}1&3&3\\0&1&1\\0&0&1\end{array}\right|\)en faisant successivement les transformations \(L_2\leftarrow L_2-L_1\) et \(L_3\leftarrow L_3-L_1\).
Le déterminant obtenu est triangulaire, d'où \(\det A=1\times1\times1=1\). Il est donc non nul et \(A\) est inversible.
Alors la formule \(M^{-1}=\frac{1}{\det(M)}^tCom(M)\) donne : \(A^{-1}=^t\left(\begin{array}{ccc}\Delta_{1,1}&\Delta_{1,2}&\Delta_{1,3}\\\Delta_{2,1}&\Delta_{2,2}&\Delta_{2,3}\\\Delta_{3,1}&\Delta_{3,2}&\Delta_{3,3}\end{array}\right)\), les \(\Delta_{i,j}=(-1)^{i+j}\det A_{i,j}\)( \(A_{i,j}\) est la matrice obtenue à partir de \(A\) en supprimant la \(i\)-ième ligne et la \(j\)-ième colonne) désignant les cofacteurs de la matrice \(A\).
On obtient \(A^{-1}=\left(\begin{array}{ccc}4&-3&0\\0&1&-1\\-1&0&1\end{array}\right)\).