Déterminant d'une famille de vecteurs relativement à une base

Définitions et propriétés

Soit \(E\) un espace vectoriel de type fini et \(n\) sa dimension. Soit \(B_E\) une base de \(E\).

DéfinitionDéterminant d'une famille de n vecteurs d'un espace vectoriel de dimension n par rapport à une base.

Soient \(n\) vecteurs de \(E\), \(V_1,V_2,\ldots,V_n\) et \(B_E\) une base de \(E\). Soit \(M\) la matrice de \(M_n(K)\) dont la \(j\)-ième colonne est formée des composantes du vecteur \(V_j\) par rapport à la base \(B_E\).

On appelle déterminant des vecteurs \(V_1,V_2,\ldots,V_n\) par rapport à la base \(B_E\) et l'on note \(\det_{B_E}(V_1,V_2,\ldots,V_n)\) le déterminant de la matrice \(M\).

Compte tenu des propriétés du déterminant d'une matrice, on a les propriétés suivantes :

L'application \((V_1,V_2,\ldots,V_n)\mapsto(V_1,V_2,\ldots,V_n)\) est linéaire par rapport à chaque variable.

Si deux des vecteurs de la famille sont égaux, le déterminant de la famille de vecteurs est nul.

Si , \(B_E=(\epsilon_1,\epsilon_2,\ldots,\epsilon_n)\), \(\det_{B_E}(\epsilon_1,\epsilon_2,\ldots,\epsilon_n)=1\).

Premières applications

On peut en déduire une condition nécessaire et suffisante extrêmement pratique pour qu'une famille de \(n\) vecteurs d'un espace vectoriel de dimension \(n\) soit libre.

ThéorèmeCondition nécessaire et suffisante pour qu'une famille de n vecteurs d'un espace vectoriel de dimension n soit libre.

Soient \(n\) vecteurs de \(E\), \(V_1,V_2,\ldots,V_n\) et \(B_E\) une base de \(E\). Ces vecteurs sont linéairement indépendants si et seulement si \(\det_{B_E}(V_1,V_2,\ldots,V_n)\) est non nul.

Soit \(M\) la matrice de \(M_n(K)\) dont la \(j\)-ième colonne est formée des composantes du vecteur \(V_j\) par rapport à la base \(B_E\).

  • Supposons \(V_1,V_2,\ldots,V_n\) linéairement indépendants. Cela implique que les vecteurs colonnes de la matrice M sont linéairement indépendants et donc que la matrice \(M\) est de rang \(n\). Elle est donc inversible et son déterminant est non nul.

  • Supposons \(\det_{B_E}(V_1,V_2,\ldots,V_n)\) non nul. Si les vecteurs \(V_1,V_2,\ldots,V_n\) étaient liés, l'un deux s'exprimerait comme combinaison linéaire des autres. Par exemple \(V_i=\displaystyle{\sum_{\begin{array}{c}1\leq j\leq n\\ j\neq i\end{array}}}\alpha_jV_j\).

Alors

\(\det_{B_E}(V_1,V_2,\ldots,V_n)=\det_{B_E}(V_1,\ldots,\displaystyle{\sum_{\begin{array}{c}1\leq j\leq n\\ j\neq i\end{array}}}\alpha_jV_j,\ldots,V_n)=\displaystyle{\sum_{\begin{array}{c}1\leq j\leq n\\ j\neq i\end{array}}}\alpha_j\det_{B_E}(V_1,\ldots,V_j(i\textrm{-ième place}(i\neq j)),\ldots,V_n)\)

Tous les déterminants qui interviennent dans cette somme ont deux colonnes égales et donc sont nuls. D'où \(\det_{B_E}(V_1,V_2,\ldots,V_n)=0\). On a donc une contradiction.

Une conséquence importante de cette propriété est la caractérisation des matrices inversibles. On vient d'utiliser le fait que si une matrice est inversible, son déterminant est non nul. La réciproque est vraie

ThéorèmeCaractérisation d'une matrice inversible

Soit \(M\) une matrice de \(M_n(K)\). Elle est inversible si et seulement son déterminant est non nul.

Preuve

Il reste à démontrer que si \(\det M\) est non nul, alors \(M\) est inversible. Cela résulte quasiment immédiatement de la propriété précédente, en utilisant le fait qu'une matrice de \(M_n(K)\) est inversible si et seulement si elle est de rang \(n\).

Supposons donc que \(\det M\) soit non nul. Alors les vecteurs colonnes sont linéairement indépendants, la matrice est de rang \(n\) et donc est inversible.