Indépendance linéaire de vecteurs

Indépendance linéaires de n vecteurs dans un espace vectoriel de dimension n

Ce résultat peut déjà avoir été vu mais il est bon, dans une ressource traitant de toutes les applications des déterminants, de le rappeler car il est fondamental. De plus il a des prolongements intéressants qui conduisent à une caractérisation du rang d'une matrice.

Théorèmecondition nécessaire et suffisante pour qu'une famille de n vecteurs d'un espace vectoriel de dimension n soit libre.

Soient \(n\) vecteurs de \(E\), \(V_1,V_2\ldots,V_n\) et \(B_E\) une base de \(E\). Ces vecteurs sont linéairement indépendants si et seulement si \(\det_{B_E}(V_1,V_2,\ldots,V_n)\) est non nul.

Soit \(M\) la matrice de \(M_n(K)\) dont la \(j\)-ième colonne est formée des composantes du vecteur \(V_j\) par rapport à la base \(B_E\).

  • Supposons \(V_1,V_2,\ldots,V_n\) inéairement indépendants. Cela implique que les vecteurs colonnes de la matrice \(M\) sont linéairement indépendants et donc que la matrice \(M\) est de rang \(n\). Elle est donc inversible et son déterminant est non nul.

  • Supposons \(\det_{B_E}(V_1,V_2,\ldots,V_n)\) non nul. Si les vecteurs \(V_1,V_2,\ldots,V_n\) étaient liés, l'un deux s'exprimerait comme combinaison linéaire des autres. Par exemple \(V_i=\displaystyle{\sum_{\begin{array}{c}1\leq j\leq n\\j\neq i\end{array}}}\alpha_jV_j\). Alors \(\begin{array}{ccc}\det_{B_E}(V_1,V_2,\ldots,V_n)&=&\det_{B_E}(V_1,\ldots,\displaystyle{\sum_{\begin{array}{c}1\leq j\leq n\\j\neq i\end{array}}}\alpha_jV_j,\ldots,V_n\\&=&\displaystyle{\sum_{\begin{array}{c}1\leq j\leq n\\j\neq i\end{array}}}\alpha_j\det_{B_E}(V_1,\ldots,V_j(i \textrm{-ième place}(i\neq j)),\ldots,V_n)\end{array}\)

    Tous les déterminants qui interviennent dans cette somme ont deux colonnes égales et sont donc nuls. Donc \(\det_{B_E}(V_1,V_2,\ldots,V_n)=0\).

    On a une contradiction.

Exemple

Soit à déterminer suivant les valeurs du paramètre réel \(a\) si la famille \(V_1,V_2,V_3\) de vecteurs de \(R^3\) définie par \(V_1=(1,a,1)\),\(V_2=(-1,1,-1)\),\(V_3=(1,-1,a)\) est libre ou non.

Ecrivons la matrice \(M\) d'ordre 3 dont la \(j\)-ième colonne est constituée des composantes de \(V_j\) sur la base canonique de \(R^3\). Alors \(M=\left(\begin{array}{ccc}1&-1&1\\a&1&-1\\1&-1&a\end{array}\right)\). Les vecteurs \(V_1,V_2,V_3\) sont linéairement indépendants si et seulement si \(\det M\) est non nul. Donc, pour répondre à la question, il suffit de calculer le déterminant de \(M\). On a \(\det M=\left|\begin{array}{ccc}1&-1&1\\a&1&-1\\1&-1&a\end{array}\right|=\left|\begin{array}{ccc}0&-1&1\\a+1&1&-1\\0&-1&a\end{array}\right|\), égalité obtenue en faisant la transformation \(C_1\leftarrow C_1+C_2\).

En développant par rapport à la première colonne on obtient : \(\det M=(-1)^1+2(a+1)\left|\begin{array}{cc}-1&1\\-1&a\end{array}\right|\) et par conséquent \(\det M=-(a+1)(-a+1)=(a+1)(a-1)\).

Il en résulte que les vecteurs \(V_1,V_2,V_3\) sont linéairement indépendants si et seulement si \(a\) est différent de 1 et de -1 (si \(a=1\), \(V_2=-V_3\), si \(a=-1\), \(V_2=-V_1\)).

Indépendance linéaire de p vecteurs dans un espace vectoriel de dimension n, avec p inférieur ou égal à n

Le résultat précédent permet d'obtenir le résultat suivant, plus général.

Théorème

caractérisation de l'indépendance linéaire de p vecteurs dans un espace vectoriel de dimension n, avec \(p\leq n\)

Soit \(E\) un espace vectoriel de dimension finie \(n\) \((e_1,e_2,\ldots,e_n)\) et une base de \(E\). Soit \(p\) un entier, \(p\leq n\), et \(p\) vecteurs \(V_1,V_2,\ldots,V_p\) de \(E\) avec pour tout \(j\) compris entre 1 et \(p\), \(V_j=\displaystyle{\sum^{i=n}_{i=1}}a_{i,j}e_i\).

Alors les \(p\) vecteurs \(V_1,V_2,\ldots,V_p\) sont linéairement indépendants si et seulement si il existe un mineur d'ordre \(p\), non nul, extrait de la matrice \((a_{i,j})) \)de \(M_{n,p}(K)\).

Preuve

Supposons \(V_1,V_2,\ldots,V_p\) linéairement indépendants

Si \(p=n\), le résultat est une conséquence immédiate de la propriété précédente.

Si \(p<n\), considérons la partie \(G=\{V_1,V_2,\ldots,V_p,e_1,e_2,\ldots,e_n\}\).

Comme elle contient une partie génératrice de \(E\), elle engendre \(E\).

D'autre part elle contient la partie libre \(\{V_1,V_2,\ldots,V_p\}\). On peut donc appliquer le théorème de la base incomplète. Il existe donc des vecteurs \(e_{k_{p+1}},e_{k_{p+2}},\ldots,e_{k_n}\) tels que \(V_1,V_2,\ldots,V_p,e_{k_{p+1}},e_{k_{p+2}},\ldots,e_{k_n}\) soit une base de \(E\).

Soit la base de \(E\) obtenue en renumérotant les éléments de la base \((e_1,e_2,\ldots,e_n)\) de la manière suivante.

Si \(\{1,2,\ldots,n\}=\{k_1,k_2,\ldots,k_p\}\cup\{k_{p+1},k_{p+2},\ldots,k_n\}\), on pose \(\forall i, 1\leq i\leq n, \epsilon_i=e_{k_i}\).

Alors la matrice carrée d'ordre \(n\) des composantes des vecteurs \(V_1,V_2,\ldots,V_p,e_{k_{p+1}},e_{k_{p+2}},\ldots,e_{k_n}\) par rapport à la base \((\epsilon_1,\epsilon_2,\ldots,\epsilon_n)\) est égale à

\(A=\left(\begin{array}{ccccccc}a_{k_1,1}&\ldots&\ldots&a_{k_1,p}&0&\ldots&0\\\vdots&\ddots&&&\vdots&&\vdots\\\vdots&&\ddots&\vdots&&&\\a_{k_p,1}&&&a_{k_p,p}&0&&0\\&&&\vdots&1&&0\\\vdots&&&&&\ddots&\\a_{k_n,1}&&&a_{k_n,p}&0&&1\end{array}\right)\)

Son déterminant est non nul puisque les vecteurs \(V_1,V_2,\ldots,V_p,e_{k_{p+1}},e_{k_{p+2}},\ldots,e_{k_n}\) sont linéairement indépendants.

Or, en utilisant les règles de calcul des déterminants par blocs, on a

\(\det A=\left|\begin{array}{ccc}a_{k_1,1}&&a_{k_1,p}\\\\a_{k_p,1}&&a_{k_p,p}\end{array}\right|\left|\begin{array}{ccc}1&&0\\&\ddots&\\0&&1\end{array}\right|=\left|\begin{array}{ccc}a_{k_1,1}&&a_{k_1,p}\\\\a_{k_p,1}&&a_{k_p,p}\end{array}\right|\)

qui est un mineur d'ordre \(p\) de la matrice \((a_{i,j})\) de \(M_n,p(K)\).

Réciproque :

Nous allons donner deux démonstrations de la réciproque : la première est du même type que celle de la partie directe ; la deuxième est plus algébrique et utilise comme point de départ la définition d'une partie libre.

Supposons donc que l'on puisse extraire de la matrice \((a_{i,j})\) de \(M_n,p(K)\) une matrice d'ordre p de déterminant non nul, soit par exemple

\(\left|\begin{array}{cccc}a_{k_1,1}&\ldots&&a_{k_1,p}\\&&&\vdots\\\vdots&&&\\a_{k_p,1}&&\ldots&a_{k_p,p}\end{array}\right|\)

Première méthode : Quitte à renuméroter les vecteurs de la base par un procédé analogue au précédent, on peut affirmer qu'il existe une base \(B'\) de \(E\) par rapport à laquelle la matrice des composantes des vecteurs \(V_1,V_2,\ldots,V_p\) est de la forme \(\left(\begin{array}{c}C\\D\end{array}\right)\)\(C\) est la matrice carrée d'ordre \(p\) égale à \(\left(\begin{array}{cccc}a_{k_1,1}&\ldots&&a_{k_1,p}\\&&&\vdots\\\vdots&&&\\a_{k_p,1}&&\ldots&a_{k_p,p}\end{array}\right)\) et \(D\) la matrice à \(n-p\) lignes et \(p\) colonnes qui " complète ".

Si l'on considère la matrice carrée \(M=\left(\begin{array}{cc}C&O_{p,n-p}\\D&I_{n-p}\end{array}\right)\), son déterminant est non nul puisque d'après les règles du développement par blocs, il est égal à :

\(\left|\begin{array}{cccc}a_{k_1,1}&\ldots&&a_{k_1,p}\\&&&\vdots\\\vdots&&&\\a_{k_p,1}&&\ldots&a_{k_p,p}\end{array}\right|\).

Les vecteurs colonnes de la matrice \(M\) sont donc linéairement indépendants donc aussi la famille extraite \(V_1,V_2,\ldots,V_p\). Ceci achève la démonstration.

Deuxième méthode :

Considérons une combinaison linéaire nulle des vecteurs \(V_1,V_2,\ldots,V_p\), soit \(\lambda_1V_1+\lambda_2V_2+\ldots+\lambda_nV_p=0\). Cette égalité vectorielle est équivalente à un système linéaire de \(n\) équation à \(p\) inconnues \(\lambda_1,\lambda_2,\ldots,\lambda_p\) dont les coefficients sont les \(a_{i,j}\) et les seconds membres nuls.

Si l'on ne garde que les équations de rang \(k_1,k_2,\ldots,k_p\) on obtient un système linéaire de \(p\) équations à \(p\) inconnues \(\lambda_1,\lambda_2,\ldots,\lambda_p\), qui peut s'écrire :

\((S')\left\{\begin{array}{cccccc}a_{k_1,1}\lambda_1&+&\ldots&+&a_{k_1,p}\lambda_p&=0\\&&&&\vdots&=0\\\vdots&&&&&\ldots\\a_{k_p,1}\lambda_1&&\ldots&+&a_{k_p,p}\lambda_p&=0\end{array}\right.\)

En notant \(V'_1,V'_2,\ldots,V'_p\) les vecteurs de \(K^p\) déterminés par :

\(V'1=\left(\begin{array}{c}a_{k_1,1}\\\vdots\\a_{k_p,1}\end{array}\right)\), \(V'_2=\left(\begin{array}{c}a_{k_1,2}\\\vdots\\a_{k_p,2}\end{array}\right)\), \(\ldots\), \(V'_p=\left(\begin{array}{c}a_{k_1,p}\\\vdots\\a_{k_p,p}\end{array}\right)\)

le système \((S')\) est équivalent à l'égalité vectorielle dans \(K^p\):

\(\lambda_1V'_1+\lambda_2V'_2+\ldots+\lambda_nV'_p=0\).

Or, d'après le théorème vu précédemment, le fait que le déterminant

\(\left|\begin{array}{cccc}a_{k_1,1}&\ldots&&a_{k_1,p}\\&&&\vdots\\\vdots&&&\\a_{k_p,1}&&\ldots&a_{k_p,p}\end{array}\right|\)

soit non nul équivaut à l'indépendance linéaire des vecteurs \(V'_1,V'_2,\ldots,V'_p\).

Donc \(\lambda_1V'_1+\lambda_2V'_2+\ldots+\lambda_nV'_p=0\Rightarrow \lambda_1=\lambda_2=\ldots=\lambda_p=0\).

Ceci achève la démonstration.

Exemple

Soit l'espace vectoriel \(R^5\) muni de la base canonique. La question posée est la suivante : les vecteurs , \(V_1=(-4,1,1,1,1)\), \(V_2=(1,-4,1,1,1)\),\(V_3=(1,1,-4,1,1)\),\(V_4=(1,1,1,-4,1)\)et sont-ils linéairement indépendants ?

Compte tenu de ce qui précède, la méthode consiste à écrire la matrice \(A\) à 5 lignes et 4 colonnes, dont les colonnes sont les composantes des vecteurs \(V_1,V_2,V_3,V_4\) dans la base canonique, et à chercher s'il existe un mineur d'ordre 4, extrait de cette matrice, non nul.

On a \(A=\left(\begin{array}{cccc}-4&1&1&1\\1&-4&1&1\\1&1&-4&1\\1&1&1&-4\\1&1&1&1\end{array}\right)\). Si l'on considère le mineur d'ordre 4 obtenu en conservant les quatre premières lignes, on obtient \(D=\left|\begin{array}{cccc}-4&1&1&1\\1&-4&1&1\\1&1&-4&1\\1&1&1&-4\end{array}\right|\), il se calcule facilement. En effet en ajoutant à la première colonne la somme des trois autres (\(C_1\leftarrow C_1+C_2+C_3\)) on obtient \(D=\left|\begin{array}{cccc}-1&1&1&1\\-1&-4&1&1\\-1&1&-4&1\\-1&1&1&-4\end{array}\right|\).

Alors en faisant successivement les transformations suivantes :

\(L_2\leftarrow L_2-L_1\), puis \(L_3\leftarrow L_3-L_1\), et enfin \(L_4\leftarrow L_4-L_1\), on obtient :

\(D=\left|\begin{array}{cccc}-1&1&1&1\\0&-5&0&0\\0&0&-5&0\\0&0&0&-5\end{array}\right|\)

C'est le déterminant d'une matrice triangulaire, donc il est égal au produit des termes de la diagonale principale, soit 125. Il est donc non nul. Les vecteurs sont donc linéairement indépendants.

Application à la détermination du rang d'une matrice

Une conséquence immédiate de ce résultat est une caractérisation du rang d'une matrice. On sait que le rang d'une matrice M est le nombre maximum de vecteurs colonnes linéairement indépendants. En appliquant le résultat précédent, on obtient donc le théorème suivant :

Théorèmerang d'une matrice

Le rang d'une matrice est le plus grand entier \(r\) tel qu'il existe une matrice extraite de \(M\) d'ordre \(r\), de déterminant non nul.

Exemple

Il s'agit de déterminer le rang de la matrice carrée \(M=\left(\begin{array}{cccc}1&0&-2&-3\\-1&-2&2&-1\\2&-3&1&-7\\0&1&1&3\end{array}\right)\)

Méthode

on va utiliser le théorème précédent. La première étape est le calcul du déterminant de la matrice \(M\). Comme c'est un déterminant numérique (sans paramètre) on va le développer suivant une ligne ou une colonne en en choisissant une qui a déjà des zéros.

Si ce déterminant est différent de zéro, la matrice est inversible, son rang est égal à 4 et l'étude est terminée.

Si ce déterminant est nul, le rang de \(M\) est strictement inférieur à 4 et l'on s'intéresse aux mineurs d'ordre 3. Certains ont déjà été obtenus en calculant \(\det M\). Il est évidemment intéressant de commencer par les observer.

Calculs : en développant le déterminant par rapport à la première colonne on obtient :

\(\left|\begin{array}{cccc}1&0&-2&-3\\-1&-2&2&-1\\2&-3&1&-7\\0&1&1&3\end{array}\right|=1\left|\begin{array}{ccc}-2&2&-1\\-3&1&-7\\1&1&3\end{array}\right|+(-1)^{1+2}(-1)\left|\begin{array}{ccc}0&-2&-3\\-3&1&-7\\1&1&3\end{array}\right|+(-1)^{1+3}(2)\left|\begin{array}{ccc}0&-2&-3\\-2&2&-1\\1&1&3\end{array}\right|\)

Or

\(\left|\begin{array}{ccc}-2&2&-1\\-3&1&-7\\1&1&3\end{array}\right|=-12\); \(\left|\begin{array}{ccc}0&-2&-3\\-3&1&-7\\1&1&3\end{array}\right|=8\); \(\left|\begin{array}{ccc}0&-2&-3\\-2&2&-1\\1&1&3\end{array}\right|=2\)

Donc \(\det M=-12+8+4=0\).

Cela permet de conclure : en effet, le rang de la matrice est strictement inférieur à 4, puisque \(\det M=0\). De plus, en cours de calculs, on a trouvé des mineurs d'ordre 3 non nuls, ainsi le rang de \(M\) est supérieur ou égal à 3.

Donc le rang de \(M\) est égal à 3.