Lemme

Les espaces vectoriels de type fini sont caractérisés par l'existence d'une partie génératrice finie; autrement dit, si \(E\) est un espace de type fini, il existe une partie \(\{ g_1, g_2, ... , g_n\}\) de \(E\) telle que tout vecteur \(u\) de \(E\) s'écrit comme combinaison linéaire de \(g_1, g_2, ... , g_n\).

On obtient ainsi une paramétrisation des éléments de \(E\).

Si on cherche une "meilleure" paramétrisation (c'est-à-dire faisant intervenir le minimum de paramètres), on est amené à rechercher une partie génératrice minimale, ce qui conduit à la notion de base. Le nombre d'éléments d'une base de \(E\) donne le nombre de paramètres permettant de décrire tout élément de \(E\).

Ce nombre change-t-il suivant le choix de la base de \(E\) ? On va prouver que ce nombre est un invariant de l'espace vectoriel \(E\), c'est-à-dire que toutes les bases de \(E\) ont le même nombre d'éléments; ce nombre est appelé dimension de \(E\) .

Les espaces vectoriels de même dimension "se ressemblent" beaucoup : dans l'espace de la géométrie usuelle, les sous-espaces de dimension \(1\) sont les droites passant par l'origine, les sous-espaces de dimension \(2\) sont les plans passant par l'origine; ils ont la même "forme" : ce qui est l'éthymologie du mot isomorphe introduit dans le chapitre sur les applications linéaires.

Pour démontrer que toutes les bases d'un espace vectoriel de type fini ont le même nombre d'éléments, il faut tout d'abord comparer le nombre d'éléments d'une partie libre et d'une partie génératrice de cet espace vectoriel.

Lemme

Soit \(E\) un espace vectoriel de type fini, non réduit à \(\{ 0\}\), engendré par une partie \(G\) de \(E\) ayant n éléments \(G = \{ g_1, g_2, ... , g_n\}\).

Alors toute famille \(F = \{ u_1, u_2, ... , u_n, u_ {n+1}\}\) de \(n+1\) éléments est liée.

Complément

Une autre façon d'exprimer le résultat de ce lemme est : "toute partie libre de \(E\) a un nombre d'éléments inférieur à celui d'une partie génératrice de \(E\)".

Preuve

La preuve de ce lemme peut se faire en raisonnant par récurrence sur l'entier \(n\).

On démontre par récurrence que pour tout \(n > 0\) la propriété suivante est vraie :

"Dans un espace vectoriel engendré par \(n\) vecteurs, toute partie ayant \(n + 1\) éléments est liée".

On vérifie que la propriété est vraie pour \(n + 1\).

Soit \(E\) un espace vectoriel engendré par un vecteur noté \(g_1\), et \(\{v_1, v_2\}\) une partie de \(E\) ayant deux éléments.

Les vecteurs \(v_1\), \(v_2\) peuvent s'écrire comme combinaisons linéaires du vecteur \(g_1\), autrement dit, il existe des scalaires \(\alpha_1\), \(\alpha_2\) , tels que \(v_1 = \alpha_1 g_1\) et\( v_2 = \alpha_2 g_1\).

Ce qui donne la relation : \(\alpha_2v_1 - \alpha_1 v_2 = 0_E\).

On suppose \(v_2\) non nul (sinon il est évident que \(\{v_1, v_2\}\) est liée), le scalaire \(\alpha_2\) est donc non nul. On a trouvé une combinaison linéaire nulle des vecteurs \(v_1\), \(v_2\) avec des coefficients non tous nuls : \(\{v,_v2\}\) est liée.

On démontre maintenant que si la propriété est vraie au rang \(n-1 (n>1)\) , alors elle vraie pour l'entier n.

Soit \(E\) un espace vectoriel engendré par n vecteurs notés \(g_1, g_2, ... , g_n\), et \(\{v_1, v_2, ... , v_{n+1}\}\) une partie de \(E\) ayant \(n+1\) éléments.

Tout vecteur \(v_j\), pour \(j = 1,2, ... , n+1\), est combinaison linéaire de \(g_1, g_2, ... , g_n\) il existe donc des scalaires \(\alpha_1^j, \alpha_2^j, ... , \alpha_n^j\) tels que :

\(v_j = \displaystyle{ \sum_{i=1}^n \alpha_j^jg_i = \alpha_1^jg_1+ \alpha_2^jg_2 + ... + \alpha_n^j g_n}\)

Remarque

On est contraint d'utiliser ici deux indices \(i, j\) pour les scalaires \(\alpha_i^j\) (Attention ! \(j\) n'est pas un exposant) car deux informations sont nécessaires : l'indice \(j\) indique qu'il s'agit de la décomposition du vecteur \(v_j\), et \(i\) indique à quel vecteur de la partie génératrice \(\{ g_1, g_2, ... , g_n\}\) est associé ce coefficient.

En particulier, pour \(j = n+1\), le vecteur \(v_{n+1}\) s'écrit :

\(v_{n+1} = \alpha_1^{n+1}g_1 + \alpha_2^{n+1}g_2 + ... + \alpha_n^{n+1}g_n\)

Si \(v_{n+1}\) est nul, c'est terminé, la partie \(\{ v_1, v_2, ... ,v_n , v_{n+1}\}\) est liée ; sinon, \(v_{n+1}\) est non nul, et au moins un des coefficients \(\alpha_n^{n+1}\) est non nul.

On suppose, pour alléger l'écriture, que \(\alpha_n^{n+1}\) est non nul (sinon il suffit de changer l'ordre des vecteurs \(g_1, g_2, ... , g_n\) ).

On construit une nouvelle famille \(\{ w_1, w_2, ... , w_n\}\) de \(n\) vecteurs de \(E\) de telle sorte que ces vecteurs soient combinaisons linéaires de \(g_1, g_2, ... , g_{n-1}\), c'est-à-dire appartiennent au sous-espace engendré par \(\{g_1, g_2, ... , g_{n-1}\}\).

Pour \(j = 1,2, ... , n\), on définit \(w_j\) par :

\(w_j = \alpha_n^{n+1}v_j - \alpha_n^j v_{n+1} = \displaystyle{ \sum_{k=1}^n (\alpha_n^{n+1} \alpha_k^j - \alpha_n^j \alpha_k^{n+1}) g_k}\)

Le coefficient de \(g_n\) est égal à \(\alpha_n^{n+1} \alpha_n^j - \alpha_n^j \alpha_n^{n+1}\), il est nul ; \(w_j\) est donc combinaison linéaire de \(g_1, g_2, ... , g_{n-1}\).

On a \(n\) vecteurs qui appartiennent à un espace vectoriel engendré par\( n - 1\) vecteurs ; on peut appliquer l'hypothèse de récurrence : cette famille \(\{w_1, w_2, ... , w_n\}\) est liée.

Par conséquent il existe des scalaires non tous nuls \(\lambda_1, \lambda_2, ... , \lambda_n\) , tels que :

\(\lambda_1w_1, \lambda_2w_2, ... , \lambda_nw_n = 0_E\)

En remplaçant les \(w_j\) par leur expression en fonction des vecteurs \(v_i\), on obtient :

\(\alpha_n ^{n+1}\lambda_1v_1 + \alpha_n ^{n+1}\lambda_2v_2 + ... + \alpha_n ^{n+1}\lambda_nv_n - (\lambda_1 \alpha_n^1 + ... + \lambda_n \alpha_n^n) v_{n+1} = 0_E\)

Le coefficient \(\alpha_n^{n+1}\) a été supposé non nul, au moins un des scalaires \(\lambda_1, \lambda_2, ... , \lambda_n\) est non nul, on a donc une combinaison linéaire nulle des vecteurs \(v_1, v_2, ... , v_n, v_{n+1}\) avec des coefficients qui ne sont pas tous nuls; ceci prouve que ces vecteurs sont linéairement dépendants.