Définition et exemples pour une famille d'au moins deux vecteurs

Dans ce qui précède, nous avons rencontré à plusieurs reprises des exemples de familles de vecteurs non liées. Nous allons étudier systématiquement cette situation qui va se révéler tout à fait essentielle dans la théorie des espaces vectoriels.

Repartons de la condition nécessaire et suffisante pour qu'une famille finie de vecteurs soit liée.

Soit donc \(E\) un espace vectoriel sur un corps \(K\), \(n\) un entier supérieur à \(1\) et \(v_1, v_2, ... , v_n\) des vecteurs de \(E\). On a l'équivalence suivante :

Proposition

\(v_1, v_2, ... , v_n\) linéairement dépendants

\(\Updownarrow\)

\(\exists (\alpha_1,\alpha_2, ... , \alpha_n) \in \mathbf{K}^n - \{ (0,0, ... , 0)\}\) tel que

\(\alpha_1 v_1 + \alpha_2 v_2 + ... + \alpha _n v_n = 0\)

La négation de cette propriété est :

Proposition

\(v_1, v_2, ... , v_n\) non linéairement dépendants

\(\Updownarrow\)

\(\forall(\alpha_1,\alpha_2, ... , \alpha_n) \in \mathbf{K}^n - \{ (0,0, ... , 0)\}\)

\(\alpha_1 v_1 + \alpha_2 v_2 + ... + \alpha _n v_n \ne 0\)

Or il est immédiat, d'après les règles de calcul dans les espaces vectoriels, que :

\(0_\mathbf{K}v_1 + 0_\mathbf{K} v_2 + ... + 0_\mathbf{K} v_n = 0_E\)

Donc, il est possible d'interpréter la propriété : " les vecteurs \(v_1, v_2, ... , v_n\) ne sont pas linéairement dépendants " de la manière suivante :

" L'équation " \(\alpha_1v_1 + \alpha_2 v_2 + ... + \alpha_nv_n = 0\) n'a pas d'autres solutions \((\alpha_1, \alpha_2, ... , \alpha_n) \textrm{ dans } \mathbb K^n\) que la solution triviale \((0,0, ... , 0)\).

Ce qui nous conduit à la définition suivante :

DéfinitionDéfinition de l'indépendance linéaire d'une famille finie de vecteurs

Soient \(E\) un espace vectoriel sur un corps \(\mathbf K\), n un entier supérieur ou égal à \(1\) et \(v_1, v_2, ... , v_n\) des vecteurs de \(E\).

Les vecteurs \(v_1, v_2, ... , v_n\) sont dits linéairement indépendants s'ils ne sont pas linéairement dépendants, c'est-à-dire si la seule combinaison linéaire des vecteurs \(v_1, v_2, ... , v_n\) égale au vecteurs nul est celle (dite triviale) dont tous les coefficients sont nuls.

ComplémentVocabulaire

Un ensemble de vecteurs linéairement indépendants est aussi appelé famille libre ou partie libre de \(E\).

ExempleExemple 1

Soient les vecteurs de\( \mathbb R^2\), \(u = (4, -2)\), \(v(1,2)\). Montrons que les vecteurs \(u\) et \(v\) sont linéairement indépendants.

Soient deux scalaires \(\alpha\) et  \(\beta\) tels que \(\alpha u + \beta v = 0\).

Cette égalité est équivalente à l'égalité \(\alpha(4,-2) + \beta(1,2) = (0,0)\) et donc au système linéaire :

\(A = \left\{\begin{array}{rcrcl}4 \alpha& + &\beta& =& 0\\- 2 \alpha& +& 2 \beta& = &0\end{array}\right.\)

qui, en remplaçant la deuxième équation par la deuxième moins deux fois la première, est équivalent au système :

\(A = \left\{\begin{array}{rcrcl} 4 \alpha& + &\beta& = &0 \\ \alpha& &&=& 0\end{array}\right.\)

dont la seule solution est \(\alpha = 0\) et \(\beta = 0\).

Les vecteurs \(u\), \(v\) sont donc linéairement indépendants.

ExempleExemple 2

Soit le \(\mathbf R\textrm{-espace}\) vectoriel \(\mathbb C\). La famille \((1, i)\) est libre.

En effet soient deux réels \(\alpha\) et  \(\beta\) tels que \(\alpha1 + \beta i = 0\) soit \(\alpha + \beta i = 0\).

Le réel \(\alpha\) (respectivement \(\beta\) ) est la partie réelle (respectivement imaginaire) du nombre complexe \(\alpha + \beta i\) qui est supposé nul.

Donc \(\alpha = 0\) et \(\beta = 0\).

ExempleExemple 3

Dans le \(R\)-espace vectoriel \(F( \mathbb R, \mathbb R)\), on considère les applications \(f\) et \(g\) définies de la manière suivante : pour tout x réel, \(f(x) = \cos w\) et \(g(x) = \sin x\).

Les applications \(f\) et \(g\) sont-elles linéairement indépendantes ?

Il s'agit de déterminer les scalaires \(\alpha\) et \(\beta\) tels que \((1) \quad \alpha f + \beta g = 0\) (le \(" 0 "\) qui figure au second membre désigne la fonction nulle).

L'égalité \((1)\) est équivalente à la propriété :

\((2) \forall x \in \mathbb R, \alpha \cos x + \beta \sin x = 0\)

(le \(" 0 "\) qui figure au second membre de \((2)\) est le \(0\) de \(\mathbb R\).

Pour que les scalaires \(\alpha\) et \(\beta\) vérifient \((2)\), il est nécessaire que \(\alpha\) et \(\beta\) vérifient l'égalité

\(\alpha \cos x + \beta \sin x = 0\) en particulier pour \(x = 0\) ce qui donne \(\alpha = 0\) et pour \(x = \frac{\pi}{2}\) ce qui donne \(\beta = 0\).

On a donc : \(\alpha f + \beta g = 0 \Rightarrow\left\{\begin{array}{rcl}\alpha &=& 0\\&\textrm{et}&\\\beta &=& 0\end{array}\right.\)

Les applications \(f\) et \(g\) sont donc linéairement indépendantes.