Dépendance ou indépendance linéaire
La question de la dépendance ou de l'indépendance linéaire d'une famille finie \(\{v_1, v_2, ... , v_n\}\) de vecteurs peut être posée de trois façons différentes :
Premier cas :
Montrer que la famille \(\{v_1, v_2, ... , v_n\}\) de vecteurs de \(E\) est libre.
Deuxième cas :
La famille \(\{v_1, v_2, ... , v_n\}\) de vecteurs de \(E\) est-elle libre ou liée ?
Troisème cas :
Montrer que la famille \(\{v_1, v_2, ... , v_n\}\) de vecteurs de \(E\) est liée.
Dans le premier cas
On procède de la manière suivante : on considère une combinaison linéaire des vecteurs \(v_1, v_2, ... , v_n\) égale au vecteur nul soit \(\alpha_1v_1, \alpha_2v_2, ... , \alpha_nv_n = 0\) où \(\alpha_1, \alpha_2, ... , \alpha_n\) sont des scalaires et on démontre que ces scalaires sont tous nuls. Autrement dit on démontre qu'une condition nécessaire pour que \(\alpha_1v_1, \alpha_2v_2, ... , \alpha_nv_n = 0\) est que les scalaires \(\alpha_1, \alpha_2, ... , \alpha_n\) soient tous nuls. C'est la démarche qui a été faite dans les exemples précédents.
Dans le deuxième cas
Si l'on ne sait pas à l'avance si une famille finie \(\{v_1, v_2, ... , v_n\}\) de vecteurs de \(E\) est libre ou non, on cherche les scalaires \(\alpha_1, \alpha_2, ... , \alpha_n\) tels que \(\alpha_1v_1, \alpha_2v_2, ... , \alpha_nv_n = 0\).
Cette recherche revient souvent à résoudre un système linéaire d'équations.
Si l'on trouve
que tous les scalaires \(\alpha_i\) sont nuls, la famille est libre,
qu'il existe au moins un \(n\textrm{-uplet}\) \((\alpha_1, \alpha_2, ... , \alpha_n)\) solution, différent du \(n\textrm{-uplet}\) \((0,0, ... , 0)\) (c'est à dire tel que l'un au moins des scalaires \(\alpha_i\) soit non nul), la famille est liée.
Dans le troisième cas
Pour répondre à la question, il suffit de trouver des scalaires \(\alpha_1, \alpha_2, ... , \alpha_n\) non tous nuls tels que :
\(\alpha_1v_1, \alpha_2v_2, ... , \alpha_nv_n = 0\).
Deux situations se présentent : ou bien on "voit" une relation, c'est par exemple le cas dans l'exemple 2 vu précédemment (on connait les formules de trigonométrie) ou bien il n'y a pas de relation apparente et on suit la méthode du deuxième cas, c'est ce qui se passe dans l'exemple 1 vu précédemment.
Exemple : Exemple 1
Soient les vecteurs de \(E = \mathbb R^2, u = (4, -2), v = (-6,3)\).
Les vecteurs \(u\), \(v\) sont-ils linéairement dépendants ?
La réponse sera oui si et seulement il existe \((\alpha, \beta) \neq (0,0)\) tels que \(\alpha u + \beta v = 0\). Il s'agit donc d'étudier cette équation qui est équivalente à l'égalité \(\alpha(4, -2) + \beta(-6,3) = (0,0)\) et donc au système linéaire : \(A = \left\{\begin{array}{rcrcl}4 \alpha& - &6 \beta& =& 0\\-2\alpha& + &3 \beta &=& 0\\\end{array}\right.\)
En fait ce système se réduit à une seule équation :
\(-2\alpha + 3 \beta = 0\)
qui possède une infinité de solutions et en particulier des solutions non nulles, par exemple \(\alpha = 3\), \(\beta =2\).
Cela signifie que l'on a la relation suivante : \(3 u + 2 v = 0_E\).
Les vecteurs \(u\) et \(v\) sont donc linéairement dépendants.
Exemple : Exemple 2
Soient les éléments \(f, g\) et \(h\) de \(F( \mathbb R, \mathbb R)\) définis par :
\(\begin{array}{rccrccrcr}f : \mathbb R &\to&\mathbb R& g : \mathbb R &\to& \mathbb R& h : \mathbb R &\to& \mathbb R\\ x &\mapsto& \sin^2 x &x &\mapsto &\cos^2x & x &\mapsto& 1\end{array}\)
Les formules de trigonométrie permettent d'écrire \(\forall x \in \mathbb{R}, \cos ^2 x + \sin^2 x = 1\) par conséquent, les fonctions \(f+g\) et h coincident en tout point \(x\) de \(\mathbb R\) et sont donc égales, soit \(f + g = h\).
La fonction \(h\) est combinaison linéaire des fonctions \(f\) et \(g\) ce qui permet d'affirmer que les trois fonctions forment une famille liée.