Relation de dépendance linéaire
Supposons \(n\) vecteurs \(V_{1}, V_{2}, \ldots, V_{n}\). On peut distinguer deux cas
la seule combinaison linéaire nulle entre ces vecteurs est la combinaison triviale, dont tous les coefficients sont nuls
\(0V_{1} + 0V_{2} + 0V_{3} + \ldots. + 0V_{n} = 0\)
il existe des combinaisons linéaires nulles non triviales appelées relations de dépendance linéaire :
\(\lambda_{1} V_{1} + \lambda_{2} V_{2} + \lambda_{3} V_{3} + \ldots + \lambda_{n} V_{n} = 0\)
Théorème :
Soit \(\mathrm{I\!R ^ n}\) un \(\mathbf{R}-espace\) vectoriel et \(V_{1}, \ldots, V_{n}\) des éléments de \(\mathrm{I\!R ^ n}\). Les conditions suivantes sont équivalentes :
\(a\). Il existe une relation de dépendance linéaire entre ces élément
\(\lambda_{1} V_{1} + \lambda_{2} V_{2} + \lambda_{3} V_{3} + \ldots + \lambda_{n} V_{n} = 0\), avec les \(\lambda_{i}\) non tous nuls.
\(b\). Un des\( V_{i}\) s'exprime comme combinaison linéaire des autres.
Démonstration :
La première condition a) implique la seconde b).
Supposons une relation \(\lambda_{1} V_{1} + \ldots + \lambda_{n} V_{n} = 0\) non triviale entre ces éléments.
L'un des coefficients au moins est non nul : supposons \(\lambda_{i} \neq 0\) alors \(\lambda_{i}\) est inversible
\(\lambda_{i} X_{i} =-\lambda_{1} X_{1} -\cdots - \lambda_{i-1} X_{i-1} - \lambda_{i+1} X_{i+1} -\cdots - \lambda_{n} X_{n}\)
\(X_{i} =-\lambda_{i}^{-1}\lambda_{1} X_{1} -\ldots - \lambda_{i}^{-1}\lambda_{i-1} X_{i-1} -\lambda_{i}^{-1} \lambda_{i+1} X_{i+1} -\ldots -\lambda_{i}^{-1} \lambda_{n} X_{n}\)
Donc \(V_{i}\) s'exprime en fonction des autres éléments.
Réciproquement, si \(X_{i}=\sum_{i \neq j} \lambda_{j} X_{j}\), alors
\(\lambda_{1} X_{1} +\ldots +\lambda_{i-1} X_{i-1} - 1X_{i} +\lambda_{i+1} X_{i+1}+\ldots +\lambda_{n} X_{n}\)
est une relation non triviale entre ces vecteurs.