Relation de dépendance linéaire

Supposons \(n\) vecteurs \(V_{1}, V_{2}, \ldots, V_{n}\). On peut distinguer deux cas

  • la seule combinaison linéaire nulle entre ces vecteurs est la combinaison triviale, dont tous les coefficients sont nuls

    \(0V_{1} + 0V_{2} + 0V_{3} + \ldots. + 0V_{n} = 0\)

  • il existe des combinaisons linéaires nulles non triviales appelées relations de dépendance linéaire :

    \(\lambda_{1} V_{1} + \lambda_{2} V_{2} + \lambda_{3} V_{3} + \ldots + \lambda_{n} V_{n} = 0\)

Théorème

Soit \(\mathrm{I\!R ^ n}\) un \(\mathbf{R}-espace\) vectoriel et \(V_{1}, \ldots, V_{n}\) des éléments de \(\mathrm{I\!R ^ n}\). Les conditions suivantes sont équivalentes :

\(a\). Il existe une relation de dépendance linéaire entre ces élément

\(\lambda_{1} V_{1} + \lambda_{2} V_{2} + \lambda_{3} V_{3} + \ldots + \lambda_{n} V_{n} = 0\), avec les \(\lambda_{i}\) non tous nuls.

\(b\). Un des\( V_{i}\) s'exprime comme combinaison linéaire des autres.

Démonstration

La première condition a) implique la seconde b).

Supposons une relation \(\lambda_{1} V_{1} + \ldots + \lambda_{n} V_{n} = 0\) non triviale entre ces éléments.

L'un des coefficients au moins est non nul : supposons \(\lambda_{i} \neq 0\) alors \(\lambda_{i}\) est inversible

\(\lambda_{i} X_{i} =-\lambda_{1} X_{1} -\cdots - \lambda_{i-1} X_{i-1} - \lambda_{i+1} X_{i+1} -\cdots - \lambda_{n} X_{n}\)

\(X_{i} =-\lambda_{i}^{-1}\lambda_{1} X_{1} -\ldots - \lambda_{i}^{-1}\lambda_{i-1} X_{i-1} -\lambda_{i}^{-1} \lambda_{i+1} X_{i+1} -\ldots -\lambda_{i}^{-1} \lambda_{n} X_{n}\)

Donc \(V_{i}\) s'exprime en fonction des autres éléments.

Réciproquement, si \(X_{i}=\sum_{i \neq j} \lambda_{j} X_{j}\), alors

\(\lambda_{1} X_{1} +\ldots +\lambda_{i-1} X_{i-1} - 1X_{i} +\lambda_{i+1} X_{i+1}+\ldots +\lambda_{n} X_{n}\)

est une relation non triviale entre ces vecteurs.