Forme n-linéaire alternée

Calcul du déterminant

\(det \left (\sum \limits_{\underset{}{i=1}}^{n} a_{i1} e_{i} , \sum \limits_{\underset{}{i=1}}^{n} a_{i2} e_{i},\ldots , \sum \limits_{\underset{}{i=1}}^{n} a_{in} e_{i} \right)\)

\(=\sum \limits_{\underset{}{\sigma}} a_{ \sigma(1)1 }a_{ \sigma(2)2 } \ldots a_{ \sigma(n)n} ~det \, \left ( e_{\sigma(1)},\ldots ,e_{\sigma(n)}\right )\)

\(=\left ( \sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n} \right)~det \, \left ( e_1,e_2,\ldots ,e_n\right )\)

\(=\sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n} \qquad car \qquad det \, \left ( e_1,e_2,\ldots ,e_n\right )=1\)

\(det \left (\sum \limits_{\underset{}{i=1}}^{n} a_{i1} e_{i} ,\ldots , \sum \limits_{\underset{}{i=1}}^{n} a_{in} e_{i} \right)=\sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n}\)

\(\epsilon_{\sigma} = + 1~~si~~\sigma(1), \ldots , \sigma(n)\) est une permutation paire.

\(\epsilon_{\sigma} = - 1~~si~~\sigma(1), \ldots , \sigma(n)\) est une permutation impaire.

Calcul du déterminant transposé

Cela revient à développer par rapport aux lignes. Prenons l'expression du déterminant :

\(det \left (\sum \limits_{\underset{}{i=1}}^{n} a_{i1} e_{i} , \sum \limits_{\underset{}{i=1}}^{n} a_{i2} e_{i},\ldots , \sum \limits_{\underset{}{i=1}}^{n} a_{in} e_{i} \right)=\sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n}\)

Dans chaque terme \(a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n}\), les facteurs \(a_{ij}\) sont rangés suivant les \(j\) croissants et \(i = \sigma(j)\). On a donc \(j = \sigma^ {-1} (i)\). Rangeons ces facteurs suivants les valeurs croissantes de \(i\). On obtient en utilisant \(\epsilon_\sigma = \epsilon_{\sigma^ {-1}}\).

\(a_{ \sigma(1)1 } \ldots a_{ \sigma (n)n}=a_{ 1\sigma^{-1} (1) } \ldots a_{ n\sigma^{-1} (n)}\)

\(\sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n}=\sum \limits_{\underset{}{\sigma^{-1}}} \epsilon_{\sigma^{-1}} a_{ 1\sigma^{-1}(1) } \ldots a_{n \sigma^{-1}(n)}\)

\(\sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n}=\sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ 1\sigma(1) } \ldots a_{n \sigma(n)}\)

Un déterminant est égal à son transposé.

Forme multilinéaire alternée

Si \(f\) est une forme n-linéaire alternée \(\mathrm{I\!R^n} \longrightarrow \mathrm{I\!R}\) on a par le même calcul que celui fait pour le déterminant :

\(f \left (\sum \limits_{\underset{}{i=1}}^{n} a_{i1} e_{i} , \sum \limits_{\underset{}{i=1}}^{n} a_{i2} e_{i},\ldots , \sum \limits_{\underset{}{i=1}}^{n} a_{in} e_{i} \right)\)

\(=\sum \limits_{\underset{}{\sigma}} a_{ \sigma(1)1 }a_{ \sigma(2)2 } \ldots a_{ \sigma(n)n} ~f \left ( e_{\sigma(1)},\ldots ,e_{\sigma(n)}\right )\)

\(=\left ( \sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n} \right)~f\left ( e_1,e_2,\ldots ,e_n\right )\)

\(f\left (\sum \limits_{\underset{}{i=1}}^{n} a_{i1} e_{i} ,\ldots , \sum \limits_{\underset{}{i=1}}^{n} a_{in} e_{i} \right)=\sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n}~f(e_1,e_2,\ldots,e_n)\)

\(f(V_1,V_2,\ldots,V_n)=det (V_1,V_2,\ldots,V_n)~f(e_1,e_2,\ldots,e_n)\)

Théorème

Toute forme n-linéaire alternée de \(\mathrm{I\!R^n}\) sur \(\mathrm{I\!R}\) est proportionnelle au déterminant.

Dépendance linéaire

Si \(V_1, V_2, \dots, V_n\) sont dépendants alors leur déterminant est nul. Ceci se démontre facilement car l'un des \(V_i\) est combinaison linéaire des autres.

Indépendance linéaire

Si \(V_1, V_2, \ldots , V_n\) sont indépendants, ils forment une base et l'on exprime les vecteurs de base \(e_i\) en fonction des \(V_i\) : \(e_i = \sigma_j b_{ji}V_j\)

\(det(e_1, \dots , e_n) = \left ( \sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} b_{ \sigma(1)1 } \ldots b_{ \sigma(n)n} \right) det\left (V_1, \ldots , V_n \right)\)

le déterminant \(det(V_1, \ldots , V_n)\) est non nul car \(det(e_1, ..., e_n) = 1.\)

Critère de dépendance linéaire

\(det(V_1, \ldots, V_n) = 0\) équivaut à \(V_1, \ldots ,V_n\) linéairement dépendants.

Pour que \(n\) vecteurs de \(\mathrm{I\!R^n}\) soient linéairement dépendants, il faut et il suffit que leur déterminant soit nul.

Critère d'indépendance linéaire

\(det \left (V_1, \ldots , V_n \right ) \ne 0\) équivaut à \(V_1, \ldots , V_n\) linéairement indépendants.

Pour que \(n\) vecteurs de \(\mathrm{I\!R^n}\) soient linéairement indépendants, il faut et il suffit que leur déterminant soit non nul.