Forme n-linéaire alternée
Calcul du déterminant
\(det \left (\sum \limits_{\underset{}{i=1}}^{n} a_{i1} e_{i} , \sum \limits_{\underset{}{i=1}}^{n} a_{i2} e_{i},\ldots , \sum \limits_{\underset{}{i=1}}^{n} a_{in} e_{i} \right)\)
\(=\sum \limits_{\underset{}{\sigma}} a_{ \sigma(1)1 }a_{ \sigma(2)2 } \ldots a_{ \sigma(n)n} ~det \, \left ( e_{\sigma(1)},\ldots ,e_{\sigma(n)}\right )\)
\(=\left ( \sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n} \right)~det \, \left ( e_1,e_2,\ldots ,e_n\right )\)
\(=\sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n} \qquad car \qquad det \, \left ( e_1,e_2,\ldots ,e_n\right )=1\)
\(det \left (\sum \limits_{\underset{}{i=1}}^{n} a_{i1} e_{i} ,\ldots , \sum \limits_{\underset{}{i=1}}^{n} a_{in} e_{i} \right)=\sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n}\)
\(\epsilon_{\sigma} = + 1~~si~~\sigma(1), \ldots , \sigma(n)\) est une permutation paire.
\(\epsilon_{\sigma} = - 1~~si~~\sigma(1), \ldots , \sigma(n)\) est une permutation impaire.
Calcul du déterminant transposé
Cela revient à développer par rapport aux lignes. Prenons l'expression du déterminant :
\(det \left (\sum \limits_{\underset{}{i=1}}^{n} a_{i1} e_{i} , \sum \limits_{\underset{}{i=1}}^{n} a_{i2} e_{i},\ldots , \sum \limits_{\underset{}{i=1}}^{n} a_{in} e_{i} \right)=\sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n}\)
Dans chaque terme \(a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n}\), les facteurs \(a_{ij}\) sont rangés suivant les \(j\) croissants et \(i = \sigma(j)\). On a donc \(j = \sigma^ {-1} (i)\). Rangeons ces facteurs suivants les valeurs croissantes de \(i\). On obtient en utilisant \(\epsilon_\sigma = \epsilon_{\sigma^ {-1}}\).
\(a_{ \sigma(1)1 } \ldots a_{ \sigma (n)n}=a_{ 1\sigma^{-1} (1) } \ldots a_{ n\sigma^{-1} (n)}\)
\(\sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n}=\sum \limits_{\underset{}{\sigma^{-1}}} \epsilon_{\sigma^{-1}} a_{ 1\sigma^{-1}(1) } \ldots a_{n \sigma^{-1}(n)}\)
\(\sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n}=\sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ 1\sigma(1) } \ldots a_{n \sigma(n)}\)
Un déterminant est égal à son transposé.
Forme multilinéaire alternée
Si \(f\) est une forme n-linéaire alternée \(\mathrm{I\!R^n} \longrightarrow \mathrm{I\!R}\) on a par le même calcul que celui fait pour le déterminant :
\(f \left (\sum \limits_{\underset{}{i=1}}^{n} a_{i1} e_{i} , \sum \limits_{\underset{}{i=1}}^{n} a_{i2} e_{i},\ldots , \sum \limits_{\underset{}{i=1}}^{n} a_{in} e_{i} \right)\)
\(=\sum \limits_{\underset{}{\sigma}} a_{ \sigma(1)1 }a_{ \sigma(2)2 } \ldots a_{ \sigma(n)n} ~f \left ( e_{\sigma(1)},\ldots ,e_{\sigma(n)}\right )\)
\(=\left ( \sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n} \right)~f\left ( e_1,e_2,\ldots ,e_n\right )\)
\(f\left (\sum \limits_{\underset{}{i=1}}^{n} a_{i1} e_{i} ,\ldots , \sum \limits_{\underset{}{i=1}}^{n} a_{in} e_{i} \right)=\sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} a_{ \sigma(1)1 } \ldots a_{ \sigma(n)n}~f(e_1,e_2,\ldots,e_n)\)
\(f(V_1,V_2,\ldots,V_n)=det (V_1,V_2,\ldots,V_n)~f(e_1,e_2,\ldots,e_n)\)
Théorème :
Toute forme n-linéaire alternée de \(\mathrm{I\!R^n}\) sur \(\mathrm{I\!R}\) est proportionnelle au déterminant.
Dépendance linéaire
Si \(V_1, V_2, \dots, V_n\) sont dépendants alors leur déterminant est nul. Ceci se démontre facilement car l'un des \(V_i\) est combinaison linéaire des autres.
Indépendance linéaire
Si \(V_1, V_2, \ldots , V_n\) sont indépendants, ils forment une base et l'on exprime les vecteurs de base \(e_i\) en fonction des \(V_i\) : \(e_i = \sigma_j b_{ji}V_j\)
\(det(e_1, \dots , e_n) = \left ( \sum \limits_{\underset{}{\sigma}} \epsilon_{\sigma} b_{ \sigma(1)1 } \ldots b_{ \sigma(n)n} \right) det\left (V_1, \ldots , V_n \right)\)
le déterminant \(det(V_1, \ldots , V_n)\) est non nul car \(det(e_1, ..., e_n) = 1.\)
Critère de dépendance linéaire
\(det(V_1, \ldots, V_n) = 0\) équivaut à \(V_1, \ldots ,V_n\) linéairement dépendants.
Pour que \(n\) vecteurs de \(\mathrm{I\!R^n}\) soient linéairement dépendants, il faut et il suffit que leur déterminant soit nul.
Critère d'indépendance linéaire
\(det \left (V_1, \ldots , V_n \right ) \ne 0\) équivaut à \(V_1, \ldots , V_n\) linéairement indépendants.
Pour que \(n\) vecteurs de \(\mathrm{I\!R^n}\) soient linéairement indépendants, il faut et il suffit que leur déterminant soit non nul.