Expression explicite du déterminant d'une matrice et démonstration de l'unicité

L'existence d'un objet mathématique vérifiant les propriétés (1), (2) et (3) du théorème - définition vient d'être démontrée.

L'objectif de ce paragraphe est de démontrer l'unicité d'un tel objet. Pour cela on va montrer que l'image d'une matrice par une application de \(M_n (K)\) dans \(K\) vérifiant les propriétés (1), (2) et (3) a une expression explicite entièrement déterminée, ce qui assure l'unicité.

On note \(M \mapsto \det M\) une application vérifiant ces propriétés.

Le point essentiel est sa linéarité par rapport à chaque colonne.

Pour utiliser de manière efficace cette propriété, il est utile d'introduire une base de l'espace vectoriel des matrices colonnes et bien évidemment c'est la base canonique qui est choisie. C'est la base \((E_1, E_2,\ldots, E_n)\) où, pour tout \(i\) compris entre 1 et \(n\), \(E_i\) est la matrice à n lignes et une colonne dont tous les éléments sont nuls sauf celui de la \(i\)-ième ligne qui est égal à 1. Alors une matrice colonne s'écrit

\(\left(\begin{array}{c}\lambda_1\\\vdots\\\lambda_n\end{array}\right) = \lambda_1E_1 + \ldots + \lambda_nE_n\)

Donc, si \(M = \left( m_{i,j}\right)\) est une matrice carrée d'ordre \(n\), il s'agit de calculer \(\det M = \det(m_{1,1}E_1 + \ldots + m_{n,1}E_n, \ldots, m_{1,n}E_1+\ldots, m_{n,n}E_n)\)

On utilise encore ici l'identification entre colonne et matrice colonne.

RappelGroupe symétrique

Avant d'effectuer le développement de cette expression, nous allons indiquer brièvement le vocabulaire et les propriétés de la théorie des groupes symétriques, nécessaires ici :

Une permutation de \{1,2,\ldots,n\} est une bijection de \{1,2,\ldots,n\} dans lui-même. L'ensemble des permutations de \{1,2,\ldots,n\}, muni de la composition des applications est un groupe (non commutatif) appelé groupe symétrique et noté \(S_n\). Il a \(n !\)éléments.

Une transposition de \{1,2,\ldots,n\} est une permutation qui échange deux éléments distincts et laisse invariants tous les autres.

Un résultat tout à fait essentiel : toute permutation d'un ensemble fini peut s'écrire comme un produit de transpositions.

Attention, une telle décomposition n'est pas unique. Mais, pour une permutation donnée \(\sigma\) , la parité du nombre T de transpositions qui interviennent dans une décomposition en produit de transpositions ne dépend pas de cette décomposition. Le nombre \((-1)^T\) ne dépend donc que de la permutation considérée. On l'appelle signature de la permutation et on la note \(\epsilon (\sigma)\). Donc

\(\epsilon (\sigma) = (-1)^T\).

Ce n'est pas forcément la façon dont on définit la signature d'une permutation, mais c'est le résultat qui sera utile ici, comme le prouve la proposition suivante.

La signature est multiplicative autrement dit vérifie la propriété :

\(\forall (\sigma, \sigma') \in S_n S_n\)

PropriétéEffet de la permutation des colonnes sur le calcul du déterminant d'une matrice

Si \(\sigma\) est une permutation de l'ensemble \(\{1,2,\ldots,n\}\), \(\det(C_{\sigma(1)},C_{\sigma(2)},\ldots, C_{\sigma(n)})\),

\(\epsilon(\sigma)\) est la signature de la permutation \(\sigma\) .

Démonstration

La démonstration est entièrement basée sur les propriétés de la signature d'une permutation que nous venons de rappeler.

En effet elle est vraie pour une transposition, c'est la propriété (2'). Ensuite il suffit de décomposer \(\sigma\) en un produit de transpositions \(\sigma = \tau_1\circ\ldots\circ\tau_k\). Une récurrence prouve que

\(\det(C_{(\tau_1\ldots\tau_k)(1)},C_{(\tau_1\ldots\tau_k)(2)},\ldots,C_{(\tau_1\ldots\tau_k)(n)}) = \epsilon(\tau_1)\ldots\epsilon(\tau_k)\det(C_1,C_2,\ldots,C_n)\)

Et d'après la mutiplicativité de la signature, on a \(\epsilon(\tau_1)\ldots\epsilon(\tau_k) = \epsilon(\sigma)\) et donc le résultat.

Ce résultat peut être facilement explicité pour \(n=3\)

Soit \(\sigma\) une permutation de l'ensemble \(\{1,2,3\}\). Compte tenu de la propriété (2') (équivalente à la propriété (2) d'après la proposition ci-dessus), les scalaires

\(det(C_{\sigma(1)},C_{\sigma(2)},C_{\sigma(3)})\), notés\( \det(C_{\sigma(i)},C_{\sigma(j)},C_{\sigma(k)})\), sont égaux à \(\det(C_{\sigma(1)},C_{\sigma(2)},C_{\sigma(3)})\) ou à \(-\det(C_{\sigma(1)},C_{\sigma(2)},C_{\sigma(3)})\) suivant la parité du nombre d'échanges de deux colonnes nécessaires pour passer de \((C_{\sigma(i)},C_{\sigma(j)},C_{\sigma(k)})\) à \((C_{\sigma(1)},C_{\sigma(2)},C_{\sigma(3)})\), autrement dit suivant le nombre de transpositions nécessaires pour passer de \((i,j,k)\) à \((1,2,3)\).

En effet, chacun de ces échanges fait apparaître un coefficient multiplicatif \(-1\).

Nous pouvons l'expliciter ici en écrivant les différentes permutations de \((1,2,3)\) ; la transposition qui échange \(i\) et \(j\) et laisse invariant le reste est notée \((i,j)\).

La permutation \(1 \mapsto i\) , \(2 \mapsto j\) , \(3 \mapsto k\) est notée \((i,j,k)\).

(i,j,k)

Transpositions

Signature de la permutation

Coefficients

(1,2,3)

Identité

1

1

(1,3,2)

Une transposition : \((2,3)\)

-1

-1 (échange d'une colonne)

(2,1,3)

Une transposition : \((1,2)\)

-1

-1 (échange d'une colonne)

(2,3,1)

Produit de deux transpositions : \((1,3)\circ(1,2)\)

\((-1)^2=1\)

\((-1)(-1)= 1\) (échange de deux colonnes)

(3,1,2)

Produit de deux transpositions : \((1,3)\circ(2,3)\)

\((-1)^2=1\)

\((-1)(-1)= 1\) (échange de deux colonnes)

(3,2,1)

Une transposition : \((1,3)\)

-1

-1 (échange d'une colonne)

Et donc

\(\det(C_1,C_3,C_2) = -`\det(C_1,C_2,C_3)\)

\(\det(C_2,C_1,C_3) = -`\det(C_1,C_2,C_3)\)

\(\det(C_2,C_3,C_1) = `\det(C_1,C_2,C_3)\)

\(\det(C_3,C_1,C_2) = `\det(C_1,C_2,C_3)\)

\(\det(C_3,C_2,C_1) = -`\det(C_1,C_2,C_3)\)

  • Développement de l'expression

\(\det M = \det(m{1,1}E_1 + \ldots + m{n,1}E_n + \ldots +m{1,n}E_1 + \ldots + m{n,n}E_n)\)

Bien que cela ne soit pas nécessaire pour la rigueur logique de la démonstration, nous allons commencer par étudier le cas des matrices d'ordre 3. Cela facilite la compréhension de la technique du développement et de la formule à laquelle on aboutit.

Développement dans le cas \(n=3\)

Soit la matrice \(M : M = \left(\begin{array}{ccc}m_{1,1}&m_{1,2}&m_{1,3}\\m_{2,1}&m_{2,2}&m_{2,3}\\m_{3,1}&m_{3,2}&m_{3,3}\end{array}\right)\)

On a alors

\(\det M = \det(m_{1,1}E_1 + m_{2,1}E_2 + m_{3,1}E_3, m_{1,2}E_1 +m_{2,2}E_2 + m_{3,2}E_3, m_{1,3}E_1 + m_{2,3}E_2+ m_{3,3}E_3)\)

En utilisant la propriété (1) satisfaite par le déterminant, on obtient

\(\det M =\displaystyle{ \sum^{i_1=3}_{i_1=1}\sum^{i_2=3}_{i_2=1}\sum^{i_3=3}_{i_3=1}}m_{i_1,1}m_{i_2,2}m_{i_3,3}\det(E_{i_1},E_{i_2},E_{i_3})\)

Dans cette somme, les scalaires \(\det(E_{i_1},E_{i_2},E_{i_3})\), pour lesquels au moins deux des indices sont égaux, sont nuls et donc ne restent que ceux pour lesquels les trois indices \(i_1,i_2,i_3\) sont distincts.

Ce sont donc les triplets \((i_1,i_2,i_3)\) obtenus par permutation de \((1,2,3)\). Il y a \(3!\) permutations, à savoir \((1,2,3) ; (1,3,2) ; (2,1,3) ; (2,3,1) ; (3,1,2) ; (3,2,1)\)

Donc

\(\det M = m_{1,1}m_{2,2}m_{3,3}\det(E_1, E_2,E_3)+m_{1,1}m_{3,2}m_{2,3}\det(E_1, E_3,E_2)+m_{2,1}m_{1,2}m_{3,3}\det(E_2, E_1,E_3)+m_{2,1}m_{3,2}m_{1,3}\det(E_2, E_3,E_1)+m_{3,1}m_{1,2}m_{2,3}\det(E_3, E_1,E_2)+m_{3,1}m_{2,2}m_{1,3}\det(E_3, E_2,E_1)\)

Or, on a vu la formule générale \(\det(C_{\sigma(1)},C_{\sigma(2)}, \ldots, C_{\sigma(n)})=\epsilon(\sigma)\det(C_1,C_2,\ldots,C_n)\), résultat qui a été détaillé pour \(n=3\).

En utilisant les formules obtenues, à savoir

\(\det(E_1,E_3,E_2) = -\det(E_1,E_2,E_3)\)

\(\det(E_2,E_1,E_3) = -\det(E_1,E_2,E_3)\)

\(\det(E_2,E_3,E_1) = \det(E_1,E_2,E_3)\)

\(\det(E_3,E_1,E_2) = \det(E_1,E_2,E_3)\)

\(\det(E_3,E_2,E_1) = -\det(E_1,E_2,E_3)\)

il vient

\(\det M = m_{1,1}m_{2,2}m_{3,3} -m_{1,1}m_{3,2}m_{2,3}-m_{2,1}m_{1,2}m_{3,3}+m_{2,1}m_{3,2}m_{1,3}+m_{3,1}m_{1,2}m_{2,3}+m_{3,1}m_{2,2}m_{1,3}\)

Développement dans le cas général

En utilisant la multilinéarité du déterminant, on obtient

(*) \(\det M = \displaystyle{ \sum^{i_1=n}_{i_1=1}\sum^{i_2=n}_{i_2=1}\ldots\sum^{i_n=n}_{i_n=1}}m_{i_1,1}m_{i_2,2}\ldots m_{i_n,n}\det(E_{i_1},\ldots,E_{i_n})\)

Les sommations qui interviennent dans le deuxième membre de cette formule peuvent être interprétées de la manière suivante : l'ensemble\( \{i_1,i_2,\ldots,i_n\}\) caractérise l'application de \(\{1,2,\ldots,n\}\) dans lui-même \(k \mapsto i_k\). Donc en fait la sommation multiple de la formule (*) est une sommation indiciée par l'ensemble des applications de \(\{1,2,\ldots,n\}\) dans lui-même (ensemble que nous notons \(F_n\)). Cela permet d'écrire :

(**) \(\det M = \displaystyle{ \sum_{f\in F_n}} m_{f(1),1}m_{f(2),2}\ldots m_{f(n),n}\det(E_{f(1)},\ldots,E_{f(n)})\)

La propriété (2) des déterminants prouve que si deux des indices sont égaux, alors les colonnes sont égales et \(\det(E_{f(1)}, \ldots, E_{f(n)}) = 0\)

Or il existe \(i\) et \(j\) distincts tels que \(f(i) = f(j)\) si et seulement si l'application \(f\) n'est pas une bijection.

Il en résulte que seuls vont rester dans le deuxième membre de l'égalité (**) les facteurs \(\det(E_{f(1)}, \ldots, E_{f(n)})\) pour lesquels l'application \(f : k \mapsto i_k\) est une bijection, donc un élément \(\sigma\) de \(S_n\).

Donc, en fait, on somme sur les permutations de \(\{1,2,\ldots,n\}\), ce qui peut s'écrire \(\det M = \displaystyle{ \sum_{\sigma \in S_n}}m_{\sigma(1),1}m_{\sigma(n),n}\ldots m_{\sigma(1),1}\det(E_{\sigma(1)},E_{\sigma(2)},\ldots,E_{\sigma(n)})\).

Or, d'après la propriété précédente, \(\det(E_{\sigma(1)},E_{\sigma(2)},\ldots,E_{\sigma(n)}) = \epsilon(\sigma)\det(E_1,E_2,\ldots,E_n)\)

Par conséquent \(\det(M) = \displaystyle{ \sum_{\sigma \in S_n}}m_{\sigma(1),1}m_{\sigma(2),2}\ldots m_{\sigma(n),n}\epsilon(\sigma)\det(E_1,E_2,\ldots,E_n)\)

Comme, de plus, \(\det(E_1,E_2,\ldots,E_n)\) est le déterminant de la matrice unité, il est égal à 1 et l'on obtient

\(\det M = \displaystyle{ \sum_{\sigma \in S_n}}\epsilon(\sigma)m_{\sigma(1),1}m_{\sigma(2),2}\ldots m_{\sigma(n),n}\)

Le membre de droite de cette égalité est entièrement déterminé dès que \(M\) est connue. Cela prouve bien l'unicité d'une application de \(\left[M_{n,1}(K)\right]^n\) dans K multilinéaire, alternée et telle que l'image de la matrice unité soit égale à 1.

Ce résultat prouve donc l'unicité du déterminant.

De plus il donne une formule explicite du déterminant d'une matrice.

Elle est à retenir car elle peut être utile, en particulier dans des calculs théoriques sur les déterminants.

ThéorèmeFormule explicite du déterminant d'une matrice

Soit \(n\) un entier supérieur ou égal à 1et \(M = \left(m_{i,j}\right)\) une matrice carrée d'ordre \(n\).

Alors : \(\det\left(\begin{array}{ccc}m_{1,1}&\ldots&m_{1,n}\\\vdots&\cdots&\vdots\\m_{n,1}&\ldots&m_{n,n}\end{array}\right)\)

  • Notation :

La notation la plus usuelle utilisée pour noter le déterminant d'une matrice est :

\(\det\left(\begin{array}{ccc}m_{1,1}&\ldots&m_{1,n}\\\vdots&\cdots&\vdots\\ m_{n,1}&\ldots&m_{n,n}\end{array}\right) = \left|\begin{array}{ccc}m_{1,1}&\ldots&m_{1,n}\\\vdots&\cdots&\vdots\\ m_{n,1}&\ldots&m_{n,n}\end{array}\right|\)

Exemplen=2 :

Soit à calculer \(\left|\begin{array}{cc}m_{1,1}&m_{1,2}\\ m_{2,1}&m_{2,2}\end{array}\right|\).

Il n'y a que deux permutations de l'ensemble \(\{1,2\}\), la permutation identique dont la signature est égale à 1, et la transposition \((2,1)\) qui échange 1 et 2, dont la signature est égale à \(-1\). Alors la formule précédente donne :

\(\left|\begin{array}{cc}m_{1,1}&m_{1,2}\\ m_{2,1}&m_{2,2}\end{array}\right| = (+1)m_{1,1}m_{2,2} +(-1)m_{2,1}m_{1,2}=m_{1,1}m_{2,2} - m_{2,1}m_{1,2}\)

Résultat qui peut être visualisée de la manière suivante :

Visualisation du résultat de l'exemple n=2

Remarque1

On aurait pu construire différemment la démonstration du théorème en commençant par démontrer l'unicité suivant le schéma logique suivant :

Si le déterminant existe avec les propriétés imposées, on trouve qu'il ne peut être nécessairement donné que par la formule

\(\det M = \displaystyle{ \sum_{\sigma \in S_n}}\epsilon(\sigma)m_{\sigma(1),1}m_{\sigma(n),n}\ldots m_{\sigma(1),1}\)

On vérifie ensuite que ce que l'on vient de trouver convient (c'est-à-dire que cette expression satisfait bien aux propriétés (1), (2) et (3)).

A priori cela serait plus court, mais comme on a besoin pour calculer effectivement des déterminants de la formule du développement par ligne, cela ne gagne rien globalement.

Remarque2

Il existe un raccourci pour calculer les déterminants d'ordre 3. C'est la règle de Sarrus.

Mais attention, elle n'est valable que pour les déterminants d'ordre 3 et n'a d'intérêt que pour les déterminants ne faisant pas intervenir de paramètre. Elle est donnée ici plus d'un point de vue culturel que pour son utilité, qui est très limitée.

RègleSarrus

Le résultat obtenu dans le calcul fait pour \(n=3\) peut être écrit de la manière suivante :

\(\left|\begin{array}{ccc}x_1&y_1&z_1\\x_2&y_2&z_2\\x_3&y_3&z_3\end{array}\right|=x_1y_2z_3+x_2y_3z_1+x_3y_1z_2-x_3y_2z_1-x_2y_1z_3-x_1y_3z_2\)

Ce résultat peut être visualisé de la manière suivante :

Règle de Sarrus

Le déterminant est égal à la somme des produits des éléments reliés par une flèche, affectés du signe \(+\) si la flèche est parallèle à la diagonale principale, affectés du signe \(-\) si la flèche est parallèle à l'autre diagonale.

Cette représentation est un moyen de retenir le procédé, mais n'a pas de sens mathématique en elle-même.

Remarque3

Pour les étudiants connaissant la notion d'anneau, définition du déterminant d'une matrice à coefficients dans un anneau commutatif de caractéristique différente de 2.

Définitiondu déterminant d'une matrice à coefficients dans un anneau commutatif

L'expression \(\displaystyle{\sum_{\sigma\in S_n}}\epsilon(\sigma)m_{\sigma(1),1}m_{\sigma(2),2}\ldots m_{\sigma(n),n}\) ne fait intervenir que les lois additive et multiplicative de \(K\).

On peut donc définir le déterminant d'une matrice carrée \(M=(m_i,j)\) à coefficients dans un anneau commutatif \(\Re\) par la formule :

(*) \(\det\left(\begin{array}{ccc}m_{1,1}&\ldots&m_{1,n}\\\vdots&\ddots&\vdots\\m_{n,1}&\ldots&m_{n,n}\end{array}\right)=\displaystyle{\sum_{\sigma\in S_n}}\epsilon(\sigma)m_{\sigma(1),1}m_{\sigma(2),2}\ldots m_{\sigma(n),n}\)

Par exemple on peut prendre \(\Re=L[X]\)\(L\) est un corps.

Alors les quatre propriétés ( \(C_j\) désigne la \(j\) ième colonne de \(M\) et la colonne dont le terme de la \(i\) ième ligne est \(\lambda m_{i,j}\) si \(\lambda\) est un élément de \(\Re\))

  1. \(\det M= \det^tM\)

  2. \(\det(C_1,\ldots,C_i+C'_i,\ldots,C_n)=\det(C_1,\ldots,C_i,\ldots,C_n)+\det(C_1,\ldots,C'_1,\ldots,C_n)\)

  3. \(\forall \lambda\in \Re, \det(C_1,\ldots,\lambda C_i,\ldots,C_n)=\lambda\det(C_1,\ldots,C_i,\ldots,C_n)\)

  4. Pour \(1\leq i<j\leq n\) et \(C_i=C_j\), on a \(\det(C_1,\ldots,C_i,\ldots,C_j,\ldots,C_n)=0\)

sont encore valables puisque leurs démonstrations à partir de la formule explicite (*) ne font intervenir que les lois additive et multiplicative de \(\Re\) et leurs propriétés, déduites de la structure d'anneau de \(\Re\).

Les propriétés 2., 3. et 4. sont aussi vraies en remplaçant les colonnes par les lignes.