Matrice d'un cycle d'un espace vectoriel réel de dimension 3

Partie

Soit \(E\) un espace vectoriel de dimension 3 sur \(\mathbb R\) et \(f\) une application linéaire de \(E\) dans lui-même. On suppose qu'il existe \(n\) vecteurs notés \(v_1,v_2,\cdots,v_n\) engendrant \(E\) et tels que \(f(v_1)=v_2,f(v_2)=v_3,\cdots,f(v_{n-1})=v_n,f(v_n)=v_1\).

Question

  1. Montrer que \(n\) est supérieur ou égal à 3.

  2. Montrer que les endomorphismes \(\textrm{Id},f,f^2\) sont linéairement indépendants.

Aide simple

2. Faire une démonstration par l'absurde et commencer par montrer que si les endomorphismes \(\textrm{Id}_E,f,f^2\) sont linéairement dépendants il en est de même pour les vecteurs \(v_1, v_2, v_3\).

En déduire qu'il existe alors une famille génératrice de \(E\) qui a un nombre d'éléments strictement inférieur à 3.

Solution détaillée

1. L'espace considéré est de dimension 3, par conséquent un système de générateurs de cet espace a au moins 3 éléments et par conséquent n est supérieur ou égal à 3.

2. Montrons par l'absurde que les endomorphismes \(\textrm{Id}_E, f, f^2\) sont linéairement indépendants. On suppose donc qu'il existe trois réels non tous nuls \(\alpha, \beta, \gamma\) tels que \(\alpha\textrm{Id}_E+\beta f+\gamma f^2=0\) (*).

Cela implique en particulier que \(\alpha\textrm{Id}_E(v_1)+\beta f(v_1)+\gamma f^2(v_1)=0\).

Or \(f^2(v_1)=f(f(v_1))=f(v_2)=v_3\).

Donc la relation (*) implique que :

\((**)\quad \gamma v_3+\beta v_2+\alpha v_1=0, (\alpha,\beta,\gamma)\neq(0,0,0)\)

Donc l'hypothèse \(\textrm{Id}_E, f, f^2\) linéairement dépendants implique \(v_1, v_2, v_3\) linéairement dépendants.

Nous allons montrer que la propriété (**) est contraire aux hypothèses.

Deux cas sont possibles : \(\gamma\) est nul ou \(\gamma\) n'est pas nul.

Nous allons étudier ces deux cas.

Premier cas : \(\gamma\neq0\)

Alors le vecteur \(v_3\) peut être exprimé comme combinaison linéaire de \(v_1\) et \(v_2\) c'est à dire qu'il existe des réels \(\lambda\) et \(\rho\) tels que \(v_3=\lambda v_1+\rho v_2\).

Une récurrence immédiate prouve que pour tout entier \(p\) supérieur ou égal à 3 et inférieur à \(n\), \(v_p\) est combinaison linéaire des deux vecteurs \(v_1\) et \(v_2\).

Détail de la démonstration par récurrence

  • Le résultat précédent prouve que cette propriété est vraie pour 3 : \(v_3=\lambda v_1+\rho v_2\).

  • Supposons la vraie pour \(p-1(p-1\ge3)\) : il existe deux scalaires \(\lambda_{p-1}\) et \(\rho_{p-1}\) tels que \(v_{p-1}=\lambda_{p-1}v_1+\rho_{p-1}v_2\).

  • Montrons la pour \(p\)

    On a \(v_{p-1}=\lambda_{p-1}v_1+\rho_{p-1}v_2\Rightarrow f(v_{p-1})=\lambda_{p-1}f(v_1)+\rho_{p-1}f(v_2)\),

    d'où \(v_p=\lambda_{p-1}v_2+\rho_{p-1}v_3=\lambda_{p-1}v_2+\rho_{p-1}(\lambda v_1+\rho v_2)=\rho_{p-1}\lambda v_1+(\lambda_{p-1}+\rho_{p-1})v_2\)

    ce qui achève la démonstration.

Comme les vecteurs \(v_1,v_2,...,v_n\) engendrent \(E\), on en déduit que les vecteurs \(v_1\) et \(v_2\) engendrent \(E\) ce qui est en contradiction avec le fait que \(E\) est de dimension 3.

Deuxième cas : \(\gamma=0\).

Alors la relation \(\gamma v_3+\beta v_2+\alpha v_1=0\) devient \(\beta v_2+\alpha v_1=0\), avec au moins un des deux coefficients non nuls. En fait \(\beta\) ne peut pas être nul car sinon la relation deviendrait \(\alpha v_1=0\) et \(\alpha\) serait aussi nul (le vecteur \(v_1\) est évidemment non nul sinon tous les vecteurs \(v_i\) le seraient aussi et l'espace \(E\) serait réduit au vecteur nul. Or c'est impossible puisque c'est un espace de dimension 3).

Il en résulte alors la relation \(v_2=\tau v_1\), d'où on déduit, par une méthode analogue à celle utilisée dans le cas précédent, que le vecteur \(v_1\) engendre \(E\) ce qui est évidemment absurde puisque \(E\) de dimension 3.

Donc les vecteurs \(v_1, v_2, v_3\) sont linéairement indépendants, et par conséquent d'après le début de l'étude, \(\textrm{Id}, f, f^2\) aussi.

Question

Montrer l'égalité \(f^n=\textrm{Id}_E\).

Aide simple

Etablir par récurrence le résultat préliminaire :

\(\forall p, 1\leq p\leq n, f^p(v_1)=v_{p+1}\)

Solution détaillée

Pour obtenir ce résultat on va établir le résultat préliminaire suivant :

\(\forall p, 1\le p\le n, f^p(v_1)=v_{p+1}\)

Ce résultat va être obtenu grâce à une démonstration par récurrence sur p.

Cas \(p=1 \): \(f(v_1)=v_2=v_{1+1}\), immédiat d'après les hypothèses.

Supposons la propriété vraie pour \(p=k(k<n-1) : f^k(v_1)=v_{k+1}\).

Montrons la propriété pour \(p=k+1 (k<n-1)\).

On a \(f^{k+1}(v_1)=f(f^k(v_1))=f(v_{k+1})=v_{k+2}=v_{(k+1)+1}\). D'où le résultat.

On en déduit immédiatement la valeur de \(f^n(v_1)\).

En effet, \(f^n(v_1)=f(f^{n-1}(v_1))=f(v_n)=v_1\).

Alors pour tout \(p\) compris entre 1 et \(n\) on a \(f^n(v_p)=v_p\).

En effet \(f^n(v_p)=f^n(f^{p-1}(v_1))=f^{p-1}(f^n(v_1))=f^{p-1}(v_1)=v_p\). D'où l'égalité \(f^n=\textrm{Id}_E\).

Question

Montrer que dans une base convenable la matrice de \(f\) est de la forme \(\left(\begin{array}{ccc}0&0&a\\1&0&b\\0&1&c\end{array}\right)\), où \(a\), \(b\) et \(c\) sont des nombres réels.

Aide simple

Utiliser le résultat concernant les vecteurs \(v_1, v_2 ,v_3\) trouvé dans la question 1.b.

Solution détaillée

Nous avons vu dans la deuxième question que les trois vecteurs \(v_1, v_2, v_3\) sont linéairement indépendants. Comme la dimension de \(E\) est égale à 3, ils déterminent une base de \(E\).

Cherchons la matrice de f dans cette base. On a \(f(v_1)=v_2,f(v_2)=v_3,f(v_3)=av_1+bv_2+cv_3\), cette dernière égalité exprime que \(f(v_3)\) est combinaison linéaire des vecteurs de la base \((v_1,v_2,v_3)\).

La matrice de f dans cette base est donc \(\left(\begin{array}{ccc}0&0&a\\1&0&b\\0&1&c\end{array}\right)\).

Question

Montrer que le polynôme \(P(X)=X^3-cX^2-bX-a\) divise \(X^n-1\).

Aide simple

Chercher le polynôme minimal de \(f\), en utilisant le théorème de Cayley-Hamilton.

Solution détaillée

On va chercher le polynôme minimal de f.

Comme les endomorphismes \(\textrm{Id}, f, f^2\) sont linéairement indépendants, il n'existe pas de polynôme annulateur de \(f\) de degré inférieur ou égal à 2. Le polynôme minimal de \(f\) est donc de degré supérieur ou égal à 3. Mais on sait d'après le théorème de Cayley Hamilton qu'il est de degré inférieur ou égal à 3 puisque le polynôme caractéristique est un polynôme annulateur de \(f\). Donc le polynôme minimal de \(f\) est de degré 3 et : \(P_{min,f}=(-1)^3P_{car,f}\).

Calculons le polynôme caractéristique de \(f\).

on a \(P_{car,f}(X)=\left|\begin{array}{ccc} -X&0&a \\ 1&-X&b \\ 0&1&c-X \end{array}\right|\).

Donc, en développant ce déterminant, on obtient \(P_{car,f}(X)=-X^3+cX^2+bX+a\),

et par conséquent \(P_{min,f}(X)=X^3-cX^2-bX-a\).

Comme d'après la question 2, le polynôme \(X^n-1\) est un polynôme annulateur de \(f\), on en déduit immédiatement que le polynôme \(X^3-cX^2-bX-a\) divise le polynôme \(X^n-1\).

Question

Montrer que \(f\) admet une unique valeur propre \(\lambda\).

Montrer que cette valeur propre est de multiplicité algébrique 1.

Quelle est la dimension du sous-espace propre correspondant ?

L'application \(f\) est-elle diagonalisable ?

Aide simple

Rappel : l'ordre de multiplicité algébrique d'une valeur propre est son ordre de multiplicité en tant que racine du polynôme caractéristique.

Ne pas oublier que \(E\) est un espace vectoriel sur \(\mathbf R\).

On pourra étudier les racines réelles du polynôme \(X^n-1\).

Solution détaillée

On a le résultat général :

Le nombre de racines réelles simples d'un polynôme de degré 3 à coefficients réels est 1 ou 3.

Le polynôme minimal de \(f\) a au moins une racine réelle et donc \(f\) a au moins une valeur propre.

D'après le résultat précédent, toute racine du polynôme minimal de \(f\) est une racine du polynôme .

Le polynôme \(X^n-1\) n'admet que des racines simples. De plus, ce polynôme admet 1 et comme racines réelles si \(n\) est pair et seulement 1 si \(n\) est impair. Donc le polynôme minimal de \(f\), qui est de degré 3, admet une et une seule racine réelle qui appartient à l'ensemble {1,-1} et cette racine est simple.

Donc l'endomorphisme \(f\) n'est pas diagonalisable car son polynôme minimal n'est pas scindé dans \(\mathbb R\).

Question

  1. On suppose le déterminant de \(f\) strictement positif, (\(\textrm{det }(f)>0\)).

    Quelle est la valeur de \(\lambda\) ?

  2. On suppose le déterminant de \(f\) strictement négatif, (\(\textrm{det }(f)<0\)).

    Quelle est la valeur de \(\lambda\)? Montrer que \(n\) est pair.

Aide simple

Remarquer que \(\det f=P_{car,f}(0)\).

On peut écrire la forme de la décomposition en facteurs irréductibles dans \(\mathbb C\) du polynôme caractéristique de \(f\).

Solution détaillée
  1. On a : \(\det f=P_{car,f}(0)=a\).

    Si on écrit la décomposition en facteurs irréductibles dans \(\mathbf C\) de \(P_{car,f}\), on obtient \(P_{car,f}(X)=(-1)^3(X-\lambda)(X-\mu)(X-\overline{\mu})\)\(\mu\) est un nombre complexe non réel.

    Alors \(a=\lambda|\mu|^2\). Si \(\det f=a\) est strictement positif, \(\lambda\) est strictement positif et donc \(\lambda=1\).

  2. De même, comme \(a=\lambda|\mu|^2\), si est strictement négatif, \(\lambda\) est strictement négatif et donc \(\lambda=-1\).

    Donc -1 est racine du polynôme \(X^n-1\) ce qui n'est possible que si \(n\) est pair.

Question

Soit \(\theta\) l'argument de l'une des racines complexes de \(P\).

  1. Montrer que \(P(X)=(X-\textrm{det }f)(X^2-2(\textrm{cos }\theta)X+1)\).

  2. Montrer qu'il existe un vecteur \(u\) non nul de \(E\) tel que \(f^2(u)=-u+2(\textrm{cos }\theta)f(u)\).

Aide simple
  1. Expliciter la forme des racines complexes de \(P\).

    Remarquer que \(P(f)=(f^2-2\cos\theta)f+\textrm{Id}_E)(f-(\det f)\textrm{Id}_E)\).

  2. Utiliser le fait (après l'avoir justifié) que le polynôme \(X-\det f\) n'est pas un polynôme annulateur de \(f\).

Solution détaillée

Les racines complexes de \(P(X)\) étant aussi des racines de \(X^n-1\), sont de module égal à 1. Donc, avec les notations précédentes, on a \(\mu=e^{i\theta}\) et \(\overline{\mu}=e^{-i\theta}\)\(\theta\) n'est pas un multiple de \(\pi\) puisque \(\mu\) n'est pas un nombre réel. En particulier cela implique que \(\cos\theta\) est différent de 1 et de -1.

  1. Par conséquent \((X-\mu)(X-\overline{\mu})=X^2-2(\cos\theta)X+1\).

    Et donc car \(P(X)=(X-\det f)(X^2-2(\cos\theta)X+1)\) car \(a=\lambda|\mu|^2=\lambda=\det f\).

  2. Le polynôme \(X-\det f\) n'est pas un polynôme annulateur de \(f\) car il est de degré strictement inférieur à celui du polynôme minimal de \(f\). Donc il existe un élément \(t\) de \(E\) tel que \((f-(\det f)\textrm{Id}_E)(t)\neq0\).

    Alors, en posant \(u=(f-(\det f)\textrm{Id}_E)(t)\), \(u\) est non nul et tel que \(P(f)(t)=(f^2-2(\cos\theta)f+\textrm{Id}_E)(u)=0\) et donc \(f^2(u)=2(\cos\theta)f(u)-u\).

Question

Soit \(u\) le vecteur introduit dans la question 7.b.

Montrer que \(u\) et \(f(u)\) sont linéairement indépendants.

Aide simple

On pourra commencer par remarquer que \(u\) et \(f(u)\) sont non nuls et faire une démonstration par l'absurde.

Solution détaillée

Les deux vecteurs \(u\) et \(f(u)\) sont non nuls (si \(f(u)\) était nul, 0 serait valeur propre de \(f\), ce qui est exclu par l'étude faite dans la question 5). S'ils étaient liés, il existerait donc un scalaire réel non nul \(\alpha\) tel que \(f(u)=\alpha u\).

Alors \(\alpha\) serait une valeur propre de \(f\), donc serait égal à 1 ou -1.

Si \(\alpha=1\), on a \(f(u)=-u\) et donc \(f^2(u)=-f(u)=u=-u+2(\cos\theta)(-u)\), relation qui implique, comme \(u\) est non nul, que \(\cos\theta=1\). Ceci est impossible (voir début de question 7).

De même, si \(\alpha=-1\), on a \(f(u)=-u\) et donc \(f^2(u)=-f(u)=u=-u+2(\cos\theta)(-u)\), relation qui implique, comme \(u\) est non nul, que \(\cos\theta=-1\). Ceci est impossible (voir début de question 7).

Les vecteurs \(u\) et \(f(u)\) sont donc linéairement indépendants.

Remarque :

Si l'on connaît la théorie du polynôme minimal d'un élément, on aurait aussi pu dire que le polynôme unitaire \(X^2-2(\cos\theta)X+1\) est le polynôme annulateur de \(u\) relativement à \(f\) de plus bas degré car étant sans racine réelle, il n'est divisible par aucun polynôme à coefficients réels de degré 1.

Il en résulte alors immédiatement que \(u\) et \(f(u)\) sont linéairement indépendants.

Question

En déduire qu'il existe une base de \(E\) dans laquelle la matrice de \(f\) est égale à \(A=\left(\begin{array}{ccc}\epsilon&0&0\\0&0&-1\\0&1&2\textrm{cos }\theta\end{array}\right)\), avec \(\epsilon=1\) ou \(\epsilon=-1\).

Aide simple

En observant la matrice \(A\), que peut-on dire du premier vecteur de la base cherchée ?

Si \(w_2\) et \(w_3\) sont les deux autres vecteurs, quelles relations doivent satisfaire \(f(w_2), f(w_3)\) et \(f^2(w_2)\)? S'inspirer de ces résultats et de ceux de la question 8 pour choisir \(w_2\) et \(w_3\).

En cours de calculs, il sera utile d'utiliser l'égalité \((\det f)^2=1\) et les remarques sur \(\theta\) faites en début de question 7.

Solution détaillée

Soit \(w\) un vecteur propre de \(f\) relativement à l'unique valeur propre de \(f\), qui est \(\lambda=\det f\). Alors les vecteurs sont linéairement indépendants. En effet soit une combinaison linéaire nulle de ces vecteurs, \(\alpha w+\beta u+\gamma f(u)=0\).

Cette relation implique : \(\alpha f(w)+\beta f(u)+\gamma f^2(u)=0\) et donc en utilisant la relation \(f^2(u)=2(\cos\theta)f(u)-u\),

\(\alpha w+\beta u+\gamma f(u)=0\Rightarrow\alpha f(w)+\beta f(u)+\gamma[2(\cos\theta)f(u)-u]=0\)

soit :

\(\alpha(\det f)w+\beta f(u)+\gamma[2(\cos\theta)f(u)-u]=0\)

\(\alpha(\det f)w+[\beta+2\gamma(\cos\theta)]f(u)-\gamma u=0\)

et donc on a le système :

\(\left\{\begin{array}{llll} \alpha w+\beta u+\gamma f(u)=0 \\ \alpha(\det f)w-\gamma u+[\beta+2\gamma(\cos\theta)]f(u)=0\end{array}\right.\)

qui équivaut à :

\(\left\{\begin{array}{lllllll} \alpha w+\beta u+\gamma f(u)=0 \\ (-\gamma-\beta\det f)u+[\beta-(\det f)\gamma+2\gamma(\cos\theta)]f(u)=0\end{array}\right.\)

Comme \(u\) et \(f(u)\) sont linéairement indépendants, la deuxième relation implique :

\(\left\{\begin{array}{lllllll} \gamma+\beta\det f=0 \\ \beta+\gamma(2\cos\theta-\det f)=0\end{array}\right.\)

D'où :

\(\left\{\begin{array}{lllllll} \gamma=-\beta\det f \\ \beta[1+(\det f)^2-2(\det f)\cos\theta]=0\end{array}\right.\)

Or il résulte de l'étude faite dans les questions 5, 6 et 7 que \(\det f\) est égal à 1 ou -1 et donc que \((\det f)^2=1\). Alors :

\(\left\{\begin{array}{llllll} \gamma=-\beta\det f \\ 2\beta[1-(\det f)\cos\theta]=0\end{array}\right.\)

Or \(\det f\) est égal à 1 ou à -1. Donc \(1-(\det f)\cos\theta\) est égal à \(1+\cos\theta\) ou à \(1-\cos\theta\), qui ne sont nuls ni l'un ni l'autre. Donc \(\beta\) est nul, et donc aussi \(\gamma\) et enfin \(\alpha\).

Les trois vecteurs \(w,u,f(u)\) étant linéairement indépendants dans un espace vectoriel de dimension 3, le triplet \((w,u,f(u))\) est une base de \(E\).

D'après tout ce qui précède, il vient :

\(f(w)=(\det f)w+0u+0f(u)\)

\(f(u)=0w+0u+f(u)\)

\(f^2(u)=0w-u+2\cos\theta)f(u)\)

Comme le déterminant de \(f\) est égal à 1 ou à -1, la matrice associée à \(f\) dans la base \((w,u,f(u))\) est égale à

\(\left(\begin{array} {ccc} \epsilon&0&0 \\ 0&0&-1 \\ 0&1&2\cos\theta \end{array}\right)\)

avec \(\epsilon=1\) ou \(\epsilon=-1\).