Matrices II

Trace d'une matrice, d'un endomorphisme

Trace d'une matrice

On appelle trace d'une matrice carrée $A = (a_{ij}) \in \MM_{n}(\K)$ le scalaire : $ \mathrm{tr} A \ = \ \dsp \sum_{i=1}^n{a_{ii}}$.

  1. L'application $\mathrm{tr}$ : $\MM_{n}(\K) \rightarrow \K$ est une forme linéaire.
  2. $ \forall A \in \MM_{n,p}(\K)$ et $\forall B \in \MM_{p,n}(\K)$, $\mathrm{tr} (AB) = \mathrm{tr} (BA)$.

Remarques

  1. Soient $A,B,C \in \MM_{n}(\K)$. Le résultat ci-dessus donne : $$ \mathrm{tr} (ABC) = \mathrm{tr}(BCA) = \mathrm{tr}(CAB)$$ mais on n'a pas $\mathrm{tr}(ABC)= \mathrm{tr}(BAC)$ en général.
    Exemple: $A=\begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} \ , \quad B=\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix} \ , \quad C= \begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix}$.
  2. La démonstration du théorème précédent doit être connue, et peut faire l'objet d'une question du concours, par exemple E3A 2019 (MP). Mais aussi Centrale PSI 2022 et aussi Centrale PSI 2023!!! (c.f. rapport du jury ci-après)
  3. L'application $\mathrm{tr}$ est une forme linéaire, donc en utilisant le théorème du rang, on trouve facilement $\boxed{\dim (\Ker(\mathrm{tr}))=n^2-1}$. Bien que ce résultat semble évident, mais pose beaucoup de problème aux élèves,
    1. Une réponse extra-terrestre.
    2. Une réponse avec justification
    3. Une réponse sans justification
    4. Une blague belge (en faite 2).
    5. Enfin, pour terminer, une réponse sans réponse,

Rien

Rapport du jury -- Centrale 2022

Il était attendu des candidats qu'ils maitrisent bien leur cours d'algèbre linéaire pour traiter ce problème : propriétés de la trace ou du déterminant, manipulations de matrices et de leurs puissances, définition d'une valeur propre par exemple. Une bonne maitrise des raisonnements élémentaires de probabilités était également indispensable : indépendance ou incompatibilité d'évènements, propriétés de l'espérance et de la variance. Enfin, quelques autres chapitres (espaces euclidiens, études de fonctions) rentraient également en jeu.

La première partie a été abordée presque entièrement par tous les candidats, et certaines questions ont été très bien traitées. En revanche, le cours n'est pas toujours bien appris et certains résultats, pourtant très importants, ne sont parfois pas cités correctement (propriétés de la trace ou formule du binôme de Newton par exemple).


Deux matrices carrées semblables ont même trace.

Mines Pont 2009

Soient $A,B\in \MM_n(\K)$ tel que $\rg(AB-BA)=1$. Calculer $(AB-BA)^2$.

Correction

Puisque $\rg(AB-BA)=1$ alors il existe $X\in \MM_{n\,1}(\K),\, Y\in \MM_{1\,n}(\K)$ (voir aussi exo matrices) tels que $$X\neq 0,\, Y\neq 0,\quad AB-BA =X\cdot Y.$$ Ce qui donne, $$(AB-BA)^2 =(X\cdot Y)(X\cdot Y)=X (Y\cdot X) Y = (Y\cdot X) (X\cdot Y)= (Y\cdot X) (AB-BA).$$ mais $Y\cdot X=\dsum_{i=1}^n x_iy_i =\mathrm{tr} (X\cdot Y)=\mathrm{tr} (AB-BA)=0$ puisque $\mathrm{tr}( AB-BA)=\mathrm{tr}(AB)-\mathrm{tr}(BA)$.

On en déduit alors que $(AB-BA)^2=0$.

Trace d'une endomorphisme

Soit $E$ un $\K$-e-v de dimension $n \geqslant 1$, et $u \in \mathscr{L}(E)$. Pour toute base $\mathscr{B}$ de $E$, le scalaire $\mathrm{tr} (M_{\mathscr{B}}(u))$ ne dépend donc pas de la base $\mathscr{B}$ choisie.
Ce scalaire s'appelle la trace de l'endomorphisme $u$, noté $\mathrm{tr} u$.

(Oral CCP 2017)

Montrer que $f$, définie sur $\R_n[x]$ par $f(P)(x)=\dsp\int_x^{x+1}P(t)\ud t$ est un endomorphisme et donner sa trace.

Correction

On note $E=\R_n[x]$ et $\BB=(e_0,\cdots,e_n)$ la base canonique de $E$ (avec $e_i(x)=x^i$).
Soient $P_1,\,P_2\in E$ et $\lambda\in \R$, on note $Q=\varphi(\lambda P_1+P_2)$. Alors, $$ \begin{array}{lcl} \forall x\in \R,\,Q(x)&=& \dsp\int_x^{x+1}(\lambda P_1+P_2)(t)\ud t=\int_x^{x+1}(\lambda P_1(t)+P_2(t))\ud t\\ &&\\ &=&\dsp\lambda\int_x^{x+1}P_1(t)\ud t+\int_x^{x+1}P_2(t)\ud t=\lambda \varphi (P_1)(x)+\varphi(P_2)(x). \end{array} $$ On en déduit alors, $\varphi (\lambda P_1+P_2)=\lambda\varphi(P_1)+\varphi (P_2)$ ce qui montre que $\varphi$ est linéaire.
Montrons que $f(E)\subset E$, pour cela il suffit de calculer $f$ de la base canonique. Soit $k\in \inter{0,n}$, on a $$ \begin{array}{lcl} \forall x\in \R,\,f(e_k)(x)&=& \dsp\int_x^{x+1}t^k\ud t=\dfrac{1}{k+1}\left[t^{k+1}\right]_x^{x+1} =\dfrac{1}{k+1}\left((x+1)^{k+1}-x^{k+1}\right)\\ &&\\ &=&\dsp \dfrac{1}{k+1}\left(\dsum_{j=0}^{k+1}\binom{k+1}{j}x^j-x^{k+1}\right)\\ &&\\ &=&\dsp\dfrac{1}{k+1}\left(\textcolor{red}{x^{k+1}}+\dsum_{j=0}^{k}\binom{k+1}{j}x^j-\textcolor{red}{x^{k+1}}\right)=\dfrac{1}{k+1}\dsum_{j=0}^{k}\binom{k+1}{j}x^j\in E \end{array} $$ Ceci prouve que $f\in \LL(E)$.
D'autre part, le calcul précédent, montre que, pour tout $k\geq 1$, $$f(e_k)(x)= \dfrac{1}{k+1}\dsum_{j=0}^{k}\binom{k+1}{j}x^j= \dfrac{1}{k+1} \left(\binom{k+1}{k}x^k +\dsum_{j=0}^{k-1}\binom{k+1}{j}x^j\right) =x^k + \dsum_{j=0}^{k-1}\binom{k+1}{j}\dfrac{x^k}{k+1}$$ et on a $f(e_0)=1=e_0$, donc \begin{equation*} M(f)_\BB= \begin{pmatrix} 1 &\frac{1}{2} & \phantom{\cdots} & \phantom{\cdots} &\phantom{\cdots} & & \frac{1}{n+1} \\ 0 & 1 & \ddots & & & &\phantom{\vdots} \\ & & \ddots & & &&\vdots \\ & & & &\ddots &&\phantom{\vdots} \\ & & & &\ddots &&\phantom{\vdots}\\ & & & & &1&\frac{1}{2} \\ 0 & & &&& 0 & 1 \end{pmatrix} \Longrightarrow \mathrm{tr}(f)=\mathrm{tr}(M_\BB(f))=n+1. \end{equation*}

  1. L'application $\mathrm{tr}$ : $\mathscr{L}(E) \rightarrow \K$ est une forme linéaire.
  2. $\forall u,v \in \mathscr{L}(E) \ , \ \mathrm{tr}(v \circ u) = \mathrm{tr} (u \circ v)$.

Soit $E$ un $\K$-e-v de dimension $n$.

  1. Si $p$ est un projecteur de $E$, alors : $\mathrm{tr} p= \rg p$.
  2. Si $E_1$ et $E_2$ sont deux s-e-v supplémentaires de $E$ et si $s$ est la symétrie par rapport à $E_1$ de direction $E_2$, alors: $\mathrm{tr} s= \dim(E_1)-\dim(E_2)$.

Mines Pont 2016 PSI

Soit $\K$-ev de dimension finie, $f\in \mathrm{GL} (E)$ et $g\in \LL(E)$ tel que $\rg (g)=1$. Montrer l'équivalence, $$f+g\in \mathrm{GL} (E)\Longleftrightarrow \mathrm{tr} (g\circ f^{-1})\neq -1.$$

Correction

Puisque $f\mathrm{GL}(E)$ alors on peut écrire $f+g =(\ide +g\circ f^{-1})\circ f$, donc $$f+g\in \mathrm{GL} (E)\Longleftrightarrow \ide +g\circ f^{-1} \in \mathrm{GL} (E).$$ D'autre part, $f^{-1}\in \mathrm{GL} (E)$ donc $\rg(g\circ f^{-1})=\rg (g)=1$, ainsi il existe une base $\BB$ de $E$ tel que $$M_\BB (g\circ f^{-1})=\begin{pmatrix} 0 &0&\cdots &0& a_1\\ \vdots& & &\vdots&a_2\\ \vdots& & &\vdots&\vdots\\ 0 &0&\cdots &0& a_{n-1}\\ 0 &0&\cdots &0& a_n \end{pmatrix}\Longrightarrow M_\BB (\ide g\circ f^{-1})=\begin{pmatrix} 1 &0&\cdots &0& a_1\\ \vdots&1 & &\vdots&a_2\\ \vdots& & &\vdots&\vdots\\ 0 &0&\cdots &1& a_{n-1}\\ 0 &0&\cdots &0& 1+a_n \end{pmatrix} $$ avec $a_n=\mathrm{tr}(g\circ f^{-1})$. $$f+g\in \mathrm{GL} (E)\Longleftrightarrow \ide +g\circ f^{-1} \in \mathrm{GL} (E)\Longleftrightarrow 1+a_n\neq 0\Longleftrightarrow \mathrm{tr}(g\circ f^{-1})\neq -1 $$

Matrices par blocs

Soit $A \in \MM_{p,q}(\K)$. On appelle bloc de $A$ toute matrice $(a_{ij})_{(i,j)\in I\times J}$, où $I$ et $J$ sont respectivement des parties de $\inter{1,p}$ et $\inter{1,q}$ formées d'entiers consécutifs.

Exemple

Considérons la matrice $A= \begin{pmatrix} a&b&c&d\\ u&v&w&q\\ x&y&z&r \end{pmatrix}$. On considère $I=\{2,3\},\,J=\{2,3\}$ , on obtient le bloc $$ \begin{pmatrix} \xcancel{a}&\xcancel{b}&\xcancel{c}&\xcancel{d}\\ \xcancel{u}&\textcolor{blue}{v}&\textcolor{blue}{w}&\xcancel{q}\\ \xcancel{x}&\textcolor{blue}{y}&\textcolor{blue}{z}&\xcancel{r} \end{pmatrix} \rightsquigarrow \quad A' =\begin{pmatrix} v&w\\y&z \end{pmatrix} $$

Remarque

Si on ne suppose plus ces entiers consécutifs, on obtient ce qui est appelé une matrice extraite.

Soient $A,B \in \MM_{p,q}(\K)$, décomposées en blocs avec le même découpage : $$ A\,= \begin{matrix} \begin{matrix} \underset{\longleftrightarrow}{q_1}&\cdots&\underset{\longleftrightarrow}{q_j}&\cdots&\underset{\longleftrightarrow}{q_m} \end{matrix} & \\ \begin{bmatrix} A_{11} & \cdots &A_{1j}&\cdots& A_{1m} \\ \vdots & & & \\ A_{i 1} & \cdots &\textcolor{blue}{ A_{i j}}&\cdots& A_{im} \\ \vdots & & &\\ A_{\ell 1} & \cdots &A_{\ell j}&\cdots& A_{\ell m} \end{bmatrix}& \begin{matrix} \updownarrow \,p_1\\ \vdots\\ \updownarrow \,p_i\\ \vdots\\ \updownarrow \,p_\ell \end{matrix} \end{matrix} $$ $$ B\,= \begin{matrix} \begin{matrix} \underset{\longleftrightarrow}{q_1}&\cdots&\underset{\longleftrightarrow}{q_j}&\cdots&\underset{\longleftrightarrow}{q_m} \end{matrix} & \\ \begin{bmatrix} B_{11} & \cdots &B_{1j}&\cdots& B_{1m} \\ \vdots & & & \\ B_{i 1} & \cdots &\textcolor{blue}{B_{i j}}&\cdots& B_{im} \\ \vdots & & &\\ B_{\ell 1} & \cdots &B_{\ell j}&\cdots& B_{\ell m} \end{bmatrix}& \begin{matrix} \updownarrow \,p_1\\ \vdots\\ \updownarrow \,p_i\\ \vdots\\ \updownarrow \,p_\ell \end{matrix} \end{matrix} $$ Alors, si $\lambda \in \K$, la matrice $\lambda A + B $ s'écrit, par blocs : $$ \lambda A+B\,= \begin{matrix} \begin{matrix} \quad\quad\quad\underset{\longleftrightarrow}{q_1}&\phantom{\cdots}&\quad\quad\underset{\longleftrightarrow}{q_j}&\phantom{\cdots}&\underset{\longleftrightarrow}{q_m}\\ \phantom{\lambda A_{11} +B_{11}}& &\phantom{\lambda A_{11} +B_{11}}&\phantom{\lambda A_{11} +B_{11}}&&\phantom{\lambda A_{11} +B_{11}} \end{matrix} & \\ \begin{bmatrix} \lambda A_{11}+B_{11} & \cdots &\lambda A_{1j}+B_{1j}&\cdots& \lambda A_{1m}+B_{1m} \\ \vdots & & & \\ \lambda A_{i1}+B_{i 1} & \cdots &\textcolor{blue}{\lambda A_{i j}+B_{i j}}&\cdots& \lambda A_{im}+B_{im} \\ \vdots & & &\\ \lambda A_{\ell 1}+B_{\ell 1} & \cdots &\lambda A_{\ell j}+B_{\ell j}&\cdots& \lambda A_{\ell m}+B_{\ell m} \end{bmatrix}& \begin{matrix} \updownarrow \,p_1\\ \vdots\\ \updownarrow \,p_i\\ \vdots\\ \updownarrow \,p_\ell \end{matrix} \end{matrix} $$

Soit $A \in \MM_{p,q}(\K)$, décomposée en blocs : $$ A\,= \begin{matrix} \begin{matrix} \underset{\longleftrightarrow}{q_1}&\cdots&\underset{\longleftrightarrow}{q_j}&\cdots&\underset{\longleftrightarrow}{q_m} \end{matrix} & \\ \begin{bmatrix} A_{11} & \cdots &A_{1j}&\cdots& A_{1m} \\ \vdots & & & \\ A_{i 1} & \cdots &A_{i j}&\cdots& A_{im} \\ \vdots & & &\\ A_{\ell 1} & \cdots &A_{\ell j}&\cdots& A_{\ell m} \end{bmatrix}& \begin{matrix} \updownarrow \,p_1\\ \vdots\\ \updownarrow \,p_i\\ \vdots\\ \updownarrow \,p_\ell \end{matrix} \end{matrix} $$ Alors la matrice transposée de $A$ s'écrit, par blocs : $$ {\,}^t A\,= \begin{matrix} \begin{matrix} \underset{\longleftrightarrow}{p_1}&\cdots&\underset{\longleftrightarrow}{p_i}&\cdots&\underset{\longleftrightarrow}{p_\ell} \end{matrix} & \\ \begin{bmatrix} {\,}^tA_{11} & \cdots & {\,}^tA_{i 1}&\cdots& {\,}^tA_{\ell 1} \\ \vdots & & & \\ {\,}^tA_{ 1\,j} & \cdots & {\,}^tA_{i j}&\cdots& {\,}^tA_{\ell j} \\ \vdots & & &\\ {\,}^tA_{1 m} & \cdots & {\,}^tA_{i m}&\cdots& {\,}^t A_{m \ell } \end{bmatrix}& \begin{matrix} \updownarrow \,q_1\\ \vdots\\ \updownarrow \,q_j\\ \vdots\\ \updownarrow \,q_m \end{matrix} \end{matrix} $$

Soit $E$ un $\K$-e-v de dimension finie $n \geqslant1$, $E_1$ et $E_2$ deux s-e-v supplémentaires de $E$, $\textrm{dim}(E_1)=p$, $\dim (E_2)=n-p$, $\mathscr{B}_1$ et $\mathscr{B}_2$ deux bases de $E_1$ et $E_2$ respectivement, et $\mathscr{B} =\mathscr{B}_1 \cup \mathscr{B}_2$, de sorte que $\mathscr{B}$ est une base de $E$.

Soit $u \in \mathscr{L}(E)$, et $A=M_{\mathscr{B}}(u)$, écrite par blocs sous la forme : $$ \begin{matrix} &\begin{matrix} \,\,\underset{\longleftrightarrow}{p}&\underset{\longleftrightarrow}{n-p} \end{matrix} & \\ \begin{matrix} \\ A=\\ \\ \end{matrix}& \begin{bmatrix} A_1\,\, & B_2 \\ &\\ B_1\,\,& A_2 \end{bmatrix}& \begin{matrix} \updownarrow \,p\phantom{-n}\\ \\ \updownarrow \,n-p \end{matrix} \end{matrix} $$ On remarquera que $A_1$ et $A_2$ sont des matrices carrées, que $A_1=M_{\mathscr{B}_1}(p_1 \circ u|_{E_1})$ et que $A_2=M_{\mathscr{B}_2}(p_2 \circ u|_{E_2})$, où $p_1$ (resp. $p_2$) sont les projections sur $E_1$ (resp. $E_2$) parallèlement à $E_2$ (resp. $E_1$).

Alors :

  1. $E_1$ est stable par $u \, \Longleftrightarrow \, B_1 = 0$.
  2. $E_2$ est stable par $u \, \Longleftrightarrow \, B_2 = 0$.

  1. Ainsi, si $E_1$ est stable par $u$, $A$ est de la forme : $\begin{bmatrix} A_1 & B_2 \\ 0 & A_2 \end{bmatrix}.$ Une telle matrice est dite triangulaire supérieure par blocs. $A_1$ est alors la matrice de l'endomorphisme induit par $u$ sur $E_1$.
  2. Si $E_1$ et $E_2$ sont stables par $u$, $A$ est de la forme $ \begin{bmatrix} A_1 & 0 \\ 0 & A_2 \end{bmatrix}.$ Une telle matrice est dite diagonale par blocs. $A_1$ et $A_2$ sont alors les matrices des endomorphismes induits $u|_{E_1}$ et $u|_{E_2}$.

$ \begin{matrix} &\begin{matrix} \,\,\underset{\longleftrightarrow}{p}&\underset{\longleftrightarrow}{n-p} \end{matrix} & \\ \begin{matrix} \\ A=\\ \\ \end{matrix}& \begin{bmatrix} A_1\,\, & B_2 \\ &\\ 0\,\,& A_2 \end{bmatrix}& \begin{matrix} \updownarrow \,p\phantom{-n}\\ \\ \updownarrow \,n-p \end{matrix} \end{matrix} $ est inversible ssi $A_1\in GL_p(\K)$ et $A_2\in GL_{n-p}(\K)$.
Et, dans ce cas, $A^{-1}$ est de la forme : $$ \begin{matrix} &\begin{matrix} \,\,\underset{\longleftrightarrow}{p}&\underset{\longleftrightarrow}{n-p} \end{matrix} & \\ \begin{matrix} \\ A^{-1}=\\ \\ \end{matrix}& \begin{bmatrix} A_1^{-1}\,\, & B_2' \\ &\\ 0\,\,& A_2^{-2} \end{bmatrix}& \begin{matrix} \updownarrow \,p\phantom{-n}\\ \\ \updownarrow \,n-p \end{matrix} \end{matrix} $$

$ \begin{matrix} &\begin{matrix} \,\,\underset{\longleftrightarrow}{p}&\underset{\longleftrightarrow}{n-p} \end{matrix} & \\ \begin{matrix} \\ A=\\ \\ \end{matrix}& \begin{bmatrix} A_1\,\, & 0 \\ &\\ 0\,\,& A_2 \end{bmatrix}& \begin{matrix} \updownarrow \,p\phantom{-n}\\ \\ \updownarrow \,n-p \end{matrix} \end{matrix} $ est inversible ssi $A_1\in GL_p(\K)$ et $A_2\in GL_{n-p}(\K)$.
Et, dans ce cas, $A^{-1}$ est de la forme : $$ \begin{matrix} &\begin{matrix} \,\,\underset{\longleftrightarrow}{p}&\underset{\longleftrightarrow}{n-p} \end{matrix} & \\ \begin{matrix} \\ A^{-1}=\\ \\ \end{matrix}& \begin{bmatrix} A_1^{-1}\,\, & 0 \\ &\\ 0\,\,& A_2^{-2} \end{bmatrix}& \begin{matrix} \updownarrow \,p\phantom{-n}\\ \\ \updownarrow \,n-p \end{matrix} \end{matrix} $$

Remarque

Les résultats ci-dessus se généralisent sans difficulté aux cas des matrices triangulaires supérieures par blocs, de la forme : $$\begin{bmatrix} A_{11} & \dots & A_{1n} \cr & \ddots & \vdots \cr {\ \ }^{\dsp \textrm{\huge{0}}} & & A_{nn} \end{bmatrix},$$ où les $A_{ii}$ sont des matrices carrées, et aux matrices diagonales par blocs de la forme $$\begin{bmatrix} A_{11} & & {}_{\dsp \textrm{\huge{0}}} \cr & \ddots & \cr {\ \ }^{\dsp \textrm{\huge{0}}} & & A_{nn} \end{bmatrix}.$$

(CCINP 2021)

  1. Soient $(r,s,t,u)\in \C^4$ et $(e_1,e_2)$ la base canonique de $\C^2$. On note $\varphi$ l'endomorphisme de $\C^2$ dont la matrice dans la base $(e_1,e_2)$ est $\begin{pmatrix} r&s\\t&u \end{pmatrix}$. Exprimer la matrice de $\varphi$ dans la base $(e_2,e_1)$.
  2. Soit $(R,S,T,U)\in \MM_n(\C)^4$. En s'inspirant de la question précédente, montrer que la matrice $\begin{pmatrix} R&S\\T&U \end{pmatrix}$ est semblable dans $\MM_{2n}(\C)$ à la matrice $\begin{pmatrix} U&T\\ S&R \end{pmatrix} $ . Montrer de même que $\begin{pmatrix} R&S\\T&U \end{pmatrix}$ est semblable à la matrice $\begin{pmatrix} R&-S\\-T&U \end{pmatrix}$ .

Correction

  1. En utilisant la matrice de $\varphi$, on a $$ \left.\begin{array}{l} \varphi(e_2)=se_1+ue_2= ue_2+s e_1\\ \\ \varphi(e_1)=re_1+te_2= te_2+re_1 \end{array}\right\}\Longrightarrow M_{(e_2,e_1)}(\varphi)=\begin{pmatrix} u&t\\ s&r \end{pmatrix}.$$ On aurait aussi pu utiliser la matrice $P$ de passage de $(e_1,e_2)$ à la base $(e_2,e_1)$, i.e. $$M_{(e_2,e_1)}(\varphi) =P^{-1}M_{(e_1,e_2)}(\varphi)P=\begin{pmatrix} 0&1\\ 1&0 \end{pmatrix} \begin{pmatrix} r&s\\t&u \end{pmatrix}\begin{pmatrix} 0&1\\ 1&0 \end{pmatrix} =\begin{pmatrix} u&t\\ s&r \end{pmatrix}. $$
  2. Soit $\BB=(e_1,\cdots,e_n,e_{n+1},\cdots,e_{2n})$ la base canonique de $\C^{2n}$. On note $\BB_1=(e_1,\cdots,e_n),\,\BB_2=(e_{n+1},\cdots,e_{2n})$ de sorte que $\BB=(\BB_1,\BB_2)$, on considère $\varphi\in \LL(\C^{2n})$ dont la matrice par blocs dans le base $\BB$ est $\begin{pmatrix} R&S\\T&U \end{pmatrix}$, en utilisant la question précédente, on trouve que la matrice de $\varphi$ dans la base $\BB'=(\BB_2,\BB_1)$ est $\begin{pmatrix} U&T\\ S&R \end{pmatrix} $, de même la matrice $\varphi$ dans la base $\BB''=(\BB_1,-\BB_2)$ est $\begin{pmatrix} R&-S\\-T&U \end{pmatrix}$.
    Ceci prouve que les 3 matrices sont semblables.

Polynômes d'un endomorphisme, polynôme de matrice

Puissances d'un endomorphisme

Soit $u\in \LL (E)$, on définit par récurrence $u^n$ (avec $n\in \N$), $$u^0=\ide,~~\forall n\in \N,~~u^{n+1}=u\circ u^n.$$

On définit également la même chose pour une matrice $A\in \MM_n(\K)$.

Soit $u \in \mathscr{L}(E)$.

  1. la suite $\left(\Ker (u^k)\right)_{k\in \N}$ est croissante i.e. $\Ker(u^k) \subset \Ker(u^{k+1})$.
  2. si l'ensemble $\{k \in \N, \ \Ker(u^k) = \Ker(u^{k+1}) \}$ n'est pas vide, il admet alors un plus petit élément $p$, appelé indice de $u$.
    Et on a alors : $\begin{cases} \forall k \in \inter{0,p-1}, & \Ker(u^k) \subsetneq \Ker(u^{k+1})\\ \forall k \geqslant p, & \Ker(u^k)= \Ker(u^p) \end{cases}$
  3. Si $E$ est de dimension finie, alors pour tout endomorphisme $u \in \mathscr{L}(E)$, l'indice $p$ de $u$ existe, et $p \leqslant \dim E$.

Exemples

  1. Si $u\in \LL (E)$ est nilpotent, alors l'indice $p$ de $u$ existe. De plus si $\dim (E)< \infty$ alors $p\leq \dim (E)$.
  2. Soit $u : \ \begin{cases} \K [X] & \rightarrow \K [X] \\ P & \mapsto P' \end{cases}$ . Alors, pour tout $k \in \N^*$, $\Ker(u^k)= \K_{k-1}[X]$, donc l'indice de $u$ n'existe pas.
  3. Par contre, si l'on considère l'endomorphisme $v : \, \begin{cases} \K_n[X] & \rightarrow \K_n[X] \\ P & \mapsto P' \end{cases}$, alors son indice est égal à $n+1$ (car $v^{n+1}=0 \text{ et } v^n \neq 0$).

Soit $E$ un $\K$-e-v de dimension finie, et $u \in \mathscr{L}(E)$ d'indice $p$. Alors :

  1. $ \begin{cases} \forall k \in \inter{0,p-1}, & \im (u^{k+1}) \subsetneq \im (u^k) \\ \forall k \geqslant p, & \im (u^{k+1})= \im (u^k) \end{cases} $
  2. $E = \Ker(u^p) \oplus \im (u^p)$.

L'ensemble $\K[A]$

Soit $P=\dsp\sum_{i=0}^Na_iX^i\in \K[X]$. Pour $A\in \mathscr{M}_n(\K)$, on note $$P(A)=a_0I_n+a_1A+\cdots+a_NA^N,$$ et $P(A)$ est appelé un polynôme de matrice.

(CCINP 2021)

Soit $A\in \MM_n(\K)$, on définit $B\in \MM_{2n}(\K)$ par $B=\begin{pmatrix} A& 0_n\\ A&A \end{pmatrix}$. Soit $P\in \K[X]$, exprimer $P(B)$ en fonction de $P(A),\, P'(A)$.

Correction

Calculons $B^2$, $$B^2=\begin{pmatrix} A& 0_n\\ A&A \end{pmatrix}\begin{pmatrix} A& 0_n\\ A&A \end{pmatrix}=\begin{pmatrix} A^2& 0_n\\ 2A^2&A^2 \end{pmatrix}=\begin{pmatrix} A^2& 0_n\\ A\times (2A)&A^2 \end{pmatrix} .$$ Puis $$B^3=\begin{pmatrix} A^2& 0_n\\ 2A^2&A^2 \end{pmatrix}\begin{pmatrix} A& 0_n\\ A&A \end{pmatrix}=\begin{pmatrix} A^3& 0_n\\ 3A^3&A^3 \end{pmatrix} =\begin{pmatrix} A^3& 0_n\\ A\times (3A^2)&A^3 \end{pmatrix}.$$ On fait alors l'hypothèse: $$\forall k\in \N,\, B^k =\begin{pmatrix} A^k&0_n\\ A\times (kA^{k-1})&A^k \end{pmatrix} $$ La relation est vraie pour $k=1,2,3$. Soit $k\geq 1$ supposons que la relation est vraie au range $k$, alors $$B^{k+1} =BB^k=\begin{pmatrix} A& 0_n\\ A&A \end{pmatrix}\begin{pmatrix} A^k& 0_n\\ kA^{k} &A^k \end{pmatrix} =\begin{pmatrix} A^{k+1} & 0_n\\ (k+1)A^{k+1}& A^{k+1} \end{pmatrix} $$ Par linéarité, si $P =\dsum_{k=0}^N a_kX^k$, alors: $$P(B) =\begin{pmatrix} \dsum_{k=0}^N a_kA^k&0_n\\ A\times \dsum_{k=0}^N a_kkA^{k-1}&\dsum_{k=0}^N a_kX^k \end{pmatrix} =\begin{pmatrix} P(A)&0_n\\ A P'(A)& P(A) \end{pmatrix}.$$

Soient $n\in \N$ et $A \in \MM_n(\K)$. L'application $$\varphi_A : \begin{cases} \ \ \ \K[X] & \longrightarrow \MM_n(\K) \\ P = \dsp \sum_{k=0}^{\deg (P)}{a_k X^k} & \longmapsto P(A) = \dsp \sum_{k=0}^{ \deg (P)}{a_k A^k} \end{cases}$$ est linéaire, de plus, $$\forall P,Q\in \K[X],\quad \varphi_A(PQ)=Q(A)P(A)=P(A)Q(A).$$

(Centrale 2018)

Soient $A,\,B\in \MM_n(\K)$ telles que $AB=BA$. Montrer que si $P,\,Q\in \K[X]$ alors $P(A)$ et $Q(B)$ commutent.

Correction

Supposons que $A$ et $B$ commutent. On a alors $$A^2B=A.AB=A.BA=AB.A=BA.A=BA^2,$$ puis par récurrence immédiate, $$\forall k\in \N,\quad A^kB=BA^k.$$ Par distributivité, $B$ commute ensuite avec tout polynôme en $A$.
En échangeant les rôles entre $B$ et $A$ : si $Q\in\K[X]$ alors $Q(B)$ commute avec $A$ d'après ce qui précède, donc avec tout polynôme en $A$ !
On en déduit alors, si $A$ et $B$ commutent et $P,Q\in\C[X]$, alors $P(A)$ et $P(B)$ commutent.

Soit $P=\dsp\sum_{i=0}^Na_iX^i\in \K[X]$. Pour $u\in \mathscr{L}(E)$, on note $$P(u)=a_0\ide+a_1u+\cdots+a_Nu^N,$$ et $P(u)$ est appelé un polynôme d'endomorphisme.

Soient $n\in \N$ et $u \in \LL(E)$. L'application $$\varphi_u : \begin{cases} \ \ \ \K[X] & \longrightarrow \LL(E) \\ P = \dsp \sum_{k=0}^{\deg (P)}{a_k X^k} & \longmapsto P(u) = \dsp \sum_{k=0}^{\deg (P)}{a_k u^k} \end{cases}$$ est linéaire, de plus, $$\forall P,Q\in \K[X],\quad \varphi_u(PQ)=P(u)\circ Q(u)=Q(u)\circ P(u).$$

Soit $E$ un $\K$-e-v, et $u,v \in \mathscr{L}(E)$, tels que $u \circ v = v \circ u$. Alors :

  1. $\im u$ et $\Ker u$ sont stables par $v$.
  2. Pour tout $P \in \R[X]$, $\im (P(u))$ et $\Ker(P(u))$ sont stables par $v$.
  3. Pour tout $Q \in \R[X]$, $\im u$ et $\Ker u$ sont stables par $Q(v)$.
  4. Pour tous $P,Q \in \R[X]$, $\im (P(u))$ et $\Ker(P(u))$ sont stables par $Q(v)$.

($\K[u]$) En reprenant les notations du théorème précédent : $\im (\varphi_u) = \{ P(u) \ , \ P \in \K[X]\}$ est une s-e-v de $\mathscr{L}(E)$. De plus, pour tous $P,Q \in \K[X]$ : $$P(u) \circ Q(u) = (PQ)(u) =(QP)(u) = Q(u) \circ P(u).$$ $\im (\varphi_u)$ se note $\K[u]$, et est appelée l'algèbre des polynômes de l'endomorphisme $u$.

($\K[A]$) On définit également, pour $A\in \MM_n(\K)$, l'ensemble : $$\K[A]=\im (\varphi_A)=\{ P(A) \ , \ P \in \K[X]\}$$ $\K[A]$ est appelée l'algèbre des polynômes de la matrice $A$.

Polynôme annulateur

Polynôme annulateur

  1. Soient $u\in \LL (E)$ et $P\in \K[X]$. On dit que $P$ est un polynôme annulateur de $u$ (ou $P$ annule $u$) si $P(u)=0$.
    on note $Ann(u)=\Ker(\varphi_u)=\{P \in \K[X] \, , \, P(u)= 0 \}$.
  2. Soient $A\in \mathscr{M}_n(\K)$ et $P\in \K[X]$. On dit que $P$ est un polynôme annulateur de $A$ (ou $P$ annule $A$ ) si $P(A)=0$.
    on note $Ann(A)=\Ker(\varphi_A)=\{P \in \K[X] \, , \, P(A)= 0 \}$.


Soit $f$ un endomorphisme d'un espace vectoriel $E$ de dimension $n$.

  1. Montrer que $(\ide ,f,f^2 , \ldots ,f^{n^2 } )$ est liée.
  2. En déduire qu'il existe un polynôme non identiquement nul qui annule $f$.

Correction

On suppose que $f\neq 0$ (le cas $f=0$ est trivial).
On sait que $\dim (\mathscr{L}(E))=\dim(E)^2=n^2$, la famille $\{f^j,\,j\in \inter{0,n^2}\}$ comporte $n^2+1$ éléments donc c'est une famille liée dans $\mathscr{L}(E)$.
On en déduit qu'il existe $\alpha_0,\cdots,\alpha_{n^2}\in \K$ non tous nuls tels que $\dsum_{k=0}^{n^2}\alpha_jf^j=0$. On pose alors $P(X)=\dsum_{k=0}^{n^2}\alpha_kX^k$ alors $P\neq 0$ et $P(f)=0$.

CCINP 2023

Soient $a,\,b\in \C$. On considère la matrice $$M(a,b)=\begin{pmatrix} b&a&a&\cdots&a\\ a&b&a&\cdots&a\\ \vdots&\ddots&\ddots&\ddots&\vdots\\ a&\cdots&a&b&a\\ a&\cdots&a&a&b \end{pmatrix}.$$

  1. On définit le polynôme $Q_{a,b}\in \C[X]$ par $Q_{a,b}(X)=(X-(b-a))(X-(b+(n-1)a))$. Montrer que $Q_{a,b}$ est un polynôme annulateurde $M(a,b)$ et en déduire que $M(a,b)$ est diagonalisable (on distinguera les cas $a=0 $ et $a\neq 0$).
  2. Soit $k\in \N^*$. On suppose que $a\neq 0$. Déterminer le reste de la division euclidienne du polynôme $X^k$ par le polynôme $Q_{a,b}$ et en déduire une expression de $M(a,b)^k$ comme combinaison linéaire de $M(a,b)$ et de $I_n$.
  3. Supposons que $|b-a| < 1$ et $|b+(n-1)a|< 1$.Déterminer la limite de la suite de matrices $(M(a,b)^k)_{k\in N}$.

Correction

  1. On note $J\in \MM_n(\C)$ la matrice tel que les coefficients de $J$ sont égales à $1$. Un calcul simple donne $J^2=nJ$. Puis, on écrite, pour tout $(a,b)\in \C^2$, $$M(a,b)=(b-a)I_n+aJ \Longrightarrow M(a,b)^2 = (b-a)^2I_n +2a(b-a)J +a^2J^2=(b-a)^2I_n+(2a(b-a)+na^2)J.$$ On écrit ensuite (on note $M=M(a,b)$ pour simplifier l'écriture): $$ \begin{array}{lcl} M^2&=& (b-a)^2I_n +a(b-a)J + (b-a+na)(aJ)\\ &=& (b-a)M +(b+(n-1)a) \left(aJ+(b-a)I_n-(b-a)I_n\right)\\ &=& (b-a)M +(b+(n-1)a)M - (b+(n-1)a)(b-a)I_n \end{array} $$ Ce qui donne, $$0 = M^2- ((b-a)+(b+(n-1)a))M +(b+(n-1)a)(b-a)I_n =(M-(b-a)I_n)(M-(b+(n-1)a)I_n) =Q_{a,b}(M)$$ Ainsi, $Q_{a,b}$ est un polynôme annulateur de $M(a,b)$.
    Si $a=0$ alors $M(0,b)=bI_n$ est diagonale donc diagonalisable :). Si $a\neq 0$ alors $M(a,b)$ admet un polynôme annulateur scindé à racine simple donc d'après le cours elle est diagonalisable
  2. D'après le théorème de la division euclidienne dans $\C[X]$, il existe un unique couple $(P,R)\in \C^2[X]$ tel que $$X^k = P Q_{a,b}+R \text{ et } \deg(R) < \deg(Q_{a,b})$$ donc il existe un unique couple $(\alpha,\,\beta)\in \C^2$ tels que $$X^k = P Q_{a,b}+\alpha X +\beta\Longrightarrow \forall z\in \C,\quad z^k = P(z)Q_{a,b}(z)+\alpha z+\beta$$ Ce qui donne, pour $z=b-a$ puis $z= b+(n-1)a$, $$\left\{ \begin{array}{lcl} (b-a)\alpha +\beta &=& (b-a)^k\\ &&\\ (b+(n-1)a)\alpha +\beta &=& (b+(n-1)a)^k \end{array} \right. \Longrightarrow \left\{\begin{array}{lcl} \alpha &=& \dfrac{(b+(n-1)a)^k-(b-a)^k}{na},\quad\quad (a\neq 0)\\ &&\\ \beta &=& \dfrac{(b-a)^k(b+(n-1)a)-(b+(n-1)a)^k(b-a)}{na} \end{array} \right. $$ On en déduit alors $$M(a,b)^k = \dfrac{(b+(n-1)a)^k-(b-a)^k}{na} \,M(a,b)+ \dfrac{(b-a)^k(b+(n-1)a)-(b+(n-1)a)^k(b-a)}{na}\,I_n.$$
  3. Puisque $\abs{b-a} < 1$ alors $(b-a)^k\tendvers{k}{\infty}\,0$, de même $(b+(n-1)a)^k\tendvers{k}{\infty}0$. Ce qui donne $M(a,b)^k \tendvers{k}{\infty} 0$.

(Polynôme minimal) Soit $u\in \LL(E)$

  1. soit $\varphi_u$ est injective, et $Ann(u)=\{0\}$.
  2. soit $\varphi_u$ n'est pas injective : il existe alors un et un seul polynôme normalisé (non nul), noté $\Pi_u$, tel que $Ann(u)$ soit exactement l'ensemble des polynômes multiples de $\Pi_u$.

$\Pi_u$ s'appelle alors le polynôme minimal de $u$.

Remarques

  1. Le polynôme minimal d'un endomorphisme $u$ (s'il existe) est donc caractérisé par : $\begin{cases} \Pi_u \neq 0 \textrm{ et } \Pi_u \textrm{ normalisé} \\ \Pi_u(u) = 0_{\mathscr{L}(E)} \\ \forall P \in \K[X], \ P(u)= 0_{\mathscr{L}(E)} \Rightarrow P \textrm{ multiple de } \Pi_u \end{cases}$
  2. Le polynôme minimal d'une matrice $M$ est donc caractérisé par : $\begin{cases} \Pi_M \neq 0 \textrm{ et } \Pi_M \textrm{ normalisé} \\ \Pi_M(M) = 0_{\MM_n(\K)} \\ \forall P \in \K[X], \ P(M)= 0_{\MM_n(\K)} \Rightarrow P \textrm{ multiple de } \Pi_M \end{cases}.$
  3. Le polynôme minimale ne fait plus partie de nouveau programme de PSI.

Exemples

  1. Si $p$ est un projecteur de $E$, $p\neq 0$ et $p\neq Id_E$, le polynôme minimal de $p$ est : $X^2-X$.
  2. Si $s$ est une symétrie de $E$, $s\neq Id_E$ et $s\neq -Id_E$, le polynôme minimal de $s$ est : $X^2-1$.
  3. Le polynôme minimal d'un endomorphisme nilpotent d'indice $p$ est : $X^p$.
  4. Un endomorphisme peut ne pas posséder de polynôme minimal. Exemple : l'endomorphisme $u$ de $\K[X]$ qui à tout polynôme $P$ associe son polynôme dérivé $P'$.

  1. Si $E$ est un $\K$-ev de dimension finie, tout endomorphisme $u \in \mathscr{L}(E)$ possède un polynôme minimal.
  2. Soient $n\in \N^*$ et $A\in \MM_n(\K)$, $A$ possède un polynôme minimal.

  1. Si deux matrices carrées $A$ et $A'$ sont semblables, alors $\Pi_A=\Pi_{A'}$. Plus généralement, si $P$ est un polynôme annulateur de $A$ alors $P(A')=0$.
  2. Si $A\in \MM_n(\K)$, $\Pi_A=\Pi_{^t A}$. Plus généralement, si $P$ est un polynôme annulateur de $A$ alors $P({^t A})=0$.