Réduction II
Polynôme de matrice
($\star$)
Correction
Soit $n\in \N^*$ et $A=(a_{ij})\in \MM_n(\C)$. On suppose que: $\forall (i,j,k)\in
\inter{1,n}^3,~~~~a_{i\,k}a_{k\,j}=a_{i\,j}a_{k\,k}.$
-
Calculer $A^2$, en déduire un polynôme annulateur de $A$.
-
Étudier la diagonalisibilité de $A$.
Correction
Notons $A^2=(b_{i\,j})$, on a:
$$\forall i,j\in
\inter{1,n},~~b_{i\,j}=\sum_{k=1}^na_{i\,k}a_{k\,j}=a_{i\,j}\sum_{k=1}^na_{k\,k}=\tr(A)a_{i\,j}.$$
On en déduit que $\boxed{A^2=\tr(A)A}$.
Donc le polynôme $X^2-\tr(A)X$ est un polynôme annulateur de $A$.
-
Si $\tr(A)=0$ alors $A$ n'est pas diagonalisable (sauf si $A=0$).
-
Si $\tr(A)\neq 0$ alors $A$ est diagonalisable puisqu'elle admet un polynôme annulateur scindé à
racines
simples.
($\star\star$)
Correction
Soit $a>0$. Soit $A\in\MM_n(\R)$. On suppose que $A^3+aA^2+4A+aI_n=0$.
Que peut-on dire du signe de la trace de $A$ ?
Correction
le polynôme $P=X^3+aX^2+4X+a$ est un polynôme annulateur de $A$, donc les valeurs propres de $A$ sont
inclus dans l'ensemble des racines de $P$.
$P$ a au moins une racine réelle $\alpha< 0$ (car pour $x\geq 0,~~P(x)>0$). On distingue deux cas:
-
Les racines de $P$ sont réelles, dans ce cas ses racines sont strictement négatives. Donc $\tr
(A)< 0$.
-
$P$ admet une racine complexe $\lambda$, alors $\overline{\lambda}$ est une racine de $P$. i.e.
$P=(x-\alpha)(x-\lambda)(x-\overline{\lambda})$, ce qui donne:
$$P=(x-\alpha)(x^2-2\re(\lambda)x+\abs{\lambda}^2)=x^3-(\alpha+2\re(\lambda))x^2+
(2\alpha\re(\lambda)+\abs{\lambda}^2)x-\alpha\abs{\lambda}^2$$
Les relations entre les racines de $P$ et ses coefficient nous donne:
$$\begin{array}{lcl}
\left\{\begin{array}{ll}
\alpha+2\re (\lambda)&=-a\\
\alpha\abs{\lambda}^2&=-a\\
2\alpha\re(\lambda)+\abs{\lambda}^2&=4
\end{array}
\right.&\Longrightarrow&\left\{\begin{array}{ll}
\alpha+2\re (\lambda)&=-a\\
\alpha\abs{\lambda}^2&=-a\\
2\alpha^2\re(\lambda)+ \alpha\abs{\lambda}^2&=4\alpha
\end{array}
\right.
\end{array}$$
Comme $\alpha\abs{\lambda}^2=-a= \alpha+2\re (\lambda)$, en remplacant dans la 3eme équation, on obtient
$$2\alpha^2\re(\lambda)+\alpha+2\re \lambda=4\alpha \Longrightarrow \re \lambda =\dfrac{3\alpha}{2(\alpha^2+1)}< 0 $$
Puisque la racine réelle $\alpha$ est strictement négative. Donc si $\lambda$ est une v.p de $A$
d'ordre $p$ alors
$\overline{\lambda}$ l'est aussi, on en déduit que
$$\tr (A)=(n-2p)\alpha+p\lambda+p\overline{\lambda}=(n-2p)\alpha+2p\re(\lambda)< 0.$$
Dans tous les cas, on trouve que $\boxed{\tr (A)< 0\,}$.
(X PC 2000)
Correction
Soit $A\in\MM_n(\R)$ tel que $A ^3-3A+4I_n=0$. Déterminer le signe de $\det A$.
Correction
Un polynôme annulateur de $A$ est
$X^3-3X+4=(X-\lambda)(X-\mu)(X-\bar\mu)$, où $\lambda$ est une racine
réelle $\lambda< 0$. On en déduit que
\begin{equation*}
\det(A)=\lambda^p\cdot \mu^q(\bar\mu)^{q}=\lambda^p\abs{\mu}^{2q},
\end{equation*}
où $p=n-2q$. Ainsi, $\det A$ est du signe de $(-1)^{p}=(-1)^n$ :
Le signe de $\det A$ est celui de $(-1)^n$.
($\star\star$)
Correction
Soit $A\in\MM_5(\R)$ telle que $12\,A^3-8A^2+7A -I_5=0$. Montrer que $0< \tr A< 2$.
Correction
Le polynôme $12\,X^3-8\,X^2+7X-1$ n'a qu'une seule racine réelle, qui est
$1/6$. Il possède deux autres racines conjuguées~$\lambda$ et
$\overline{\lambda}$.
Le relations entre les racines et les coefficient d'un polynôme nous donne:
$$\dfrac{1}{6}+\lambda+\overline{\lambda}=\frac{8}{12}\Longrightarrow 2\re (\lambda)=\dfrac{1}{2}$$
Les valeurs propres de $A$ sont inclus dans l'ensemble $\{1/6,\lambda,\overline{\lambda}\}$. On
distingue 3 cas:
-
$1/6$ est une v.p d'ordre 5, dans ce cas : $\tr (A)=\frac{5}{6}\in ]0,2[$
-
$1/6$ est une v.p d'ordre 3, dans ce cas : $\tr (A)=\frac{3}{6}+2\re(\lambda)=\frac{6}{6}\in
]0,2[$
-
$1/6$ est une v.p d'ordre 1, dans ce cas : $\tr (A)=\frac{1}{6}+4\re(\lambda)=\frac{7}{6}\in
]0,2[$
(CCP PC 2003)
Correction
Soit $A\in\MM_2(\Z)$ une matrice à coefficients entiers et de déterminant $1$. On suppose qu'il existe
$p\in\N^*$ tel que $A^p=I_2$.
- Montrer que $A$ est diagonalisable dans $\MM_2(\C)$.
- Montrer que $A^{12}=I_2$.
Correction
-
Le polynôme $X^p-1$ est scindé dans $\C$ à racine simple donc $A$ est diagonalisable.
-
Les valeurs propres de~$A$ sont des racines $p$-ièmes de l'unité ;
leur produit vaut~$1$ donc on n'a que deux choix :
- elles sont soit toutes réelles (donc valant $-1$ ou $1$) dans
quel cas $A^2=I_2$ ;
- elles sont conjuguées deux à deux, mais puisque la trace est
réelle et entière, ces valeurs propres ont une partie réelle entière
ou demi-entière, donc
$\Sp(A)=\{-\ii,\ii\}$, et dans ce cas on a $A^4=I_2$, ou bien
$\Sp(A)=\{\pm j,\pm \bar{j}\}$ et alors $A^3=I_2$ (resp. $A^6=I_2$).
Dans tous les cas, on a bien $A^{12}=I_2$.
(CCP PC 2001)
Correction
Soit $f\in\LL(\C^n)$. Soit $b\in\C$ tel que $(f-b\mathrm{Id})^3=0$. On suppose que $f$ n'est pas une
homothétie.
-
Montrer que $f$ n'est pas diagonalisable.
-
Soit $P\in\C[X]$. Montrer l'équivalence
\begin{equation*}
\big( P(f)\in\mathrm{GL}(\C^n)\big)\text{ ssi } \big(P(b)\neq 0\big).
\end{equation*}
Correction
-
Si $f$ était diagonalisable, en écrivant sa matrice dans une base
propre on aurait $f=b\mathrm{Id}$.
-
L'endomorphisme $f$ n'admet que $b$ comme valeur propre :
$\Sp(f)=\{b\}$. Il existe alors une base $\BB$ de $\C^n$ telle que la matrice de $f$ dans $\BB$
est de la
forme $\begin{pmatrix}
b & & &\\
&\ddots & \star& \\
& (0) &\ddots&\\
& & &b
\end{pmatrix}$, donc
$$\forall P\in \C[X],\,\, M_{\BB}(P(f))= \begin{pmatrix}
P(b) & & &\\
&\ddots & \star& \\
& (0) &\ddots&\\
& & &P(b)
\end{pmatrix}$$
(CCP PSI 2004)
Correction
Soit $u$ un endomorphisme de rang $r$ d'un espace vectoriel de dimension finie. Trouver un polynôme
annulateur de $u$ de degré au plus $r+1$.
Correction
On choisit une base~$(e_1,\cdots,e_{n-r})$ de $\Ker u$, on la complète pour obtenir une
base $\BB=(e_1,\cdots,e_n)$ de $E$. Alors $\MM_\BB(u)=\begin{pmatrix}
0 & A\cr
0 & B\cr\end{pmatrix}$ où $B$ est carrée avec $r$ lignes, et $B$ est inversible car son rang vaut $r$.
On trouve facilement par récurrence que
$$\forall k\in\N^\ast,\quad M^k=\begin{pmatrix}
0 & AB^{k-1}\cr
0 & B^k\cr\end{pmatrix},$$
d'où en prenant le polynôme~$P=X\cdot\chi_B(X)$ alors $\deg P\le r+1$ et $P(B)=0$, de plus
$$P(M)=\begin{pmatrix}
0 & AB^{-1} P(B)\cr
0 & P(B)\cr\end{pmatrix}=0.$$
(CCP PSI 2007)
Correction
-
Montrer que, si $u$ est un endomorphisme de $\R^3$ vérifiant $u^3+u=0$, il n'est pas bijectif.
-
Montrer que $\R^3=\Ker u \oplus \im u$, que $\Ker u= \im(u^2+\mathrm{Id})$ et que $\im u =
\Ker(u^2+\mathrm{Id})$.
-
Montrer que $\rg u =2$ et qu'il existe une base de $\R^3$ où sa matrice est
$\begin{pmatrix}0&0&0\\0&0&-1\\0&1&0\end{pmatrix}$.
Correction
-
Supposons que $u$ est injective, alors $u\circ (u^2+\mathrm{Id}e)=0$. Ce qui implique que $\im
(u^2+\mathrm{Id}e)\subset
\Ker (u)=\{0\}$ soit $u^2=-\mathrm{Id}e$ ce qui impossible (car on aurait $\det(u)^2=-1$).
Donc $ u$ n'est pas injective.
- Il suffit de montrer que $\im(u)\cap \Ker (u)=\{0\}$ puisque d'après le théorème du rang,
$\dim(\R^3)=\dim (\im(u))+\dim(\Ker(u))$.
Soit $x\in \im(u)\cap \Ker (u)$, on a:
$$\exists z\in \R^3, ~~\left\{\begin{array}{l}
x=u(z)\\
u(x)=0
\end{array}
\right.\Longrightarrow u^3(z)+u(z)=0\Longrightarrow u(u(x))+u(z)=0\Longrightarrow
u(z)=0\Longrightarrow x=0.
$$
Donc $\boxed{\R^3=\im(u)\oplus \Ker(u)}$.
Puisque $u^3+u=u\circ(u^2+\mathrm{Id}e)=(u^2+\mathrm{Id}e)\circ u=0$, alors on a facilement
$\left\{\begin{array}{l}
\im(u^2+\mathrm{Id}e)\subseteq\Ker(u)\\
\im(u)\subseteq \Ker(u^2+\mathrm{Id}e)
\end{array}
\right.$. Soit $x\in \Ker(u^2+\mathrm{Id}e)$ alors $x=-u^2(x)=u(-u(x))$ donc $x\in \im (u)$ ce
qui montre que
$\boxed{\im(u)=\ker(u^2+\mathrm{Id}e)}$.
Pour montrer l' égalité demandées il faut montrer que
$\dim(\Ker(u))=\dim(\im(u^2+\mathrm{Id}e))$
et $\dim(\im(u))=\dim(\Ker(u^2+\mathrm{Id}e))$.
$$\dim(\Ker(u))=3-\dim(\im(u))= 3-\dim(\Ker(u^2+\mathrm{Id}e))=\dim(\im(u^2+\mathrm{Id}e))$$
soit $$\boxed{\im(u^2+\mathrm{Id}e)=\Ker(u)}.$$
- On suppose que $u\neq 0$ (sinon ça ne marche pas!!). Soit $x\in \im(u)$ non nul,
on va montrer que
$\{x,u(x)\}$ est une famille libre.
Notons d'abord que $u(x)\neq 0$ car $x=u(z)$ et si $u(x)=0$ ceci implique que $u^2(z)=0$
soit $u^3(z)+u(z)=u(z)=x=0$ ce qui est impossible. .
Supposons que $x=\alpha u(x)$ avec $\alpha\in \R$, alors (en utilisant le faite que $x\in
\Ker(u^2+\mathrm{Id}e)$)
$$u(x)=\alpha u^2(x)=-\alpha x=-\alpha^2 u(x)\Longrightarrow \alpha^2=-1 \text{ impossible}$$
Donc $\{x,u(x)\}$ est libre. ceci implique que $\rg(u)\geq 2$ et comme $\dim(\Ker(u))\geq 1$
alors
$\boxed{\rg(u)=2}$.
Pour terminer la question, il suffit de prendre $z\in \Ker(u)$ non nul, et donc $(z,x,u(x))$ est
une base de
$\R^3$, et la matrice de $u$ dans cette base est
$\begin{pmatrix}0&0&0\\0&0&-1\\0&1&0\end{pmatrix}$.
($\star\star$)
Correction
Soit $A\in \MM_n(\R)$ telle que $3A^3=A^2+A+I_n$. Montrer que la suite $(A^k)_{k\in \N}$ converge vers
une matrice de projection.
Correction
La matrice $A$ admet $P(X)=3X^3-X^2-X-1$ comme polynôme annulateur, or
$$P(X)=3(X-1)(X-\alpha)(X-\overline{\alpha}),\,\text{ avec }\alpha=\dfrac{-1+\ii
\sqrt{3}}{3}\Longrightarrow \Sp(A)\subset\{1,\alpha,\overline{\alpha}\}.$$
Comme $P$ est scindé à racines simple alors $A$ est diagonalisable dans $\MM_n(\C)$, donc $A$ est
semblable (dans $\MM_n(\C)$) à $\begin{pmatrix}
I_p&0&0\\
0&\alpha I_q&0\\
0&0&\overline{\alpha}I_q
\end{pmatrix}$ avec
-
$p$ est l'ordre de multiplicité de $1$, $p\in \inter{0,n}$.
-
$q$ est l'ordre de multiplicité de $\alpha$ (qui est le même pour $\overline{\alpha}$), on a
$q\in \inter{0,n}$ et $p+2q=n$.
Supposons que $A=P\begin{pmatrix}
I_p&0&0\\
0&\alpha I_q&0\\
0&0&\overline{\alpha}I_q
\end{pmatrix}P^{-1}$ avec $P\in GL_n(\C$, alors puisque $\abs{\alpha}< 1$, on en déduit:
$$
\forall k\in \N,\,A^k=P\begin{pmatrix}
I_p&0&0\\
0&\alpha^k I_q&0\\
0&0&\overline{\alpha}^kI_q
\end{pmatrix}P^{-1}\tendvers{k}{\infty}P\begin{pmatrix}
I_p&0&0\\
0&0&0\\
0&0&0
\end{pmatrix}P^{-1}$$
Donc $A^k$ converge vers:
-
$I_n$ si $\Sp (A)=\{1\}$.
-
La matrice nulle si $\Sp(A)=\{\alpha,\overline{\alpha}\}$.
-
La matrice de projection sur l'espace $\Ker (A-I_n)$ parallèlement à $\Ker (A-\alpha I_n)\oplus
\Ker(A-\overline{\alpha}I_n)$ si $\Sp(A)=\{1,\alpha,\overline{\alpha}\}$.
($\star$)
Correction
Soient $A,B,M \in \MM_n (\mathbb{C})$ telles que $AM = MB$ avec $M \ne 0_n $
-
Montrer que pour tout $P \in \mathbb{C}\left[ X \right]$, on a $P(A)M = MP(B)$.
-
Montrer que $A$ et $B$ ont une valeur propre en commun.
Correction
-
Puisque $AM=MB$ alors en multipliant cette relation par $A$, on obtient,
$A^2M=ABM$ or $A^2M=A(AM)=(AM)B=MB^2$, donc par récurrence sur $k\in \N$, on montre:
$$\forall k\in \N,\quad A^kM=MB^k$$
Puis par linéarité, pour tout $P\in \C[X],\quad P(A)M=MP(B)$.
-
Supposons que $\Sp(A)\cap\Sp(B)=\emptyset$ alors $\chi_A(B)$ est une matrice inversible. Donc en
utilisant la uestion précédente avec $P=\chi_A$, on trouve:
$$0_n=\chi_A(A)M=M\chi_A(B)\Longrightarrow M=0 $$
ce qui est impossible, donc $\Sp(A)\cap\Sp(B)\neq \emptyset$
($\star$)
Correction
- Soit $u$ un endomorphisme inversible d'un $\mathbb{K}$-espace vectoriel $E$ de dimension finie.
Montrer qu'il existe un polynôme $Q \in \mathbb{K}\left[ X \right]$ vérifiant $u^{ - 1} = Q(u)$.
- Soit $u$ l'endomorphisme de $\mathbb{K}\left[ X \right]$ qui envoie le polynôme $P(X)$ sur
$P(2X)$.
Montrer que $u$ est un automorphisme et déterminer ses éléments propres. Existe-t-il
$Q \in \mathbb{K}\left[ X \right]$ tel que $u^{ - 1} = Q(u)\text{~?}$.
Correction
-
D'après le théorème de Cayley-Hamilton, on a
$$0=\chi_u(u)=(-1)^nu^n+(-1)^{n-1}\tr(u)u^{n-1}+\cdots+a_1u+ \det(u)\mathrm{Id}e$$
donc
$u\circ((-1)^nu^{n-1}+(-1)^{n-2}\tr(u)u^{n-1}+\cdots+a_1\mathrm{Id}e)=-\det(u)\mathrm{Id}e$,
comme $\det(u)\neq 0$ puisque $u$ est inversible, alors:
$$u\circ(\dfrac{(-1)^nu^{n-1}+(-1)^{n-2}\tr(u)u^{n-1}+\cdots+a_1\mathrm{Id}e}{-\det(u)})=\mathrm{Id}e\Longrightarrow
u^{-1}=Q(u)$$
avec $Q(X)=\dfrac{\chi_u(X)-\det(u)}{-\det(u)X}$.
-
Notons $\varphi$ l'endomorphisme définie sur $\K[X]$ par $\varphi(P)=P(2X)$. Il est clair que
$\varphi$ est inversible, de plus $\varphi^{-1}(P)=P(X/2)$. De plus,
$$\Sp(\varphi)=\{2^n,\,n\in \N\},\text{ et } \Sp (\varphi^{-1})=\{1/2^n,\,n\in \N\}.$$
Supposons qu'il existe $Q\in \K[X]$ tel que $\varphi^{-1}=Q(u)$, on aurait alors $\varphi
Q(\varphi)-\mathrm{Id}e =0$,
autrement dit
$P=XQ(X)-1$ est un polynôme anuulateur de $\varphi$, or d'après le cours pour tout $\lambda\in
\Sp(\varphi),\,
P(\lambda)=0$, i.e. $P$ admettrait une infinité de racine, ce qui implique $P=0$, soit $XQ(X)=1$
ce qui impossible.
Donc, on ne peut pas trouver $Q\in \K[X]$ tel que $\varphi^{-1}=Q(\varphi)$.
($\star\star\star$)
Correction
Soit $E$ un $\K$-ev de dimension finie et $u \in \LL(E)$.
-
On suppose $u$ diagonalisable et on note $\lambda_1,\dots,\lambda_p$ ses valeurs propres
distinctes.
- Montrer qu'il existe des endomorphismes $u_1,\dots,u_p$ tels que pour tout
polynôme $P \in \K[X]$, on a: $P(u) = \dsum_{i=1}^p P(\lambda_i) u_i$.
- Montrer qu'il existe un polynôme $P_i$ tel que $u_i = P_i(u)$.
-
Réciproquement, soit $u,u_1,\dots,u_p\in\LL(E)$ et $\lambda_1,\dots,\lambda_p\in \K$
tels que pour tout $P\in \K[X]$, $P(u) = \dsum_{i=1}^p P(\lambda_i) u_i$.
Montrer que $u$ est diagonalisable et $\mathrm{Sp}(u) \subset \{\lambda_1,\dots,\lambda_p\}$.
Correction
- Puisque $u$ est diagonalisable alors le polynôme
$\Pi(X)=\dsp\prod_{k=1}^p (X-\lambda_k)$ est un polynôme annulateur de $u$(
c'est le polynôme minimal).
Pour tout $P\in \K[X]$ il existe un unique couple $(R,Q)\in \K[X]^2$ tel que
$$ P(X)=Q(X)\Pi (X)+R(X),\quad \text{ avec }\deg (R)< \deg (\Pi) \quad\quad
\textcolor{blue}{(\star)}$$
on considère ensuite $(P_1,\cdots,P_p)$ la base de $\K_{p-1}[X]$ définieé par,
$$\forall k\in \inter{1,p},\quad P_k(X) =\prod_{1\leq j \neq k \leq
n}\dfrac{X-\lambda_j}{\lambda_k-\lambda_j}$$
on sait d'après le cours,
$$\forall P\in \K_{p-1}[X],\quad P(X)=P(\lambda_1)P_1(X)+\cdots
+P(\lambda_p)P_p(X)=\dsum_{k=1}^p P(\lambda_k)P_k(X).$$
En utilisant la relation $\textcolor{blue}{(\star)}$, on obtient:
$$\forall P\in \K[X],\quad \exists !(Q,R)\in \K[X]\times \K_{p-1}[X],\,P(X)=Q(X)\Pi (X)+R(X) =
Q(X)\Pi (X) +
\dsum_{k=1}^p P(\lambda_k)P_k(X).$$
Puis, vu que $\Pi(u)=0$,
$$\forall P\in \K[X],\quad P(u)=Q(u)\Pi (u)+R(u) = \dsum_{k=1}^n P(\lambda_k)P_k(u)$$
Pour terminer, on pose $u_k=P_k(u)$.
- Supposons que pour tout $P\in \K[X]$, on a $P(u)=\dsum_{k=1}^p P(\lambda_k)u_k$, en
particulier, si on pose
$P =(X-\lambda_1)\cdots (X-\lambda_p)$, alors
$$P(u)= \dsum_{k=1}^p P(\lambda_k)u_k =\dsum_{k=1}^p 0 u_k=0$$
donc $u$ admet un polynôme annulateur scindé à racines simples, donc d'après le cours $u$ est
diagonalisable, et évidement
$\Sp (u)\subset\{$ les racines de $P\}$.
(Mines PSI 2018)
Correction
Soit $f\in \LL(\C^n)$ ($n\geq 3$).
-
On suppose que $\rg (f)=2$. Exprimer $\chi_f$ en fonction de $\tr(f)$ et $\tr(f^2)$.
-
On suppose que $\rg (f)=3$. Exprimer $\chi_f$ en fonction de $\tr (f),\,\tr(f^2)$ et $\tr
(f^3)$.
Correction
-
Comme $\rg (f)=2$ alors $0$ est une valeur propre d'ordre $n-2$. Ainsi, il existe
$\lambda_1,\,\lambda_2\in \C$ (éventuellement égaux), tel que
$$\chi_f(\lambda)= (-1)^n \lambda^{n-2}(\lambda-\lambda_1)(\lambda-\lambda_2) = (-1)^n
\lambda^{n-2}\left(\lambda^2- (\lambda_1+\lambda_2)\lambda +\lambda_1\lambda_2\right).$$
De plus, on a
$$\tr (f)= \lambda_1+\lambda_2,\,\,\tr (f^2)=\lambda_1^2+\lambda_2^2 \Longrightarrow
\lambda_1\lambda_2=\dfrac{\tr (f)^2-\tr(f^2)}{2}$$
Ce qui donne finalement,
$$\boxed{\chi_f(\lambda)= (-1)^n \lambda^{n-2}\left(\lambda^2- \tr (f) \lambda +\dfrac{\tr
(f)^2-\tr (f^2)}{2}\right)}.$$
-
Comme dans le cas précédent, on peut écrire:
$$\begin{array}{lcl}
\chi_f(\lambda)&=& (-1)^n
\lambda^{n-3}(\lambda-\lambda_1)(\lambda-\lambda_2)(\lambda-\lambda_3)\\
&=&(-1)^n
\lambda^{n-3}\left(\lambda^3-(\lambda_1+\lambda_2+\lambda_3)\lambda^2+(\lambda_1\lambda_2+\lambda_1\lambda_3+\lambda_2\lambda_3)\lambda-
\lambda_1\lambda_2\lambda_3\right)
\end{array}$$
or,
$$\tr (f)=\lambda_1+\lambda_2+\lambda_3,\quad
\lambda_1\lambda_2+\lambda_1\lambda_3+\lambda_2\lambda_3 =\dfrac{\tr (f)^2-\tr (f^2)}{2}$$
puisque $\tr (f^2)= \lambda_1^2+\lambda_2^2+\lambda_3^2$. Un calcul passionnant nous donne
$$\begin{array}{lcl}
\lambda_1\lambda_2\lambda_3&=&\dfrac{1}{6}\left( (\lambda_1+\lambda_2+\lambda_3)^3+2
(\lambda_1^3+\lambda_2^3+\lambda_3^3)-3
(\lambda_1+\lambda_2+\lambda_3)(\lambda_1^2+\lambda_2^2+\lambda_3^2)\right)\\
&=&\dfrac{1}{6}\left( \tr (f)^3+2 \tr (f^3) -3 \tr(f) \tr (f^2)\right).
\end{array}$$
Ce qui donne finalement,
$$\boxed{\chi_f(\lambda)= (-1)^n \lambda^{n-3}\left(\lambda^3- \tr (f) \lambda^2 +\dfrac{\tr
(f)^2-\tr (f^2)}{2}\lambda -
\dfrac{1}{6}\left( \tr (f)^3+2 \tr (f^3) -3 \tr(f) \tr (f^2)\right)\right)}.$$
(CCP PSI 2018)
Correction
Soit $\fonct{\varphi}{\MM_n(\C)}{\MM_n(\C)}{M}{(2M-{\,}^t M)/3}$
-
Chercher un polynôme annulateur de $\varphi$.
-
Montrer que $\varphi$ est diagonalisable.
-
Déterminer $\tr (\varphi)$ et $\det (\varphi)$.
Correction
Soit $A\in \mathcal{S}_n(\R)$, on a
$$\varphi(A)=\dfrac{1}{3}\left(2A-{\,}^t A\right)=\dfrac{1}{3}A$$
donc $\dfrac{1}{3}\in \Sp (\varphi)$ et $\mathcal{S}_n(\R)\subset E_{1/3}(\varphi)$.
Soit $A\in \mathcal{A}_n(\R)$, on a
$$\varphi(A)=\dfrac{1}{3}\left(2A-{\,}^t A\right)=\dfrac{1}{3}\left(2A+ A\right)= A$$
donc $1\in \Sp (\varphi)$ et $\mathcal{A}_n(\R)\subset E_{1}(\varphi)$.
Etant donnée que $\MM_n(\R)=\mathcal{S}_n(\R)\oplus \mathcal{A}_n(\R)$. On en déduit alors que
$E_1(\varphi)=\mathcal{A}_n(\R)$, $E_{(1/3)}=\mathcal{S}_n(\R)$ et $\varphi$ est diagonalisable.
De plus,
$$\det (\varphi)= =\left(\dfrac{1}{3}\right)^{\frac{n(n+1)}{2}},\,
\tr (\varphi)= (\left(\dfrac{1}{3}\right)\times \frac{n(n+1)}{2}+ 1\times \dfrac{n(n-1)}{2}.$$
Polynôme carcatéristique
($\star$)
Correction
Soit $A\in \MM_n(\R)$ ($n\geq 2$). On suppose que $A$ est inversible. Montrer qu'il existe $P\in
\R_{n-1}[X]$ tel que $A^{-1}=P(A)$.
Correction
Puisque $A$ est inversible alors $\det(A)\neq 0$, d'après le théorème de Cayley-Hamilton, on a
$\chi_A(A)=0$ soit
$$ (-1)^nA^n+(-1)^{n-1}\tr(A)A^{n-1}+\cdots a_1A +\det(A)I_n=0$$
ce qui donne
$$ A\big((-1)^nA^{n-1}+(-1)^{n-1}A^{n-2}+\cdots a_1I_n\big)=-\det(A)I_n$$
On en déduit que:
$$A^{-1}=\dfrac{-1}{\det(A)}\big((-1)^nA^{n-1}+(-1)^{n-1}\tr(A)A^{n-2}+\cdots a_1I_n\big)=P(A)$$
Avec $P(X)=\dfrac{-(\chi_A(X)-\det(A))}{\det(A)X}$.
($\star$)
Correction
Montrer qu'il existe $(a_0 , \ldots ,a_{n - 1} ) \in \R^n $ tel que~:
$$\forall P \in \mathbb{R}_{n - 1} \left[ X \right],P(X + n) + \sum\limits_{k = 0}^{n - 1} {a_k P(X +
k)} = 0.$$
Correction
Soit $\fonct{u}{\R_{n-1}[X]}{\R_{n-1}[X]}{P}{P(X+1)}$, on a $u\in \LL(\R_{n-1}[X])$, d'après le
théorème de Cayley -Hamilton $\chi_u(u)=0$. En supposant que
$(-1)^n\chi_u(X)=X^n+\dsum_{k=0}^{n-1}a_kX^k$, on trouve
$$\forall P\in \R_{n-1}[X] ,\,u^n(P)+\dsum_{k=0}^{n-1}a_ku^k(P)=0\Longrightarrow\forall P \in
\mathbb{R}_{n - 1} \left[ X \right],P(X + n) + \sum\limits_{k = 0}^{n - 1} {a_k P(X + k)} = 0.$$
($\star\star$)
Correction
Soit $A\in \MM_n(\C)$, on pose $B=\begin{pmatrix}
A&A\\0&A
\end{pmatrix}\in \MM_{2n}(\C)$.
-
Calculer le polynôme caractéristique de $B$ en fonction de
celui de $A$.
-
Donner une condition nécessaire et suffisante sur $A$ pour que $B$ soit diagonalisable.
Correction
-
On sait d'après le cours que si $B=\begin{pmatrix}
B_1&B_2\\
0&B_3
\end{pmatrix}$ matrice triangulaire supérieure par block (avec $B_1,\, B_3$ des matrices
carrées) alors
$\det (B)=\det(B_1)\det(B_3)$.
On en déduit alors que $\chi_B(X)=\chi_A(X)^2$.
-
Un calcul des puissance de $B$ nous donne
$$B^2=\begin{pmatrix}
A^2&2A^2\\0&A^2
\end{pmatrix},\,\,B^3=\begin{pmatrix}
A^3&3A^3\\0&A^3
\end{pmatrix},\,\,\Longrightarrow \text{ Par réucrrence } B^k=\begin{pmatrix}
A^k&kA^k\\0&A^k
\end{pmatrix}.$$
On en déduit que, pour tout $P\in\R[X]$, on a
$$P(B)=\begin{pmatrix}
P(A)&AP'(A)\\
0&P(A)
\end{pmatrix} .$$
Supposons que $B$ est diagonalisable, alors il existe un polynôme scindé à racine simple $P$ tel
que $P(B)=0$,
donc d'après le calcul précédent on a $P(A)=AP'(A)=0$.
($\star\star$)
Correction
Soient $A,\,B\in \MM_n(\K)$. Calculer:
$$\begin{pmatrix}
A&\lambda I_n\\
I_n& 0
\end{pmatrix} \begin{pmatrix}
B&-\lambda I_n\\
-I_n & A
\end{pmatrix} $$
En déduire que $\chi_{AB} =\chi_{BA}$.
Correction
En utilisant le produit matricielle par bloc, on trouve :
$$\begin{pmatrix}
A&\lambda I_n\\
I_n& 0
\end{pmatrix} \begin{pmatrix}
B&-\lambda I_n\\
-I_n & A
\end{pmatrix} =\begin{pmatrix}
AB-\lambda I_n &0\\
B& -\lambda I_n
\end{pmatrix} $$
puis, on calcul
$$
\begin{pmatrix}
B&-\lambda I_n\\
-I_n & A
\end{pmatrix}
\begin{pmatrix}
A&\lambda I_n\\
I_n& 0
\end{pmatrix} =
\begin{pmatrix}
BA-\lambda I_n & \lambda B \\
0 & -\lambda I_n
\end{pmatrix}
$$
Puisque, pour tout $U,V\in \MM_n(\K)$, $\det (UV)=\det (VU)$. On obtient alors:
$$
\begin{array}{lcl}
(-\lambda)^n \det(AB-\lambda I_n)&=&
\det\left( \begin{pmatrix}
AB-\lambda I_n &0\\
B& -\lambda I_n
\end{pmatrix}\right)\\
&&\\
& =&\det\left(
\begin{pmatrix}
A&\lambda I_n\\
I_n& 0
\end{pmatrix} \begin{pmatrix}
B&-\lambda I_n\\
-I_n & A
\end{pmatrix} \right)
=\det\left( \begin{pmatrix}
B&-\lambda I_n\\
-I_n & A
\end{pmatrix} \begin{pmatrix}
A&\lambda I_n\\
I_n& 0
\end{pmatrix}\right)\\
&&\\
&=& \det\left( \begin{pmatrix}
BA-\lambda I_n & \lambda B \\
0 & -\lambda I_n
\end{pmatrix} \right) =(-\lambda)^n \det(BA-\lambda I_n).
\end{array} $$
Ce qui prouve le résultat.
(CCP PSI 201)
Correction
Soit $A=\begin{pmatrix}1&3&0\\3&-2&-1\\0&-1&1\end{pmatrix}$ .
-
Calculer le polynôme caractéristique $\chi_A$ de $A$.
-
Déterminer le reste de la division euclidienne de $X^n$ par $\chi_A$.
-
Calculer $A^n$ pour $n\in \N$.
Correction
- $$\chi_A(x)=\begin{vmatrix}
1-x&3&0\\
3&-2-x&-1\\
0&-1&1-x
\end{vmatrix}=(1-x)\big((2+x)(x-1)-1\big)-9(1-x)=(1-x)\big(x^2+x-12\big),
$$
sot $\boxed{\chi_A(x)=(1-x)(x+4)(x-3)}$.
- Soit $n\in \N$. D'après le résultat de la division euclidienne dans $\R[X]$, il existe un
unique
couple $Q_n,R_n$ tels que $X^n=Q_n\chi_A+R_n$ et $\dg(R_n)\leq 2$.
Le reste de la division $R_n$ peut s'écrire sous la forme $R_n=a_nX^2+b_nX+c_n$.
En passant par la fonction polynômiale, on trouve:
$$\forall x\in \R,~~x^n=Q_n(x)\chi_A(x)+a_nx^2+b_nx+c_n\Longrightarrow \left\{\begin{array}{lcl}
16a_n-4b_n+c_n&=& (-4)^n\\
9a_n+3b_n+c_n&=&3^n\\
a_n+b_n+c_n&=&1
\end{array}\right.
$$
d'où
$$
a_n=\dfrac{2(-4)^n+5(3)^n-7}{70},\,b_n=\dfrac{-8(-4)^n+15(3)^n-7}{70},~~~~c_n=\dfrac{6(-4)^n-20(3)^n+84}{70}.$$
- Soit $n\in \N$, d'après la question 2 et en tenant compte que $\chi_A(A)=0$, on a
$$\begin{array}{lcl}
A^n&=&a_nA^2+b_nA+c_nI_n\\
&&\\
&=&a_n\begin{pmatrix}10&-3&-3\\-3&14&1\\-3&1&2\end{pmatrix}
+b_n\begin{pmatrix}1&3&0\\3&-2&-1\\0&-1&1\end{pmatrix}
+c_n\begin{pmatrix}1&0&0\\0&1&0\\0&0&1\end{pmatrix}\\
&&\\
&=&\begin{pmatrix}10a_n+b_n+c_n&-3a_n+3b_n&-3a_n\\
-3a_n+3b_n&14a_n-2b_n+c_n&a_n-b_n\\
-3a_n&a_n-b_n&2a_n+b_n+c_n\end{pmatrix}\\
&&\\
&=&\dfrac{1}{70}\begin{pmatrix}
18(-4)^n+45(3)^n+7& -30(-4)^n+30(3)^n&-6(-4)^n-15(3)^n+21\\
-30(-4)^n+30(3)^n&50(-4)^n+20(3)^n&10(-4)^n-10(3)^n\\
-6(-4)^n-15(3)^n+21&10(-4)^n-10(3)^n&2(-4)^n+5(3)^n+63
\end{pmatrix}
\end{array}$$
(ENSAI MP 200)
Correction
Soit $A \in \MM_n(\C)$ et $B \in \MM_{2n}(\C)$ donnée par : $B = \begin{bmatrix} 0
& A \\ I_n & 0 \end{bmatrix}$.
-
Calculer le polynôme caractéristique de $B$ en fonction de
celui de $A$.
-
Montrer que : $B$ diagonalisable $\Leftrightarrow$ $A$ diagonalisable et inversible.
Correction
-
$$\begin{array}{lcl}
\chi_{B}(\lambda) & =&
\begin{vmatrix}
-\lambda I_n & I_n \\
A & -\lambda I_n \end{vmatrix} =
\begin{vmatrix}
-\lambda I_n & I_n \\
A-\lambda^2 I_n & 0
\end{vmatrix} \\
&&\\
& =& (-1)^n \begin{vmatrix} A-\lambda^2 I_n & 0
\\ -\lambda I_n & I_n \end{vmatrix} = (-1)^n \det(A-\lambda^2
I_n) \\
&&\\
& = &(-1)^n \chi_{A}(\lambda^2).
\end{array}
$$
-
Supposons $A$ diagonalisable et inversible. On a donc $n$ vecteurs propres $(V_1,\cdots,V_n)$
associés à des
v.p. $(\lambda_1,\cdots,\lambda_n)$ et
formant une base de $\C^n$, on pose alors, pour tout
$k\in\inter{1,n}$, $W_k^{\pm}=\begin{pmatrix}V_k\\ \pm\mu_k V_k\end{pmatrix}$ où
$\mu_k$ est une
racine dans
$\C$ de~$\lambda_k$, ce qui donne $2n$ vecteurs propres linéairement indépendants ( tous les
$\lambda_k$ sont non nuls). On a donc montré $\Leftarrow$.
Supposons que $B$ est diagonalisable, donc $B^2$ l'est également. Il existe donc un polynôme scindé simple $P$ tel que
$P(B^2)=0$
$$B^2 = \begin{pmatrix}
0&A \\ I_n&0
\end{pmatrix}\begin{pmatrix}
0&A \\ I_n&0
\end{pmatrix} = \begin{pmatrix}
A&0 \\ 0&A
\end{pmatrix} \Longrightarrow P(B^2) =\begin{pmatrix}
P(A)&0 \\ 0&P(A) \end{pmatrix} =0_{2n}$$
On en déduit alors que $P(A)=0_n$ donc $A$ est diagonalisable.
reste à montrer que $A$ est inversible. Supposons que $A$ n'est pas inversible, i.e $0\in \Sp(A)$.
Notons $\{\lambda_1,\cdots,\lambda_r\}$ les valeurs propres de $A$ deux à deux distincts non nulles, ainsi
$$\Sp (A) =\{\lambda_1,\cdots,\lambda_r\} \cup \{0\}$$
On note également $\alpha_k = \dim (E_{\lambda_k}(A))$ et $\alpha_0=\dim (\Ker(A))$. D'après le cours, on a
$$\dim (\C^n)= n =\dsum_{k=1}^r \alpha_k +\dim (\Ker(A)).$$
Il est clair aussi que $\Sp (B^2) =\Sp (A)$.
D'après le cours $\Sp (B^2) =\{\beta^2 ,\, \beta \in \Sp (B)\}$, on en déduit que (en notant $\mu_k$ une racine de
$\lambda_k$),
$$\Sp (B)=\{\mu_1, -\mu_1,\cdots,\mu_r,-\mu_r\} \cup\{0\},\quad
$$
Or, on montre facielement que (déjà fait dans le sens $\Leftarrow$ ), que
$$\forall k\in \inter{1,r},\quad \dim(E_{\mu_k}(B))= \dim(E_{-\mu_k}(B))=\dim(E_{\lambda_k}(A)),\quad \dim(E_0(B))=\dim(E_0(A))
$$
Comme $B$ est diagonalisable, on a
$$\begin{array}{lcl}
2n &=& \dsum_{x\in \Sp(B)}\dim(E_x(B))\\
& = &\dsum_{k=1}^r \dim(E_{\mu_k}(B)) + \dsum_{k=1}^r \dim(E_{\mu_k}(B)) +
\dim(E_0(B))\\
&=&2\dsum_{k=1}^r \dim(E_{\lambda_k}(A))+\dim(E_0(A)) =2\left(\dsum_{k=1}^r \dim(E_{\lambda_k}(A))+\dim(E_0(A))\right) -\dim (E_0(A))\\
&=&2n - \dim(E_0(A))
\end{array}$$
Ce qui est impossible car $\dim (E_0(A))>0$.
Donc $A$ est inversible.
($\star^3$)
Correction
Soient
$A_n = \left( {
\begin{array}{cccc}
0 & 1 & {} & 0 \\
1 & \ddots & \ddots & {} \\
{} & \ddots & \ddots & 1 \\
0 & {} & 1 & 0 \\
\end{array}
} \right) \in \MM_n (\mathbb{C})\text{ et }P_n (x) = \det (A_n - xI_n )$.
-
Calculer $P_1 (x)$ et $P_2 (x)$
-
Montrer que pour $n\geq 3$, on a $P_n (x) = - xP_{n - 1} (x) - P_{n - 2} (x)$
-
Pour tout $x \in \left] { - 2,2} \right[$, on pose $x = - 2\cos \alpha $ avec $\alpha \in \left]
{0,\pi } \right[$. Montrer que $\dsp P_n (x) = \frac{{\sin ((n + 1)\alpha )}}{{\sin \alpha }}$.
-
En déduire que $P_n (x)$ admet $n$ racines puis que $A_n $ est diagonalisable.
Correction
-
$P_1(x)=-x$ et $P_2(x)=\begin{vmatrix}
-x&1\\
1&-x
\end{vmatrix}=x^2-1$.
-
Il suffit de faire le développement de $P_n(x)$ par rapport à la première colonne.
-
Pour $n\in \N^*$, on pose $v_n= \dfrac{\sin((n+1)\alpha)}{\sin(\alpha)}$, la suite $(v_n)$
est bien définie puisque
$\sin(\alpha)\neq 0$. De plus
$$\begin{array}{lcl}
v_1&=&\dfrac{\sin(2\alpha)}{\sin(\alpha)}=2\cos(\alpha)=-x,\\
v_2&=&\dfrac{\sin(3\alpha)}{\sin(\alpha)} =\dfrac{\sin(2\alpha)
\cos(\alpha)+\cos(2\alpha)\sin(\alpha)}{\sin(\alpha)}=2\cos(\alpha)^2+\cos(2\alpha)=4\cos(\alpha)^2-1=x^2-1
\end{array}$$
et pour $n\geq 3$,
$$\begin{array}{lcl}
\sin((n+1)\alpha)&=&\sin(n\alpha)\cos(\alpha)+\sin(\alpha)\cos(n\alpha)\\
\sin((n-1)\alpha)&=&\sin(n\alpha)\cos(\alpha)-\sin(\alpha)\cos(n\alpha)\\
\end{array}$$
i.e. $\sin((n+1)\alpha)=2\cos(\alpha)\sin(n\alpha)-\sin((n-1)\alpha)$, ce qui donne
$$\forall n\geq 3,\quad v_n=2\cos(\alpha)v_{n-1}-v_{n-2}, $$
Comme $v_1=P_1(x)$ et $v_2=P_2(x)$ alors pour tout $n\in \N^*$, $v_n=P_n(x)$.
-
Pour $n\in \N^*$ et $k\in \inter{1,n}$, on pose
$\alpha_k=\dfrac{k\pi}{(n+1)}\in]0,\pi[$, puis
$x_k=-2\cos(\beta_k)\in ]-2,2[$, comme les $\alpha_k$ sont 2 à 2 distincts
et la fonction $\cos $ est strictement décroissante,
alors les $x_k$ sont 2 à 2 distincts.
D'après la question précédente,
$$P_n(x_k)=\dfrac{\sin((n+1)\alpha_k)}{\sin(\alpha_k)}=\dfrac{\sin(k\pi)}{\sin(\frac{k\pi}{n+1})}=0$$
donc, pour $k\in \inter{1,n},\,\,x_k$ est une racine de $P_n$, ainsi $P_n$ a $n$ racines
distincts dans l'intervalle $]-2,2[$.
D'autre part, comme $\deg (P_n)=n$ alors $(x_k)_{1\leq k\leq n}$ sont exactement les racines de
$P_n$.
($\star\star$)
Correction
Soient $a_1 , \ldots ,a_n \in \mathbb{C}^\star $ deux à deux distincts. On pose $P(x) = \det (A + xI_n
)\text{ avec }A = \left( {
\begin{array}{cccc}
0 & {a_2 } & \ldots & {a_n } \\
{a_1 } & 0 & \ddots & \vdots \\
\vdots & \ddots & \ddots & {a_n } \\
{a_1 } & \cdots & {a_{n - 1} } & 0 \\
\end{array}
} \right)$
-
Calculer $P(a_i )$.
-
Justifier que $P$ est un polynôme unitaire de degré $n$.
-
Former la décomposition en éléments simples de la fraction rationnelle
$\dfrac{{P(X)}}{{\prod\limits_{i = 1}^n {(X - a_i )} }}$
-
En déduire le déterminant de $A + I_n $.
Correction
-
Soit $i\in \inter{1,n}$, on a
$$\begin{array}{lcl}
P(a_i)&=&\begin{vmatrix}
a_i&a_2&\cdots&a_i&\cdots&a_n\\
a_1&a_i& & & & \vdots \\
\vdots&&\ddots&& &&\\
a_1& a_2 & & a_i&&a_n\\
\vdots& &&&\ddots& \vdots\\
a_1&a_2&\cdots&a_i&\cdots&a_i
\end{vmatrix}\\
&&\\
&=&\begin{vmatrix}
a_i-a_1&0&\cdots&0&\cdots&0\\
0&a_i-a_2& & & & \vdots \\
\vdots&&\ddots&& &&\\
a_1& a_2 & & a_i&&a_n\\
\vdots& &&&\ddots& \vdots\\
0&0&\cdots&0&\cdots&a_i-a_n
\end{vmatrix}
\end{array}$$
(pour $j\neq i$, \,\, $L_j :=L_j-L_i$), puis on développe selon la colonne n$^\circ$ j, ce qui
donne
$$P(a_i)=(-1)^{i+i}a_i\prod_{j< i}(a_i-a_j)\prod_{j>i}(a_i-a_j)=a_i\prod_{j\neq i}
(a_i-a_j).$$
- On a $P(x)=\chi_A(-x)$.
- On a $\deg(P)=\deg (\dsp\prod_{i=1}^n(X-a_i))=n$ et leurs coefficients dominant égale à
$1$, on en déduitqu'il existe
un unique $R\in \C_{n-1}[X]$ tel que
$$\dfrac{P}{\prod_i X-a_i}=1+\dfrac{R}{\prod_i X-a_i}=1+\dsum_{k=1}^n\dfrac{\alpha_k}{X-a_k}$$
on utilise ensuite les fonctions polynômiales, on multiplie la relation précédente par $x-a_j$
(pour $j\in \inter{1,n}$),
$$\forall x\in \C, \dfrac{P(x)}{\prod_{1\leq i\neq j\leq n}
(x-a_i)}=(x-a_j)+\alpha_j+\dsum_{1\leq k\neq j\leq n} \dfrac{\alpha_k (x-a_j)}{x-a_k}$$
puis on remplace $x$ par $a_j$, on obtient alors
$$\alpha_j = \dfrac{P(a_j)}{\prod_{i\neq j}(a_i-a_j)}=\dfrac{a_j\prod_{i\neq j}a_i-a_j
}{\prod_{i\neq j}a_i-a_j}=a_j.$$
(Concours E3A 2011 )
Correction
Soit $A=\begin{pmatrix}
0&1&0&0\\
3&0&2&0\\
0&2&0&3\\
0&0&1&0
\end{pmatrix}\in \MM_{4}(\R)$. On note $E=\R^4$, soit $\BB=(e_1,e_2,e_3,e_4)$ la base canonique de $E$
et $f$ l'endomorphisme de $E$ dont la matrice dans la base $\BB$ est $A$. On rappelle que $f^0=id_E$
et pour tout $k\in \N,\ f^{k+1}=f^k\circ f$.
-
Pour tout $i\in \{0,1,2,3\}$, on pose $u_{i+1}=f^i(e_1)$. Montrer que la famille
$\mathcal{U}=(u_1,u_2,u_3,u_4)$ est une base de $E$.
-
Écrire la matrice $M$ de $f$ dans la base $\mathcal{U}$.
-
Calculer le polynôme caractéristique de $f$.
-
Déterminer les valeurs propres de $A$ et une base de chacun des sous-espaces propres de $A$. On
choisira pour chaque vecteur propre, la premi\`ere composante non nulle \'egale \`a $1$.
-
Soient $K=\frac{1}{8}\begin{pmatrix}
1&1&1&1\\
3&-1&1&-3\\
3&-1&-1&3\\
1&1&-1&-1\end{pmatrix}$ et $D=\begin{pmatrix}3&0&0&0\\0&-1&0&0\\0&0&1&0\\0&0&0&-3\end{pmatrix}$.
Existe-t-il une matrice $P\in GL_4(\R)$ telle que $KAP=D$~? Si oui, en d\'eterminer une.
Correction
- On a $u_1=f^0(e_1)=e_1$, $u_2=f(u_1)=f(e_1)=3e_2$,
$u_3=f(u_2)=3f(e_2)=3(e_1+2e_3)=3e_1+6e_3$,
enfin, $u_4=f(u_3)=3f(e_1)+6f(e_3)=9e_2+6(2e_2+e_4)=21e_2+6e_4$.
Pour montrer que $\mathcal{U}$ est une base il suffit de montrer que
$\dsp\det_\BB(\mathcal{U})\neq 0$, or
$$\det_\BB(\mathcal{U})=\begin{vmatrix}
1&0&3&0\\
0&3&0&21\\
0&0&6&0\\
0&0&0&6
\end{vmatrix}=3\times 36=108\neq 0\Longrightarrow \boxed{ \mathcal{U} \text{ est une base de
}\R^4}.$$
- Pour trouver la matrice de $f$ dans la base $\mathcal{U}$, il faut calculer $f(u_4)$ et
l'exprimer dans cette base,
$$f(u_4)=21f(e_2)+6f(e_4)=21e_1+42e_3+18e_3=21e_1+60e_2 =-9 e_1+10(3e_1+6e_3)=-9u_1+10u_3.$$
On en déduit,
$$\MM_\mathcal{U}(f)=\begin{pmatrix}
0&0&0&-9\\
1&0&0&0\\
0&1&0&10\\
0&0&1&0
\end{pmatrix}
$$
On aurait pu aussi calculer cette matrice en utilisant la formule $P^{-1}AP$ ou $P$ est la
matrice de
passage de la base $\BB$ à la base $\mathcal{U}$.
- On calcul $\chi_f$ en utilisant la matrice de $f$ dans la base $\mathcal{U}$:
$$\chi_f(\lambda)=\begin{vmatrix}
-\lambda&0&0&-9\\
1&-\lambda&0&0\\
0&1&-\lambda&10\\
0&0&1&-\lambda
\end{vmatrix}
=-\lambda\begin{vmatrix}
-\lambda&0&0\\
1&-\lambda&10\\
0&1&-\lambda
\end{vmatrix}
-\begin{vmatrix}
0&0&9\\
1&-\lambda&10\\
0&1&-\lambda
\end{vmatrix}
=\boxed{\lambda^4-10\lambda^2+9}.$$
- Il faut chercher les racines de $\chi_f$, on pose dans un premier temps $x=\lambda^2$ ainsi
la question revient à résoudre $x^2-10x+9=0=(x-9)(x-1)$. On en déduit,
$$\boxed{\Sp(f)=\{-1,1,-3,3\}}.$$
Soit $X=(a,b,c,d)\in \R^4$, on a:
$$X\in E_{-1}\Longleftrightarrow \begin{pmatrix}
0&1&0&0\\
3&0&2&0\\
0&2&0&3\\
0&0&1&0
\end{pmatrix}\begin{pmatrix}
a\\
b\\
c\\
d
\end{pmatrix}=-\begin{pmatrix}
a\\
b\\
c\\
d
\end{pmatrix}\Longleftrightarrow\left\{\begin{array}{lcl}
a+b &=&0\\
3a+b+2c&=&0\\
2b+c+3d&=&0\\
-c+d&=&0
\end{array}
\right.\Longleftrightarrow X=a(1,-1,-1,1).$$
Donc $\boxed{E_{-1}=\Vect \big((1,-1,-1,1)\big)}$. Un calcul similaire nous donne:
$$
\boxed{E_{1}=\Vect \big((1,1,-1,-1)\big),~~~~E_{3}=\Vect \big((1,3,3,1)\big),~~~~E_{-3}=\Vect
\big((1,-3,3,-1)\big).~~}
$$
-
La réponse est oui.... il suffit de prendre $P=K^{-1}$ (la matrice $K$ est inversible).
(CCP PSI 2006)
Correction
Soient $A$ et $B$ deux matrices carrées d'ordre $n$ à coefficients dans $\C$.
-
On suppose ici que $A$ et $B$ n'ont pas de valeur propre commune.
-
Soit $\chi_A$ le polynôme caractéristique de $A$. Montrer que $\chi_A(B)$ est inversible.
-
Montrer que, pour toute $X\in\MM_n(\C)$, on a : $AX=XB \Longleftrightarrow X=0$.
-
Montrer que, pour toute $M\in \MM_n(\C)$, il existe une et une seule matrice $X\in
\MM_n(\C)$ telle que $AX-XB=M$.
-
On suppose ici que $A$ et $B$ ont au moins une valeur propre commune $\lambda$. Montrer que
$\lambda$ est valeur propre de ${\,}^t B$. En déduire une matrice $X\in \MM_n(\C)$ non nulle
telle que $AX=XB$.
- On suppose ici qu'il existe $X\in\MM_n(\C)$, non nulle telle que $AX=XB$. Soit $r=\rg X$.
Montrer que $A$ et
$B$ ont au moins $r$ valeurs propres communes (comptées avec leur ordre de multiplicité).
Correction
-
-
Supposons que $\Sp (A)=\{\lambda_1,\cdots,\lambda_p\}$ et
$\chi_A(X)=\dsp(-1)^n\prod_{i=1}^p(X-\lambda_i)^{m_i}$,
puisque $\Sp (A)\cap \Sp (B)=\emptyset$ alors, pour tout $i\in \inter{1,p}$,
$(B-\lambda_iI_n)^{m_i}$ est injective,
d'où $\chi_A(B)$ l'est aussi comme composition des applications injectives.
-
Soit $X\in \MM_n(C)$ tel que $AX=BX$. Notons $u,v$ et $w$ les applications linéaire
canoniquement associées à $A,\,B$
et $X$.
Supposons que $X\neq 0$ alors $w\neq 0$.
On a $\im w$ est stable par $u$ (puisque $u\circ w=w\circ v$), donc l'application $u'$
induit sur $\im w$ par $u$ admet une v.p
$\lambda\in \C$.
Il existe $x\in \im w$ non nul tel que $u'(x)=\lambda x=u(x)$, comme $x\in \im w$ alors
il existe $z\in \C^n$ non nul tel que
$x=w(z)$.
Puisque $u\circ w=w\circ v$ alors $\C z\oplus \Ker(w)\subseteq \Ker (w\circ
(v-\lambda\mathrm{Id}e))$ or $v-\lambda\mathrm{Id}e$ est injective
donc $\C z\oplus \Ker(w)\subseteq \Ker (w\circ (v-\lambda\mathrm{Id}e))=\Ker w$.
Contradiction.
On en déduit que $w=0$ puis $X=0$.
-
L'application $\fonct{\psi}{\MM_n(\C)}{\MM_n(\C}{M}{AM-MB}$ est injective donc
bijective ce qui montre le résultat.
-
Soit $\lambda\in \Sp (A)\cap \Sp (B)$, alors $\lambda\in \Sp ({\,}^t B)$ (résultat de cours).
$$\exists U,V\in \MM_{n,1}(\C)^*,~~AU=\lambda U\text{ et }{\,}^t BV=\lambda V.$$
Posons $X=U{\,}^t V\in\MM_n(\C)^*$, on a
$$AX=AU{\,}^t V=\lambda U{\,}^t V=\lambda X\text{ et }XB=U{\,}^t ({\,}^t BV)=\lambda U{\,}^t
V=\lambda X.$$
Autrement dit, $AX=XB$.
(Concours E3A 201)
Correction
Soit
$F=\left(
\begin{array}{cccccc}
0 & 1 & 0 & 0 & \dots & 0\\
0 & 0 & 1 & 0 &\dots & 0\\
\vdots&\vdots&\ddots&\ddots& \, &\vdots\\
0 &0 & &\ddots&1 &0\\
-1 &0 &\dots &\dots &0 &2\\
0 &0 &\dots &\dots &0 &1
\end{array}
\right)\in \MM_{p+1}(\R).$
-
Calculer le polynôme caractéristique de la matrice $F$. Déterminer $\Sp (F)$. $F$ est-elle
inversible~?
-
$F$ est-elle diagonalisable dans $\MM_{p+1}(\C)$~? Dans $\MM_{p+1}(\R)$~?
Correction
Calculons $\chi_F(\lambda)=\det(F-\lambda I_{p+1})$, on développe suivant la 1ère colonne:
$$\chi_F(\lambda)=(-\lambda)
\begin{vmatrix}
-\lambda&1&0&0&\dots&0\\
0&-\lambda&1&0&\dots&0\\
\vdots&\vdots&\ddots&\ddots&&\vdots\\
0&0&\dots&\dots&-\lambda&2\\
0&0&\dots&\dots&0&1-\lambda
\end{vmatrix}
-(-1)^{p+1}
\begin{vmatrix}
1 &0&0&\dots&0\\
-\lambda&1&0&\dots&0\\
0&-\lambda&1& &\\
\vdots&\vdots&\ddots&\ddots&\\
0&\dots&\dots&0&1-\lambda
\end{vmatrix}
$$
ce qui donne
$$\chi_F(\lambda)=(-\lambda)^p(1-\lambda)-(-1)^p(1-\lambda)= \boxed{(-1)^p(1-\lambda)(\lambda^p+1)
}.$$
On en déduit facilement que
$$\boxed{\Sp_\C(f)=\{1\}\bigcup\left\{ \ee^{\frac{\ii (2k+1)\pi}{p}},~~0\leq k< p\right\}}.$$
Donc $\chi_F$ est scindé à racine simple (dans $\C$) on en déduit que
$$\textcolor{blue}{F\text{ est diagonalisable dans }
\MM_{p+1}(\C)}.$$
D'autre part la matrice $F$ n'admet qu'au maximum deux valeurs propre réelles ($1$ et éventuellement
$-1$ en
fonction de $p$) donc
$$\textcolor{blue}{F\text{ n'est pas diagonalisable dans }\MM_{p+1}(\R)}.$$
Enfin, puisque $\chi_F(0)=\det(F)=(-1)^p\neq 0$, on conclut que $F$ est inversible.
(Mines PSI 2018)
Correction
Soit $A=\begin{pmatrix}
a^2&ab&ab&b^2\\
ab&a^2&b^2&ab\\
ab&b^2&a^2&ab\\
b^2&ab&ab&a^2
\end{pmatrix}\in \MM_4(\R)$.
-
Calculer $\det(A)$.
-
Déterminer le polynôme caractéristique de $A$. $A$ est-elle diagonalisable?
Correction
En regardant bien les colonnes de la matrice $A$, on remarque
$$A\begin{pmatrix}
1\\1\\1\\1
\end{pmatrix}
=\begin{pmatrix}
a^2+ab+ab+b^2\\
ab+a^2+b^2+ab\\
ab+b^2+a^2+ab\\
b^2+ab+ab+a^2
\end{pmatrix}
=(a+b)^2\begin{pmatrix}
1\\1\\1\\1
\end{pmatrix},$$
et
$$A\begin{pmatrix}
1\\-1\\-1\\1
\end{pmatrix}
=\begin{pmatrix}
a^2-ab-ab+b^2\\
ab-a^2-b^2+ab\\
ab-b^2-a^2+ab\\
b^2-ab-ab+a^2
\end{pmatrix}
=(a-b)^2\begin{pmatrix}
1\\-1\\-1\\1
\end{pmatrix},$$
et enfin
$$A\begin{pmatrix}
0\\1\\-1\\0
\end{pmatrix}
=\begin{pmatrix}
ab-ab\\
a^2-b^2\\
b^2-a^2\\
ab-ab
\end{pmatrix}
=(a^2-b^2)\begin{pmatrix}
0\\1\\-1\\0
\end{pmatrix},\,A\begin{pmatrix}
1\\0\\0\\-1
\end{pmatrix}
=\begin{pmatrix}
a^2-b^2\\
ab-ab\\
ab-ab\\
b^2-a^2
\end{pmatrix}
=(a^2-b^2)\begin{pmatrix}
1\\0\\0\\-1
\end{pmatrix}, $$
On en déduit alors que
$$\boxed{\Sp (A)=\{(a-b)^2,(a+b)^2, a^2-b^2\}},$$
$$\boxed{ \dim (E_{(a+b)^2}(A))=\dim(E_{(a-b)^2}(A))=1,\,\dim (E_{(a^2-b^2)}(A))=2}.$$
Donc $A$ est diagonalisable.
-
La réponse à cette question est dans la deuxième question!
-
$$\begin{array}{lcl}
\begin{vmatrix}
a^2-\lambda&ab&ab&b^2\\
ab&a^2-\lambda&b^2&ab\\
ab&b^2&a^2-\lambda&ab\\
b^2&ab&ab&a^2\lambda
\end{vmatrix}&=&
\begin{vmatrix}
a^2-\lambda&ab&ab&b^2-a^2+\lambda\\
ab&a^2-\lambda&b^2&0\\
ab&b^2&a^2-\lambda&0\\
b^2&ab&ab&a^2-\lambda-b^2
\end{vmatrix}\\
&&\\
&=&
\begin{vmatrix}
a^2-\lambda&ab&ab&b^2-a^2+\lambda\\
ab&a^2-\lambda&b^2&0\\
ab&b^2&a^2-\lambda&0\\
b^2+a^2-\lambda&2ab&2ab&0
\end{vmatrix}\\
&&\\
&=&(b^2-a^2+\lambda)\begin{vmatrix}
ab&a^2-\lambda&b^2\\
ab&b^2&a^2-\lambda\\
b^2+a^2-\lambda&2ab&2ab
\end{vmatrix}
\end{array}$$
Puis
$$\begin{array}{lcl}
\begin{vmatrix}
ab&a^2-\lambda&b^2\\
ab&b^2&a^2-\lambda\\
b^2+a^2-\lambda&2ab&2ab
\end{vmatrix}&=&
\begin{vmatrix}
ab&a^2-\lambda&b^2\\
0&b^2-a^2+\lambda &a^2-\lambda-b^2\\
b^2+a^2-\lambda&2ab&2ab
\end{vmatrix}\\
&&\\
&=&
\begin{vmatrix}
ab&a^2-\lambda&b^2+a^2-\lambda\\
0&b^2-a^2+\lambda &0\\
b^2+a^2-\lambda&2ab&4ab
\end{vmatrix}\\
&&\\
&=& (b^2-a^2-\lambda)\begin{vmatrix}
ab&b^2+a^2-\lambda\\
b^2+a^2-\lambda&4ab
\end{vmatrix}\\
&=&(b^2-a^2-\lambda)\left(4a^2b^2-\left(b^2+a^2-\lambda\right)^2\right)\\
&=& (b^2-a^2-\lambda)(2ab-b^2-a^2+\lambda)(2ab+b^2+a^2-\lambda)
\end{array}$$
Finalement,
$$\chi_A(\lambda)=(b^2-a^2-\lambda)^2\left((a+b)^2-\lambda\right)\left((a-b)^2-\lambda\right).$$
Puissance d'une matrice
($\star\,-\,\star\star$)
Correction
Calculer les puissances $p^\text{ièmes}$ ($p \in \N$ ou $p \in \Z$) des matrices suivantes :
$$\begin{pmatrix}
1 & 4 & 2\cr
0 &-3 &-2\cr
0 & 4 & 3
\end{pmatrix} \quad ; \quad\left( \begin{array}{ccc} -1 & a & -a \\ 1 & -1 & 0 \\ 1 & 0 & -1
\end{array} \right) \quad ; \quad
\left( \begin{array}{ccc} 1 & 1 & 1 \\ 2 & 2 & 2 \\ 0 & 0 & 1
\end{array} \right) \quad ; \quad
\left( \begin{array} {ccc} 1 & a & a^2 \\ \frac{1}{a} & 1 & a \\
\frac{1}{a^2} & \frac{1}{a} & 1 \end{array} \right) (a\neq 0).$$
Correction
$\mathbf{a) }\, $ On vérifie que
$$A=\begin{pmatrix}
1 & 4 & 2\cr
0 &-3 &-2\cr
0 & 4 & 3
\end{pmatrix} =
\begin{pmatrix}
1 & 0 & 1\cr
0 &1 &-1\cr
0 &-2 & 1
\end{pmatrix}
\begin{pmatrix}
1 & 0 & 0\cr
0 &1 &0\cr
0 & 0 & -1
\end{pmatrix}
\begin{pmatrix}
1 & 2 & 1\cr
0 &-1 &-1\cr
0 & -2 & -1
\end{pmatrix}
$$
ce qui donne, pour $p\in \Z$,
$$
A^p=
\begin{pmatrix}
1 & 0 & 1\cr
0 &1 &-1\cr
0 &-2 & 1
\end{pmatrix}
\begin{pmatrix}
1 & 0 & 0\cr
0 &1 &0\cr
0 & 0 & (-1)^p
\end{pmatrix}
\begin{pmatrix}
1 & 2 & 1\cr
0 &-1 &-1\cr
0 & -2 & -1
\end{pmatrix} = \begin{pmatrix}
1 & 2-(2(-1)^p & 1-(-1)^p\cr
0 &-1+2(-1)^p &-1+(-1)^p\cr
0 & 2-2(-1)^p & 2-(-1)^p
\end{pmatrix} $$
$\mathbf{b)\,}$ La matrice $B=\left( \begin{array}{ccc} -1 & a & -a \\ 1 & -1 & 0 \\ 1 & 0 & -1
\end{array} \right) $ n'est pas diagonalisable, en effet la seule valeur propre de $B$ est $-1$. On
peut trigonaliser $B$ mais pour calculer $B^p$ il est plus pratique d'écrire $B$ sous la forme
$-I_3+\left( \begin{array}{ccc} 0 & a & -a \\ 1 & 0 & 0 \\ 1 & 0 & 0
\end{array} \right)=-I_3+C$ puis on a :
$$ C(-I_3)=(-I_3),~~~~C^2=\begin{pmatrix}
0&0&0\\
0&a&-a\\
0&a&-a
\end{pmatrix}
\text{ et }C^3=0.$$
On peut donc appliquer la formule de binôme de Newton, pour $p\in \N$ avec $p\geq 2$
$$B^p=(-I_3)^p+p(-1)^{p-1}C+\dfrac{p(p-1)}{2}(-1)^{p-2}C^2=(-1)^p\begin{pmatrix}
1&-pa&pa\\
-p&\frac{2+p(p-1)a}{2}&\frac{-p(p-1)a}{2}\\
-p&\frac{p(p-1)a}{2}&\frac{2-p(p-1)a}{2}
\end{pmatrix}$$
D'autre part, comme $0\not\in \Sp(B)$ alors $B$ est inversible, donc on peut calculer $B^p$ avec $p\in
\Z$.
Pour cela, on calcule $B^{-1}$ puis on utilise la même démarche.
$\mathbf{c)\,}$ Le calcul des éléments propres de la matrice $C$ nous donne,
$$
C=\left( \begin{array}{ccc} 1 & 1 & 1 \\ 2 & 2 & 2 \\ 0 & 0 & 1
\end{array} \right)
=\frac{1}{6}
\begin{pmatrix}
-1&1&1\\
1&2&2\\
0&-2&0
\end{pmatrix}
\begin{pmatrix}
0&0&0\\
0&1&0\\
0&0&3
\end{pmatrix}
\begin{pmatrix}
-4&2&0\\
0&0&-3\\
2&2&3
\end{pmatrix}
$$
Ce qui donne, pour $p\in \N$,
$$C^n=...=\dfrac{1}{6}\begin{pmatrix}
2\,3^p&2\,3^p&-3+3^{p+1}\\
4\,3^p&4\,3^p&-6+2\,3^{p+1}\\
0&0&6
\end{pmatrix}$$
$\mathbf{d)\,}$ On pose $C=\begin{pmatrix}
a^2\\a\\1
\end{pmatrix}$ et $L=(\frac{1}{a^2} \,\frac{1}{a}\,1)$, alors
$$CL=\left( \begin{array} {ccc} 1 & a & a^2 \\ \frac{1}{a} & 1 & a \\
\frac{1}{a^2} & \frac{1}{a} & 1 \end{array} \right),$$
Donc pour $p\in\N$, on a (voir aussi la feuille de TD sur les matrices)
$$(CL)^p=(L\cdot C)^{p-1} CL =3^{p-1} \left( \begin{array} {ccc} 1 & a & a^2 \\ \frac{1}{a} & 1 & a \\
\frac{1}{a^2} & \frac{1}{a} & 1 \end{array} \right)$$
($\star$}{)
Correction
Soit $a\in\R$. On pose, pour tout $n\in\N^*$ :
$A_n=\begin{pmatrix} 1 & \frac{a}{n} \\ \frac{a}{n} & 1\end{pmatrix}$. Calculer
$\lim\limits_{n\to\infty}(A_n)^n$.
Correction
On calcule le polynôme caractéristique de~$A_n$ :
$$\chi_{A_n}(X)=(X-1)^2-\frac{a^2}{n^2}=X^2-2X+\left(1-\frac{a}{n}\right)\cdot
\left(1+\frac{a}{n}\right),$$
dont les racines sont $\lambda_n^+ = 1+\frac{a}{n}\quad\text{et}\quad \lambda_n^- =
1-\frac{a}{n}$.
Les vecteurs propres de $A$ sont respectivement $X^+=\begin{pmatrix}1\\1 \end{pmatrix}$ et
$X^-=\begin{pmatrix}1\\-1 \end{pmatrix}$,
la matrice diagonalisant $A_n$ est donc indépendante de $n$ et vaut
\begin{equation*}
P=
\begin{pmatrix}
1 & 1 \\ 1 & -1
\end{pmatrix},
\qquad\text{avec}\qquad
P^{-1} =\frac12
\begin{pmatrix}
1 & 1 \\ 1& -1
\end{pmatrix}
\end{equation*}
On a donc
$$
A_n =P\,\begin{pmatrix} 1+\frac an \\ & 1-\frac an \end{pmatrix} P^{-1}
\Longrightarrow
A_n^n = P\,\begin{pmatrix}\left(1+\frac an\right)^n\!\! \\ &
\!\!\left( 1-\frac an\right)^n \end{pmatrix} P^{-1},
$$
c'est-à-dire
$$\displaystyle \lim_{n\to\infty}A_n^n =
P\,\begin{pmatrix}\ee^a&0\\0&\ee^{-a}\end{pmatrix} P^{-1} = \begin{pmatrix}
\ch a & \sh a \\ \sh a & \ch a
\end{pmatrix}.$$
($\star\star$)
Correction
Trouver une matrice $M\in\MM_3(\C)$ telle que $M^2=\begin{pmatrix}0 & 1 & 1\\ 1
&0&1\\1&1&0\end{pmatrix}$. Peut-on imposer à~$M$ d'être réelle ?
Correction
$M^2$ se diagonalise en
$$M^2=\dfrac{1}{3}
\begin{pmatrix} 1 & 1 & 1 \\ -1 & 0 & 1 \\ 0 & -1 & 1 \end{pmatrix}
\begin{pmatrix} -1 & 0 & 0 \\ 0 & -1 & 0 \\ 0 & 0 & 2 \end{pmatrix}
\begin{pmatrix} 1 & -2 & 1 \\ 1 & 1 & -2 \\ 1 & 1 & 1 \end{pmatrix}
$$
Il est donc
aisé de trouver une matrice complexe qui marche, il suffit de prendre $M$ sous la forme:
$$
\dfrac{1}{3}
\begin{pmatrix} 1 & 1 & 1 \\ -1 & 0 & 1 \\ 0 & -1 & 1 \end{pmatrix}
\begin{pmatrix} x\ii & 0 & 0 \\ 0 & y\ii & 0 \\ 0 & 0 & z\sqrt{2} \end{pmatrix}
\begin{pmatrix} 1 & -2 & 1 \\ 1 & 1 & -2 \\ 1 & 1 & 1 \end{pmatrix}
=\dfrac{1}{3}
\begin{pmatrix} z\sqrt{2}+\ii (x+y) & z\sqrt{2}+\ii (-2x+y) & z\sqrt{2}+\ii (x-2y)\\
z\sqrt{2}-\ii x & z\sqrt{2}+\ii 2x & z\sqrt{2}-\ii x \\
z\sqrt{2}-\ii y & z\sqrt{2}-\ii y & z\sqrt{2}+\ii 2y \end{pmatrix}
$$
avec $x,y,z\in \{-1,1\}$.
Cependant, s'il faut une
matrice réelle, c'est plus compliqué. On peut, dans le sous-espace
vectoriel associé à la valeur propre $-1$, et qui est de dimension $2$,
effectuer une rotation d'angle $\dfrac{\pi}{2}$. On obtient alors par exemple
\begin{equation*}
M=\dfrac{1}{3}
\begin{pmatrix} 1 & 1 & 1 \\ -1 & 0 & 1 \\ 0 & -1 & 1 \end{pmatrix}\begin{pmatrix} 0 & -1 &0\\ 1 & 0
&0\\ 0& 0& \sqrt{2}
\end{pmatrix}
\begin{pmatrix} 1 & -2 & 1 \\ 1 & 1 & -2 \\ 1 & 1 & 1 \end{pmatrix}
=
\dfrac{1}{3}\begin{pmatrix}
\sqrt{2} & \sqrt{2}-3 & \sqrt{2}+3 \\
\sqrt{2}+1 & \sqrt{2}+1 &\sqrt{2}-2 \\
\sqrt{2}-1 & \sqrt{2}+2 & \sqrt{2}-1 \end{pmatrix}
\end{equation*}
(CCP MP 200)
Correction
On note $A=\begin{pmatrix} -4&4&-4\\ -4&4&4\\-8&8&0\end{pmatrix}$.
Déterminer ses éléments propres. Trouver toutes les matrices
$B\in\MM_3(\C)$ telles que $B^3=A$.
Correction
Après calcul, on trouve
$$
\begin{pmatrix} -4&4&-4\\ -4&4&4\\-8&8&0\end{pmatrix}
=\dfrac{1}{2}
\begin{pmatrix} 1&0&1\\ 1&1&0\\0&1&1\end{pmatrix}
\begin{pmatrix} 0&0&0\\ 0&8&0\\0&0&-8\end{pmatrix}
\begin{pmatrix} 1&1&-1\\ -1&1&1\\1&-1&1\end{pmatrix}
$$
On pose
$$B=\dfrac{1}{2}
\begin{pmatrix} 1&0&1\\ 1&1&0\\0&1&1\end{pmatrix}
\begin{pmatrix} 0&0&0\\ 0&2a&0\\0&0&-2b\end{pmatrix}
\begin{pmatrix} 1&1&-1\\ -1&1&1\\1&-1&1\end{pmatrix}
=\begin{pmatrix} -b&b&-b\\ -a&a&a\\-a-b&a+b&a-b\end{pmatrix},~~a,b\in \{1,j,\overline{j}\}.$$
Alors, en tenant compte que $a^3=b^3=1$, on a:
$$B^3=\begin{pmatrix} -4b^3&4b^3&-4b^3\\
-4a^3&4a^3&4a^3\\-4b^3-4a^3&4b^3+4a^3&4a^3-4b^3\end{pmatrix}
=A$$
($\star$)
Correction
Déterminer les matrice $A\in \MM_3(\R)$ telle que $A^2=\begin{pmatrix}
1&0&0\\1&1&0\\1&0&4
\end{pmatrix}$.
Correction
Notons $B=\begin{pmatrix}
1&0&0\\1&1&0\\1&0&4
\end{pmatrix}$, si $A$ est une solutions de l'équation $A^2=B$ alors $A$ et $B$ commutent, i.e.
$AB=BA$. Supposons que $A=\begin{pmatrix}
a&b&c\\x&y&z\\u&v&w
\end{pmatrix}$, alors
$$AB=BA\Longleftrightarrow \begin{pmatrix}
b+c&0&3c\\
y+z-a&-b&3z-c\\
-3u+v+w-a&-3v-b&-c
\end{pmatrix}=0\Longleftrightarrow\left\{\begin{array}{l}
b=0\\
c=0\\
y=a\\
u=\frac{w-a}{3}\\
v=0
\end{array}
\right. \Longleftrightarrow A=\begin{pmatrix}
a&0&0\\
x&a&0\\
\frac{w-a}{3}&0&w
\end{pmatrix}
$$
Ensuite, on calcule $A^2$,
$$A^2=\begin{pmatrix}
a^2&0&0\\
2xa&a^2&0\\
\frac{w^2-a^2}{3}&0&w^2
\end{pmatrix}=B\Longleftrightarrow\left\{\begin{array}{l}
a^2=1\\
w^2=4\\
2ax=1
\end{array}\right.\Longleftrightarrow A=\begin{pmatrix}
\varepsilon_1&0&0\\
\frac{1}{2\varepsilon_1}&\varepsilon_1&0\\
\frac{2\varepsilon_2-\varepsilon_1}{3}&0&2\varepsilon_2
\end{pmatrix}
$$
avec $\varepsilon_1,\,\varepsilon_2\in \{-1,1\}$.
($\star\star$)
Correction
Soit $M=\dfrac{1}{4}\left(\begin{array}{rrrr}
-1&1&7&-3\\
1&-1&-3&7\\
7&-3&-1&1\\
-3&7&1&-1
\end{array}\right)\in \MM_4(\R)$.
-
Calculer $\chi_M$.
-
Donner les éléments propres de $M$ (les valeurs propres, sous espaces propres avec leurs bases).
-
Montrer que $A$ est diagonalisable, et déterminer une matrice $P\in GL_4(\R)$ et une matrice
diagonale $D\in \MM_4(\R)$ telles que $M=PDP^{-1}$.
-
Expliciter $P^{-1}$
-
Calculer $M^n$ pour $n\in \N$.
Correction
-
On a $\chi_M(x)=\det(M-xI_4)=\frac{1}{4^4}\det(4M-4xI_4)$, et
$$\begin{array}{lcl}
\chi_M(x)&=&\frac{1}{4^4}\begin{vmatrix}
-1-4x&1&7&-3\\
1&-1-4x&-3&7\\
7&-3&-1-4x&1\\
-3&7&1&-1-4x
\end{vmatrix}\overset{C_1,C_3}{=}
\frac{1}{4^4}\begin{vmatrix}
-4x&1&4&-3\\
-4x&-1-4x&4&7\\
4&-3&-4x&1\\
4&7&-4x&-1-4x
\end{vmatrix}\\
&=&\frac{1}{4^2} \begin{vmatrix}
-x&1&1&-3\\
-x&-1-4x&1&7\\
1&-3&-x&1\\
1&7&-x&-1-4x
\end{vmatrix}
=\frac{1}{4^2} \begin{vmatrix}
1-x&1&1&-3\\
1-x&-1-4x&1&7\\
1-x&-3&-x&1\\
1-x&7&-x&-1-4x
\end{vmatrix}
\\
&&\\
&=&\frac{(1-x)}{4^2}\begin{vmatrix}
1&1&1&-3\\
1&-1-4x&1&7\\
1&-3&-x&1\\
1&7&-x&-1-4x
\end{vmatrix}\\
&=&\frac{(1-x)}{4^2}\begin{vmatrix}
1&1&1&-3\\
0&-2-4x&0&10\\
0&-4&-1-x&4\\
0&6&-1-x&2-4x
\end{vmatrix}=\frac{(1-x)}{4^2}\begin{vmatrix}
-2-4x&0&10\\
-4&-1-x&4\\
6&-1-x&2-4x
\end{vmatrix}\\
&=&\frac{(1-x)}{4^2}\begin{vmatrix}
-2-4x&0&10\\
-4&-1-x&4\\
10&0&-2-4x
\end{vmatrix}
=\dfrac{-(1+x)(1-x)}{4}\begin{vmatrix}
-2-4x&10\\
10&-2-4x
\end{vmatrix}\\
&=&\dfrac{(x-1)(x+1)(2+4x+10)(2+4x-10)}{4^2}=\boxed{(x-1)(x+1)(x-2)(x+3)}
\end{array}$$
($\star\star$)
Correction
Résoudre les équations suivantes d'inconnue $X\in \MM_3(\R)$.
$$
\begin{array}{ll}
\mathbf{a)\,} ~~ X^2=\begin{pmatrix}
1&0&0\\
1&1&0\\
1&0&4
\end{pmatrix},&
\mathbf{b)\,}~~X^2=\begin{pmatrix}
11&-5&5\\
-5&3&-3\\
5&-3&3
\end{pmatrix},\\
& \\
\mathbf{c)\, }~~
X^2=\begin{pmatrix}
0&0&0\\
1&0&0\\
1&1&0
\end{pmatrix},&
\mathbf{d)\,} ~~X^3=\begin{pmatrix}
-4&4&-4\\
-4&4&4\\
-8&8&0
\end{pmatrix}.
\end{array}
$$
Correction
-
$\mathbf{a)\,}$
-
$\mathbf{b)\,}$ Notons $A=\begin{pmatrix}
11&-5&5\\
-5&3&-3\\
5&-3&3
\end{pmatrix}$, alors
$$\begin{array}{lcl}
\chi_A(\lambda)&=&\begin{vmatrix}
11-\lambda&-5&5\\
-5&3-\lambda&-3\\
5&-3&3-\lambda
\end{vmatrix}= \begin{vmatrix}
11-\lambda&-5&0\\
-5&3-\lambda&-\lambda\\
5&-3&-\lambda
\end{vmatrix}\\
&&\\
&=&\begin{vmatrix}
11-\lambda&-5&5\\
-5&3-\lambda&-\lambda\\
10&-6+\lambda&0
\end{vmatrix}=-\lambda(\lambda-1)(\lambda-16)
\end{array}$$
On en déduit que $\Sp(A)=\{0,1,16\}$, on remarque rapidement que $E_0(A)=\Vect (\begin{pmatrix}
0\\1\\1
\end{pmatrix})$, pour les autres valeurs propres,on résout le système $AX=\lambda X$, ce qui
donne:
$$E_1(A)=\Vect(\begin{pmatrix}
1\\1\\-1
\end{pmatrix}),\,E_{16}(A)=\Vect (\begin{pmatrix}
2\\-1\\1
\end{pmatrix}
)\Longrightarrow A=P\begin{pmatrix}
0&0&0\\
0&1&0\\
0&0&16
\end{pmatrix} P^{-1}=PDP^{-1}$$
Avec $P=\begin{pmatrix}
0&1&2\\
1&1&-1\\
1&-1&1
\end{pmatrix}$ donc $P^{-1}=\dfrac{1}{6}\begin{pmatrix}
0&3&3\\
2&2&-2\\
2&-1&1
\end{pmatrix}$.
Posons maintenant $Z=P^{-1}XP$ alors $Z^2= P^{-1}X^2P=P^{-1}AP=\begin{pmatrix}
0&0&0\\
0&1&0\\
0&0&16
\end{pmatrix}=D$, d'autre part on doit avoir $ZD=DZ$ (puisque $D\in \C[Z]$), si on pose
$Z=\begin{pmatrix}
a&b&c\\
x&y&z\\
u&v&w
\end{pmatrix}$ alors
$$DZ=ZD\Longrightarrow\begin{pmatrix}
0&0&0\\
x&y&z\\16u&16v&16w
\end{pmatrix}
=\begin{pmatrix}
0&b&16c\\
0&y&16z\\
0&v&16w
\end{pmatrix}\Longrightarrow Z=\begin{pmatrix}
a&0&0\\
0&y&0\\
0&0&w
\end{pmatrix}$$
Donc $Z^2=D$ donne $a=0,\, y=\mp 1,\,w= \mp4$. On en déduit finalement,
$$\begin{array}{lcl}
X&=&\begin{pmatrix}
0&1&2\\
1&1&-1\\
1&-1&1
\end{pmatrix} \begin{pmatrix}
0&0&0\\
0&y&0\\
0&0&w
\end{pmatrix}\dfrac{1}{6}\begin{pmatrix}
0&3&3\\
2&2&-2\\
2&-1&1
\end{pmatrix}\\
&&\\
&=&\dfrac{1}{6}\begin{pmatrix}
2y+4w&2y-2w&-2y+2w\\
2y-2w&2y+w&-2y-w\\
-2y+2w&-2y-w&2y+w
\end{pmatrix}
\end{array}$$
-
$\mathbf{c)\,}$ Si $X=\begin{pmatrix}
a&b&c\\
x&y&z\\
u&v&w
\end{pmatrix}$ existe alors on doit avoir
$$\begin{pmatrix}
a&b&c\\
x&y&z\\
u&v&w
\end{pmatrix} \begin{pmatrix}
0&0&0\\
1&0&0\\
1&1&0
\end{pmatrix}=\begin{pmatrix}
0&0&0\\
1&0&0\\
1&1&0
\end{pmatrix}\begin{pmatrix}
a&b&c\\
x&y&z\\
u&v&w
\end{pmatrix}$$
Donc $X=\begin{pmatrix}
a&0&0\\
x&a&0\\
u&x&a
\end{pmatrix}$ puis
$$X^2=\begin{pmatrix}
a^2&0&0\\
2xa&a^2&0\\
2ua+x^2&2xa&a^2
\end{pmatrix}= \begin{pmatrix}
0&0&0\\
1&0&0\\
1&1&0
\end{pmatrix} \Longrightarrow a=0,\,0=1!$$
Impossible, donc l'équation $X^2=\begin{pmatrix}
0&0&0\\
1&0&0\\
1&1&0
\end{pmatrix}$ n'a pas de solutions.
-
$\mathbf{d)\,}$ On pose $A=\begin{pmatrix}
-4&4&-4\\
-4&4&4\\
-8&8&0
\end{pmatrix}$. Après calcul, on trouve
$$A = \begin{pmatrix}
1&0&1\\
1&1&0\\
0&1&1
\end{pmatrix}
\begin{pmatrix}
0&0&0\\
0&8&0\\
0&0&-8
\end{pmatrix}\begin{pmatrix}
1/2&1/2&-1/2\\
-1/2&1/2&1/2\\
1/2&-1/2&1/2
\end{pmatrix}.
$$
Donc
$$X= \begin{pmatrix}
1&0&1\\
1&1&0\\
0&1&1
\end{pmatrix}
\begin{pmatrix}
0&0&0\\
0&a&0\\
0&0&b
\end{pmatrix}\begin{pmatrix}
1/2&1/2&-1/2\\
-1/2&1/2&1/2\\
1/2&-1/2&1/2
\end{pmatrix}=\dfrac{1}{2}
\begin{pmatrix}
b&-b&b\\
-a&a&a\\
-a+b&a-b&a+b
\end{pmatrix}
$$
avec $a=2,\,b =-2$.
(Navale PSI 2019)
Correction
Soit $A=\begin{pmatrix}
1&-1&1\\
3&-2&2\\
1&0&0
\end{pmatrix}\in \MM_3(\R)$. On souhaite rechercher $M\in \MM_3(\R)$ vérifiant $M^2=A$.
-
La matrice $A$ est-elle diagonalisable? triangulisable?
-
Réduire $A$.
-
Que dire du spectre d'une solution $M$?
-
Résoudre $M^2=A$.
Correction
- On calcul $\chi_A$,
$$\begin{array}{lcl}
\chi_A(x)&=&\begin{vmatrix}
1-x&-1&1\\
3&-2-x&2\\
1&0&-x
\end{vmatrix}\\
&=&\begin{vmatrix}
1-x&-1&0\\
3&-2-x&-x\\
1&0&-x
\end{vmatrix}=\begin{vmatrix}
1-x&-1&0\\
2&-2-x&0\\
1&0&-x
\end{vmatrix}\\
&=&-x \begin{vmatrix}
1-x&-1\\
2&-2-x
\end{vmatrix}=-x((x+2)(x-1)+2)=-x^2(x+1)
\end{array}$$
On détermine $E_0(A)$
$$\begin{pmatrix}a\\b\\c\end{pmatrix}\in \Ker(A) \Longleftrightarrow\left\{\begin{array}{lcl}
a-b+c&=&0\\
3a-2b+2c&=&0\\
a&=&0
\end{array}\right. \Longleftrightarrow a=0,\, b=c.$$
Donc $E_0(A)=\Vect({\,}^t (0\,1\,1))$. Donc $\dim(E_0(A))=1< \mu_0(A)=2$. On en déduit alors
$$\textcolor{blue}{ A \text{ n'est pas diagonalisable mais elle est trigonalisable}}.$$
- Un calcul simple nous donne $E_{-1}(A) =\Vect ({\,}^t (1\,\,1\,\,-1))$. On pose alors
$$e_1=\begin{pmatrix}1\\1\\-1\end{pmatrix},\, e_2=\begin{pmatrix}0\\1\\1\end{pmatrix}$$
Pour compléter cette famille à une base de $\R^3$, on choisit un vecteur $e_3\not\in
\Vect(e_1,e_2)$ ou le mieux on
choisit un vecteur $e_3\in \Ker (A-0I_3)^3\setminus E_0(A)$, on peut prendre par exemple
$e_3=\begin{pmatrix}1\\2\\1\end{pmatrix}$.
On obtient alors
$$ A = \underset{P}{\begin{pmatrix}1&0&1\\
1&1&2\\
-1&1&1
\end{pmatrix}}\begin{pmatrix}
-1&0&0\\
0&0&1\\
0&0&0
\end{pmatrix}\underset{P^{-1}}{\begin{pmatrix}-1&1&-1\\
-3&2&-1\\
2&-1&1
\end{pmatrix}}
$$
- Si $\lambda\in \Sp (M)$ alors $\lambda^2\in \Sp (A)=\{-1,0\}$, on en déduit que si $M$ est
une solution alors
$\Sp_\C (M)\subset \{0,\mp\ii\}$ et $\Sp_\R(M)=\{0\}$.
- D'après les questions précédentes, l'équation $M^2=A$ n'a pas de solution dans $\MM_3(\R)$.
SUITES
($\star\star$)
Correction
-
On pose $A=\begin{pmatrix} 1 & -1 & -2 \\ 0 & 2 & 1 \\ 1 & 1 &
3\end{pmatrix}$. Trigonaliser $A$.
-
Déterminer les suites $(u_n)$, $(v_n)$ et $(w_n)$ qui vérifient $(u_0,v_0,w_0)=(1,0,0)$ et les
relations de récurrence
$$\forall n\in \N,\quad \quad
\left\{\begin{array}{lcl}
u_{n+1} & =& u_n-v_n-2w_n \\
v_{n+1} & =& 2v_n +w_n \\
w_{n+1} & = &u_n + v_n + 3w_n.
\end{array}\right.$$
Correction
-
Un calcul passionnant du polynôme caractéristique montre que $\chi_A=-(X-2)^3$, donc seul $2$
est valeur propre, or $A\neq 2I$ donc
$A$ n'est pas diagonalisable.
Une base de $\Ker(A-2I_n)$ est $V={\,}^t (1,-1,0)$. On la complète avec
$V_2={\,}^t (-1,0,1)$ et $V_3={\,}^t (1,0,0)$ et
$$\begin{array}{lcl}
P^{-1} A P &=& \begin{pmatrix}
0 & 1 & 0 \\
0 & 0 & 1 \\
1 & 1 & 1
\end{pmatrix} \cdot
\begin{pmatrix} 1 & -1 & -2 \\ 0 & 2 & 1 \\ 1 & 1 &
3\end{pmatrix} \cdot
\begin{pmatrix} 1 & -1 & 1 \\ -1 & 0 & 0 \\ 0 & 1 & 0\end{pmatrix}
\\
& = & \begin{pmatrix} 2 & 1 & 0 \\ 0 & 2 & 1 \\ 0 &0 & 2\end{pmatrix}=T.
\end{array}
$$
-
On pose ensuite $X_n={\,}^t (u_n,v_n,w_n)$, alors $X_n=A^n X_0$. Le problème est donc de
calculer $A^n$.
Or $T=2I+N$ avec $N^2 = \begin{pmatrix} 0 & 0 & 1 \\ 0& 0 &0 \\ 0 &0&0\end{pmatrix}$ et $N^3=0$
donc
$$\begin{array}{lcl}
T^n & =& 2^n I +n2^{n-1} N + \frac{n(n-1)}{2}2^{n-2}N^2 \\
& =&
\begin{pmatrix} 2^n & n2^{n-1} & 2^{n-3} n (n-1) \\ 0 & 2^n &
n2^{n-1} \\ 0 & 0 & 2^n \end{pmatrix},
\end{array}
$$
ce qui donne en définitive
$$\left\{\begin{array}{lcl}
u_n & =& 2^n -n2^{n-1} - n(n-1)2^{n-3} \\
v_n & = &n(n-1)2^n \\
w_n & =& n2^{n-1}.
\end{array}
\right.
$$
($\star\star$)
Correction
Soient $u_0>0,\,u_1>0$ et $(u_n)_n$ la suite définie par:
$ \forall n\in \N,~~u_{n+2}=\dfrac{2}{\frac{1}{u_{n+1}}+\frac{1}{u_n}}$.
Calculer $u_n$ puis déterminer $\dsp\limiteX{n}{\infty} u_n$. (
On pourra considérer $v_n=1/u_n$ après avoir montré que $u_n>0$).
Correction
On montre par récurrence que $u_n>0$, puis on pose $v_n=1/u_n$ ensuite on montre que
$v_{n+2}=\dfrac{v_{n+1}+v_n}{2}$.
On note $V_n=\begin{pmatrix}
v_n\\
v_{n+1}
\end{pmatrix}$ et $A=\begin{pmatrix}
0&1\\
\frac{1}{2}&\frac{1}{2}
\end{pmatrix}$. Ce qui donne $V_{n}=A^nV_0$.
On calcule $A^n$, puis
$$v_n=\frac{1}{3}\left(\left(1+2(\frac{-1}{2})^n\right)v_0+\left(1-2(\frac{-1}{2})^n\right)v_1\right)$$
ce qui donne,
$$u_n=3\left(\left(1+2(\frac{-1}{2})^n\right)\frac{1}{u_0}+\left(1-2(\frac{-1}{2})^n\right)\frac{1}{u_1}\right)^{-1}.$$
Ensuite $\dsp\limiteX{n}{\infty}u_n=\dfrac{3u_0u_1}{2u_0+u_1}$