Soient $E$ un $\K$-ev, $f,g\in \LL(E)$ tels que $g\circ f=f\circ g$. Montrer que tout sous-espace propre pour $f$ est stable par $g$, et que $\Ker (f)$ et $\im (f)$ sont stables par $g$.
Soit $\lambda\in \Sp (f)$, et $E_\lambda$ le sous espace propre associé à $\lambda$. On a:
$$\forall x\in E_\lambda,~~f(g(x))=g(f(x))=g(\lambda x)=\lambda g(x)\Longrightarrow g(x)\in E_\lambda.$$
Ce qui donne $\boxed{g(E_\lambda)\subset E_\lambda}$.
Pour $\Ker(f)$ et $\im(f)$ la démonstration a été fait dans le cours.
On note $E=\R^{\N^*}$, ensemble des suites réelles. On définit $f\in\LL (E)$ par $$\forall u\in E,\quad\forall n\in\N^*,\qquad \big(f(u)\big)_n=\dfrac{u_1+2u_2+\dots+n\,u_n}{n^2}.$$ Déterminer l'ensemble des valeurs propres de~$f$.
Nous allons montrer que $\Sp(f)=\{\frac{1}{n},\,n\in \N^*\}$.
Conclusion $\boxed{ \Sp(f)=\left\{\frac{1}{n},\,n\in \N^*\right\}}$.
On note $X={\,}^t (x_1\, \cdots x_n)$. Déterminer les éléments propres de la matrice $X {\,}^t X$.
Si $X=0$ alors $X {\,}^t X=0$ et dans ce cas la seule v.p est 0.
Si $X\neq 0$, on a déjà vu dans le cours (et aussi feuille de TD sur les matrices) que $\rg(X {\,}^t X)=1$
donc $0$ est une v.p d'ordre $n-1$ il faut chercher la deuxième v.p, pour cela, on a
$$ (X {\,}^t X)X= X ({\,}^t X\cdot X)=\norme{X}^2X\Longrightarrow \norme{X}^2\in \Sp(X)$$
Donc $\boxed{\Sp (X{\,}^t X)=\{0;\norme{X}^2\}}$.
Déterminer les valeurs propres et les vecteurs propres de l'endomorphisme $f$ dans les cas suivant
Soit $E$ un $\K$ ev de dimension finie $n$. Soient $u,v\in \LL (E)$. Montrer que $\Sp_\K(u\circ v)=\Sp_\K(v\circ u)$.
Soit $\lambda\in \Sp (u\circ v)$, on a
Dans les deux cas, on obtient $\Sp (u\circ v)\subseteq \Sp(v\circ u)$. En échangeant les rôles entre $u$ et $v$ on obtient l'inclusion inverse. D'où $$\boxed{ \Sp (u\circ v)= \Sp(v\circ u)}.$$
Soit $A\in \MM_n(\C)$, on pose $B={\,}^t (\text{Com}(A))$. Montrer que tout vecteur propre de $A$ est vecteur propre de $B$.
On sait qu'on la relation suivante : $AB=BA=\det(A)I_n$.
Soit $\lambda\in \Sp (A)$, on distingue deux cas:
Soient $n \geqslant 2$, $A \in \MM_n (\mathbb{R})$ et $f$ l'endomorphisme de $\MM_n (\mathbb{R})$ défini par $f(M) = \textrm{tr} (A)M - \textrm{tr} (M)A$, où $\textrm{tr} $ désigne la forme linéaire trace. Étudier la réduction de l'endomorphisme $f$ et préciser la dimension de ses sous-espaces propres.
On distingue deux cas:
Soit $E = \CC(\left[ {0,1} \right],\R)$. Si $f \in E$ on pose $$T(f):x \in \left[ 0,1 \right] \longmapsto \int_0^1 \min (x,t)f(t)\,\ud t $$
On peut écrire,
$$\forall f\in E,\,\forall x\in [0,1],\quad T(f)(x)=\int_0^x tf(t)\ud t+x\int_x^1f(t)\ud t.$$
La linéarité de $T$ est évidente, de plus remarquons que si $f$ est continue alors $T(f)$ est de classe
$\CC^1$.
Supposons que $\lambda\in \R$ est une v.p. de $T$, alors il existe une fonction $f$ non nulle tel que
$T(f)=\lambda f$, ce qui impose que $f$ soit de classe $\CC^\infty$ et aussi $f(0)=0$. En dérivant deux fois
cette relation on trouve:
$$\forall x\in [0,1],\quad xf(x)+\int_x^1f(t)\ud t-xf(x)=\lambda f'(x)\Longrightarrow \forall x\in [0,1],\,\,-f(x)=\lambda f''(x).$$
On note également, si $f$ est solution qui convient alors $f'(1)=0$.
On distingue 3 cas:
Conclusion, $$\boxed{\Sp (T)=\left\{\dfrac{1}{(\frac{\pi}{2}+k\pi)^2},\,k\in\Z\right\},\,E_\lambda(T)= \Vect(x\longmapsto \sin\left(\frac{x}{\sqrt{\lambda}}\right) )}.$$
Soit $A\in \MM_n(\R)$. On dit que $A$ est une matrice pseudo-magique ssi il existe un réel $S(A)\in \R$ tel que $$\forall i,j\in \inter{1,n},\quad \sum_{k=1}^na_{i\,k}=\sum_{k=1}^na_{k\,j}=S(A).$$ On note $E$ l'ensemble des matrice pseudo-magique et on note $J$ la matrice de $\MM_n(\R)$ dont tous les coefficients sont égaux à $1$.
Soit $A$ et $B$ deux matrices de $\MM_n(\C)$. Montrer que $A$ et $B$ admettent une valeur propre commune ssi il existe une matrice $U$ non nulle de $\MM_n(\C)$ telle que $AU=UB$.
$\Longrightarrow$ Supposons que $\lambda\in \Sp (A)\cap\Sp (B)$, alors $\lambda\in \Sp ({\,}^t B)$,
ce qui donne
$$\exists X\in \C^n,\,X\neq 0,\, AX=\lambda X,\, \exists Z\in \C^n,\, Z\neq 0,\, {\,}^t B Z=\lambda Z$$
On pose alors $U=X{\,}^t Z$, on a
$$AU= AX{\,}^t Z=\lambda X{\,}^t Z=\lambda U,\, UB=X{\,}^t Z B=X{\,}^t ({\,}^t B Z)=X(\lambda {\,}^t Z)=\lambda U$$
Autrement dit, $AU=UB$.
$\Longleftarrow$ Supposons que $AU=UB$ avec $U\neq 0$ et montrons que $\Sp (A)\cap \Sp (B)\neq \emptyset$.
Puisque $AU=UB$ alors $A^2U=AAU=AUB=UB^2$ puis par récurrence on montre que pour tout $k\in \N$, $A^kU=UB^k$,
en particulière
$$\forall P\in \C[X],\quad P(A)U=UP(B)$$
supposons que $\Sp (A)\cap \Sp (B)= \emptyset$ alors la matrice $\chi_A (B)$ est inversible, puisque pour tout
$\lambda\in \Sp (A),\, B-\lambda I_n $ est inversible. On obtient alors,
$$O=\chi_A(A)U=U\chi_A(B)\Longrightarrow U=0$$
ce qui est impossible, autrement dit, $\Sp (A)\cap \Sp (B)\neq \emptyset$.
Soit $E$ un $\R$-espace vectoriel de dimension $n\geq 2$ et $x_0$ un vecteur non nul de $E$. On considère une forme linéaire $\varphi$ et on pose pour tout $x$ dans $E$, $u(x)=x+\varphi(x)x_0$.
On suppose que $\varphi\neq 0$ car sinon on aurait $u=\mathrm{Id}e$
Montrer que $D$ défini par $D(f)(x)=xf'(x)$ est un endomorphisme de $\CC^\infty(\R,\R)$. Trouver $\Ker (D)$ puis ses éléments propres.
Il est claire que si $f\in\CC^\infty(\R)$ alors $f'$ l'est aussi, puis $x\longmapsto xf'(x)$ est aussi de classe
$\CC^\infty$ comme le produit de deux fonction de classe $\CC^\infty$. Donc $D(f)\in \CC^\infty(\R)$.
Soient $f,g\in \CC^\infty(\R)$ et $\lambda\in \R$, on a
$$\forall x\in \R,\,D(\lambda f+g)(x)=x(\lambda f+g)'(x)=x(\lambda f'(x)+g'(x))=\lambda D(f)(x)+D(g)(x)$$
Donc $D$ est linéaire, ce qui prouve que $D$ est un endomorphisme de $\CC^\infty(\R,\R)$.
Soit $f\in \Ker (D)$, alors
$$\forall x\in \R,\, xf'(x)=0\Longrightarrow \forall x\in \R^*,\,f'(x)=0$$
et par continuité de $f'$ sur $\R$, on a $f'(0)=0$, donc $f\in \Ker (D)$ implique $f'=0$ i.e. $f$ est constante.
Inversement si $f$ est constante alors $D(f)=0$.
$$\Ker (D)=\{f\in\CC^\infty(\R,\R),\, \exists \alpha\in \R,\,\forall x\in \R,\,f(x)=\alpha\}.$$
Soit $\lambda\in \R^*$, supposons que $\lambda$ est une valeur propre de $D$, alors il existe $f$ non nulle, telle que
$$\forall x\in \R,\, xf'(x)=\lambda f(x)\Longrightarrow f(x)=x^\lambda \quad (\text{ au moins sur }\R_+^*).$$
Comme $f$ est de classe $\CC^\infty$ alors $\lambda\in \N^*$.
Inversement, pour tout $\lambda\in \N$, $f(x)=x^\lambda$ est un vecteur propre et $D(f)=\lambda f$.
$$\Sp (D)=\N$$
Soit $A=\begin{pmatrix} 0&a&b\\ a&0&b\\ a&b&0 \end{pmatrix}$, déterminer $\Sp (A)$, CNS pour que $A$ soit diagonalisable.
Le cas $(a,b)=(0,0)$ est trivial. Supposons dans la suite que $(a,b)\neq (0,0)$.
Commençons par calculer le polynôme caractéristique de $A$,
$$\begin{array}{lcl}
\det(A-\lambda I_3)&=& \begin{vmatrix}
-\lambda&a&b\\
a&-\lambda & b\\
a&b&-\lambda
\end{vmatrix}
=
\begin{vmatrix}
-\lambda&a&b\\
a&-\lambda & b\\
0&b+\lambda &-\lambda-b
\end{vmatrix}\\
&&\\
&=& \begin{vmatrix}
-\lambda&a&b+a\\
a&-\lambda & b-\lambda\\
0&b+\lambda &0
\end{vmatrix} =-(\lambda+b)\begin{vmatrix}
-\lambda&a+b\\
a & b-\lambda
\end{vmatrix}\\
&=&-(\lambda+b)\left( -\lambda (b-\lambda)-a (a+b)\right)=-(\lambda+b)(\lambda+a)(\lambda-(a+b))
\end{array}$$
Donc $\Sp (A)=\{-a,-b,(a+b)\}$.
Soient $A=\begin{pmatrix} 2&3\\1&4 \end{pmatrix}\in \MM_2(\R)$ et $M=\begin{pmatrix} A&A\\ A&A \end{pmatrix}\in \MM_4(\R)$. Déterminer $\Sp(A)$ en déduire $\Sp(M)$.
On remarque que $$A\begin{pmatrix} 1\\1 \end{pmatrix}=\begin{pmatrix} 5\\5 \end{pmatrix}=5 \begin{pmatrix} 1\\1 \end{pmatrix},\,\, A\begin{pmatrix} 3\\-1 \end{pmatrix}=\begin{pmatrix} 3\\-1 \end{pmatrix} \Longrightarrow\Sp (A)=\{1,5\}.$$ On note dans la suite $U=\begin{pmatrix} 1\\1 \end{pmatrix}$ et $V=\begin{pmatrix} 3\\-1 \end{pmatrix}$. $$M\begin{pmatrix} U\\ U \end{pmatrix}=\begin{pmatrix} AU+AU\\ AU+AU \end{pmatrix} =10\begin{pmatrix} U\\U \end{pmatrix},\,\, M\begin{pmatrix} U\\-U \end{pmatrix}=\begin{pmatrix} AU-AU\\AU-AU \end{pmatrix}=0.$$ $$M\begin{pmatrix} V\\ V \end{pmatrix}=\begin{pmatrix} AV+AV\\ AV+AV \end{pmatrix} =2\begin{pmatrix} V\\V \end{pmatrix},\,\, M\begin{pmatrix} V\\-V \end{pmatrix}=\begin{pmatrix} AV-AV\\AV-AV \end{pmatrix}=0$$. Donc $\Sp (M)=\{0,2,10\}$ et $$\begin{array}{lcl} E_0(M)&=&\Vect(\begin{pmatrix} 1\\1\\-1\\-1 \end{pmatrix},\begin{pmatrix} 3\\-1\\-3\\1 \end{pmatrix})\\ E_2(M)&=&\Vect(\begin{pmatrix} 3\\-1\\3\\-1 \end{pmatrix})\\ E_{10}(M)&=&\Vect(\begin{pmatrix} 1\\1\\1\\1 \end{pmatrix}) \end{array}$$
Déterminer $(x,y)\in \R^2$ tels que la matrice $A=\begin{pmatrix} x&1&1\\ 1&y&1\\ 1&1&0 \end{pmatrix}$ admette $\begin{pmatrix} 1\\2\\3 \end{pmatrix}$ pour vecteur propre.
Supposons que $\begin{pmatrix} 1\\2\\3 \end{pmatrix}$ est un vecteur propre de la matrice $A$, alors il existe $\lambda\in \R$ tel que $$A\begin{pmatrix} 1\\2\\3 \end{pmatrix}=\lambda\begin{pmatrix} 1\\2\\3 \end{pmatrix}\Longrightarrow\left\{\begin{array}{lcl} x+5&=&\lambda\\ 2y+4&=&2\lambda\\ 3&=&3\lambda \end{array} \right.$$ ceci implique que $\lambda=1$ et donc $x=-4$ et $y=-1$.
Soit $A=\begin{pmatrix} 0&1&1&0\\ 1&0&0&1\\ 1&0&0&1\\ 0&1&1&0 \end{pmatrix}\in \MM_4(\R)$. Résoudre les systèmes suivants : $AX=0,AX=2X$ et $AX=-2X$, en déduire $\Sp (A)$.
On note $C_1,\,C_2,C_3$ et $C_4$ les colonnes de la matrice $A$, on remarque que $C_1=C_4$ et $C_2=C_4$, donc $$A\begin{pmatrix} 1\\ 0\\ 0\\ -1 \end{pmatrix} =\begin{pmatrix} 0\\0\\0\\0 \end{pmatrix},\, A\begin{pmatrix} 0\\ 1\\ -1\\ 0 \end{pmatrix} =\begin{pmatrix} 0\\0\\0\\0 \end{pmatrix},\,A\begin{pmatrix} 1\\1\\1\\1 \end{pmatrix}=2\begin{pmatrix} 1\\1\\1\\1 \end{pmatrix},\, A\begin{pmatrix} 1\\-1\\-1\\1 \end{pmatrix}=-2\begin{pmatrix} 1\\-1\\-1\\1 \end{pmatrix} $$ On en déduit alors, $\Sp (A)=\{-2,0,2\}$.
Déterminer $a\in \R$ pour que $2$ soit valeur propre de $A=\begin{pmatrix} 1&-1&0\\ a&1&1\\ 0&1+a&3 \end{pmatrix}$.
Si $2\in \Sp (A)$ alors il existe $\begin{pmatrix} 1\\2\\3 \end{pmatrix}\in \R^3$ non nul tel que $$A\begin{pmatrix} 1\\2\\3 \end{pmatrix}=2\begin{pmatrix} 1\\2\\3 \end{pmatrix}\Longrightarrow\left\{\begin{array}{lcl} x-y&=&2x\\ ax+y+z&=&2y\\ (1+a)y+3z&=&2z \end{array} \right. \Longrightarrow\left\{\begin{array}{lcl} x&=&-y\\ -ay+y -(1+a)y&=&2y\\ z&=&-(1+a)y \end{array} \right.$$ Ce qui implique $a=-1$.
$A$ est une matrice fixée de $\MM_n(\R)$. Soit $f:\MM_n(\R)\longmapsto\MM_n(\R)$ définie par $f(M)=AM$.
Soit $E$ un $\R$- ev de dimension finie $n\geq 1$. On se donne $u\in \LL (E)$, montrer qu'il existe un sous-espace vectoriel de dimension 1 ou 2 stable par $u$.
On distingue deux cas:
Soient $u$ endomorphisme d'un $\K$-espace vectoriel $E$ de dimension finie $n \geqslant 2$. On suppose que $E$ est le seul sous-espace vectoriel non nul stable par $u$.
$\mathbf{1.\,}$ $u$ ne possède pas de valeurs, sinon $u$ aurait des sous espaces stable.
$\mathbf{2.\,}$ Soit $x\in E$ non nul, alors il existe $p\in \N^*$ tel que la famille
$(x,u(x),\cdots,u^{p-1}(x))$ soit libre et $(x,u(x),\cdots,u^{p-1}(x),u^p(x))$ soit liée.
Montrons que $p=n$.
En effet, si on suppose que $p< n$ alors la famille $(x,u(x),\cdots,u^{p-1}(x),u^p(x))$ est liée donc
$u^{p}(x)\in \Vect((x,\cdots,u^{p-1}(x)))$ puisque par hypothèse la famille $(x,\cdots,u^{p-1}(x))$ est libre.
On en déduit alors
que $F= \Vect((x,\cdots,u^{p-1}(x)))$ est stable par $u$ ce qui contredit l'hypothèse sur $u$ puisque
$\dim (F)< n$.
On en déduit alors que $p=n$, autrement dit, $(x,\cdots,u^{p-1}(x))$ est une base de $E$ puisque cette
famille est libre et contient autant d'éléments que la dimension de $E$.
$\mathbf{3.\,}$ Supposons que $u^n(x)=\dsum_{k=0}^{n-1}a_ku^{k}(x)$, on en déduit alors que la matrice de $u$
dans la base $\BB_x=(x,\cdots,u^{n-1}(x))$ est donnée par:
$$\begin{matrix}
&\begin{matrix} u(x) &u^2(x)&\cdots &u^{n-1}(x)&u^n(x)\end{matrix}\\\\
\begin{matrix} x\\ u(x)\\ u^2(x)\\ \vdots\\\vdots\\ u^n(x)\end{matrix}&
\begin{pmatrix}
0 & 0 &\cdots& \cdots & 0 & a_0 \\
1 & 0 & & & 0 & a_1 \\
0 & 1 &\ddots& & \vdots & \vdots\\
\vdots&0 &\ddots&\ddots & \vdots & \vdots \\
\vdots &\vdots & \ddots &\ddots & 0 & a_{n-2}\\
0 & 0 &\cdots&\cdots\, 0& 1&a_{n-1}
\end{pmatrix}\\\\
\end{matrix}$$
On pose $P(u)=u^n-\dsum_{k=0}^{n-1}a_ku^k\in \LL (E)$, on pour tout $j\in \inter{0,n-1}$,
$$P(u)(u^j(x))=u^n(u^j(x))-\dsum_{k=0}^{n-1}a_ku^k(u^j(x))=u^j(u^n(x))-u^j\left(\dsum_{k=0}^{n-1}a_ku^k(x)\right)=u^j\left(u^n(x)-\dsum_{k=0}^{n-1}a_ku^k(x)\right)=0$$
puisque $u^n(x)=\dsum_{k=0}^{n-1}a_ku^k(x)$. On en déduit que $P(u)$ est nul sur la base $\BB_x$,
autrement dit $P(u)=0$ (i.e. $P= X^n-\dsum_{k=0}^{n-1}a_kX^k$ est un polynôme annulateur de
$u$).
Soit $y\in E$ non nul, d'après la question précédente la famille $\BB_y=(y,u(y),\cdots,u^{n-1}(y))$
est une base de $E$. Il faut montrer que la matrice de $u$ dans cette base est la même que dans la
base $\BB_x$.
Il est clair que les $n-1$ colonnes de $M_{\BB_y}(u)$ sont identique au $n-1$ premières colonnes
de la matrice $M_{\BB_x}(u)$ (ceci est dû à la 'nature' des deux bases). Rester à montrer que la
dernière colonne de $M_{\BB_y}(u)$ est identique avec celui de $M_{\BB_x}(u)$, i.e. il faut
montrer que $u^n(y)=\dsum_{k=0}^{n-1}a_ku^k(y)$.
D'après la remarque précédente, $P(u)(y)=0$ puisque $P(u)=0$, donc
$0=u^n(y)-\dsum_{k=0}^{n-1}a_ku^k(y)$ soit $u^n(y)=\dsum_{k=0}^{n-1}a_ku^k(y)$, et comme
$(y,u(y),\cdots,u^{n-1}(y))$ est une base de $E$ alors cette écriture est unique. Ce qui donne
finalement $\boxed{M_{\BB_y}(u)=M_{\BB_x}(u)}$.
Soit $a\in \R$. Montrer que les matrices suivante sont diagonalisables et les diagonaliser: $$ \begin{array}{ll} \mathbf{a)} ~~ \begin{pmatrix} 0&1&0\\ 1&0&1\\ 0&1&0 \end{pmatrix}& \quad \mathbf{b)}~~\begin{pmatrix} 11&-5&5\\ -5&3&-3\\ 5&-3&3 \end{pmatrix} \\ & \\ \mathbf{c)} ~~\begin{pmatrix} -1&a&a^2\\ 0&0&-a\\ 0&0&1 \end{pmatrix} &\quad\mathbf{d)} ~~\begin{pmatrix} 0&-1&1\\ -a-1&a&a+1\\ -a&a&a+1 \end{pmatrix}. \end{array} $$
$\mathbf{a)}$ $$ \begin{pmatrix} 0&1&0\\ 1&0&1\\ 0&1&0 \end{pmatrix}=\begin{pmatrix} 1&1&1\\ 0&\sqrt{2}&-\sqrt{2}\\ -1&1&1 \end{pmatrix}\begin{pmatrix} 0&0&0\\ 0&\sqrt{2}&0\\ 0&0&-\sqrt{2} \end{pmatrix}\begin{pmatrix} \frac{1}{2}&0&\frac{-1}{2}\\ \frac{1}{4}&\frac{\sqrt{2}}{4}&\frac{1}{4}\\ \frac{1}{4}&\frac{-\sqrt{2}}{4}&\frac{1}{4} \end{pmatrix} $$ $\mathbf{b)}$ $$ \begin{pmatrix} 11&-5&5\\ -5&3&-3\\ 5&-3&3 \end{pmatrix}= \begin{pmatrix} 0&-1&2\\ 1&-1&-1\\ 1&1&1 \end{pmatrix}\begin{pmatrix} 0&0&0\\ 0&1&0\\ 0&0&16 \end{pmatrix} \begin{pmatrix} 0&\frac{1}{2}&\frac{1}{2}\\ \frac{-1}{3}&\frac{-1}{3}&\frac{1}{3}\\ \frac{1}{3}&\frac{-1}{6}&\frac{1}{6} \end{pmatrix} $$ $\mathbf{c)}$ $$\begin{pmatrix} -1&a&a^2\\ 0&0&-a\\ 0&0&1 \end{pmatrix} =\begin{pmatrix} a&0&1\\ 1&-a&0\\ 0&1&0 \end{pmatrix} \begin{pmatrix} 0&0&0\\ 0&1&0\\ 0&0&-1 \end{pmatrix} \begin{pmatrix} 0&1&a\\ 0&0&1\\ 1&-a&-a^2 \end{pmatrix} $$ $\mathbf{d)}$ $$ \begin{pmatrix} 0&-1&1\\ -a-1&a&a+1\\ -a&a&a+1 \end{pmatrix} = \begin{pmatrix} 1&1&0\\ 0&1&1\\ 1&0&1 \end{pmatrix} \begin{pmatrix} 1&0&0\\ 0&-1&0\\ 0&0&2a+1 \end{pmatrix} \begin{pmatrix} \frac{1}{2}&\frac{-1}{2}&\frac{1}{2}\\ \frac{1}{2}&\frac{1}{2}&\frac{-1}{2}\\ \frac{-1}{2}&\frac{1}{2}&\frac{1}{2} \end{pmatrix} $$
$A=\begin{pmatrix} 1 & 0 & 0 & 1\\ 1 & 1 & 1 & 1\\ 1 & 1 & 1 & 1\\ 1 & 0 & 0 & 1 \end{pmatrix}$ est-elle diagonalisable ?
On remarque que $$A\begin{pmatrix} 1\\0\\0\\-1 \end{pmatrix} =0 \text{ et } A\begin{pmatrix} 0\\1\\-1\\0 \end{pmatrix} =0$$ donc $0$ est une valeur propre d'ordre de multiplicité au moins $2$, donc $\chi_A(x)$ est de la forme $x^2(x^2-4x+a)$ pour trouver $a$, on peut calculer $\chi_A(1)$, $$\chi_A(1)=\begin{vmatrix} 0&0&0&1\\ 1&0&1&1\\ 1&1&0&1\\ 1&0&0&0 \end{vmatrix}=-\begin{vmatrix} 1&0&1\\ 1&1&0\\ 1&0&0 \end{vmatrix}=1\Longrightarrow -3+a=4\Longrightarrow \chi_A(x)=x^2(x-2)^2$$ donc $\Sp(A)=\{0,2\}$. Pour que $A$ soit diagonalisable il faut que $\dim (E_2)=2$, or $$\begin{pmatrix} x\\y\\z\\w \end{pmatrix}\in E_2(A) \Longleftrightarrow\left\{\begin{array}{lcl} x+w&=&2x\\ x+y+z+w&=&2y\\ x+y+z+w&=&2z\\ x+w&=&2w \end{array}\right.$$ La résoultion de ce dernier système donne $E_2(A)=\Vect({\,}^t (0\,1\,1\,0))$, soit $\dim (E_2)=1$, donc
Soit $a\in\R$. On note $A=\begin{pmatrix} a & -1 & -1 \\ -1 & a & -1 \\ -1 & -1 & a \end{pmatrix}$.
La matrice $A$ est symétrique donc elle est diagonalisable (
En particulier la dimension de chaque espace propre est égale à l'ordre de multiplicité de la valeur propre
correspondante. On en déduit que
Soit $u\in \LL(\R^n)$ diagonalisable. Montrer l'équivalence entre les propriétés suivantes:
Puisque $u$ est diagonalisable, donc il existe une base $\BB=(b_1,\cdots,b_n)$ de $E$ tel que
$$\forall i\in \inter{1,n},\quad u(b_i)=\lambda_i b_i,$$
$(\mathbf{a})\Longrightarrow (\mathbf{b})$ Supposons que $v=\dsum_{i=1}^nv_ib_i$, donc
$$\forall k\in \N,\, u^k(v)=\dsum_{i=1}^n \lambda_i^kb_i \quad (\text{cours}),$$
Comme $\mathcal{V}=(v,u(v),\cdots,u^{n-1}(v))$ est une base de $\R^n$ alors la matrice de passage de la base $\BB$ à la base $\mathcal{V}$ est inversible, or cette matrice est
$$\begin{pmatrix}
v_1& \lambda_1v_1 &\cdots& \lambda_1^{n-2}v_1&\lambda_1^{n-1} v_1\\
v_2& \lambda_2v_2 &\cdots& \lambda_2^{n-2}v_2&\lambda_2^{n-1} v_2\\
\vdots& & & &\\
& & & &\\
v_n&\lambda_n v_n&\cdots& \lambda_n^{n-2}v_n&\lambda_n^{n-1}v_n
\end{pmatrix}=
\begin{pmatrix}
v_1&0 &\cdots& &0\\
0& v_2 &\ddots& &\\
\vdots& &\ddots & &\\
\vdots& & \ddots& v_{n-1}&0\\
0&&\cdots& 0&v_n
\end{pmatrix}
\begin{pmatrix}
1& \lambda_1 &\cdots& \lambda_1^{n-2}&\lambda_1^{n-1} \\
1& \lambda_2&\cdots& \lambda_2^{n-2}&\lambda_2^{n-1}\\
\vdots& & & &\\
& & & &\\
1&\lambda_n &\cdots& \lambda_n^{n-2}&\lambda_n^{n-1}
\end{pmatrix}
$$
On reconnait la matrice
$(\mathbf{b})\Longrightarrow (\mathbf{a})$ on pose dans ce cas $v=\dsum_{i=1}^n b_i$, alors la matrice de la famille $\mathcal{V}=(v,u(v),\cdots,u^{n-1}(v))$ dans la base $\BB$ est la matrice suivante
$$\begin{pmatrix}
1& \lambda_1 &\cdots& \lambda_1^{n-2}&\lambda_1^{n-1} \\
1& \lambda_2&\cdots& \lambda_2^{n-2}&\lambda_2^{n-1}\\
\vdots& & & &\\
& & & &\\
1&\lambda_n &\cdots& \lambda_n^{n-2}&\lambda_n^{n-1}
\end{pmatrix}
$$
donc $M(\mathcal{V})$ est inversible car les $\lambda_i$ sont 2 à 2 distincts, donc $\mathcal{V}$ est une base
de $\R^n$.
Soient $u,v,\,f\in \LL(E)$ ($E$ est un $\K$ ev de dim finie). On suppose qu'il existe $\alpha,\,\beta\in \K$ tels que: $$f=\alpha u+\beta v,\quad f^2=\alpha^2 u+\beta^2 v,\quad f^3=\alpha^3 u+\beta^3 v.$$ Montrer que $f$ est diagonalisable.
Il faut chercher un polynôme annulateur de $f$, $$(\alpha+\beta)f^2 = \alpha^3 u+\alpha\beta^2 u+ \beta \alpha^2 u+\beta^3 v= f^3 +\alpha\beta f$$ Donc le polynôme $X(X-\alpha)(X-\beta)$ est un polynôme annulateur de $f$,
Conclusion, dans tous les cas, $f$ est diagonalisable.
Soit $m\in \C$. On considère $A=\begin{pmatrix}
m&-1\\
-1&m
\end{pmatrix}$. Montrer que $A$ est diagonalisable puis diagonaliser $A$.
Soit $M\in \MM_n(\C)$, diagonalisable. On considère la matrice $B=\begin{pmatrix}
M&-I_n\\
-I_n&M
\end{pmatrix}\in \MM_{2n}(\C)$. $B$ est-elle diagonalisable? inversible?
Un calcul simple nous donne,
$$A=\begin{pmatrix}
1&1\\
1&-1
\end{pmatrix}\begin{pmatrix}
m-1&0\\
0&m+1
\end{pmatrix}\begin{pmatrix}
1/2&1/2\\
1/2&-1/2
\end{pmatrix}$$
Supposons que $M$ est diagonalisable, alors $M=PDP^{-1}$ avec $P\in GL_n(\C)$ et $D\in \MM_n(\C)$ une matrice
diagonale.
On pose alors $Q=\begin{pmatrix}
P&P\\
P&-P
\end{pmatrix}\in \MM_{2n}(\C)$, la matrice $Q$ est inversible d'inverse $Q^{-1}=\dfrac{1}{2}\begin{pmatrix}
P^{-1}&P^{-1}\\
P^{-1}&-P^{-1}
\end{pmatrix}$, puis on vérifie
$$B= \begin{pmatrix}
P&P\\
P&-P
\end{pmatrix}
\begin{pmatrix}
D-I_n&0\\
0&D+I_n
\end{pmatrix}\dfrac{1}{2}\begin{pmatrix}
P^{-1}&P^{-1}\\
P^{-1}&-P^{-1}
\end{pmatrix}$$
On en déduit alors que $B$ est diagonalisable, puis $B$ est inversible ssi pour tout
$\lambda\in \Sp (M),\, \lambda\not\in \{-1,1\}$.
Soit $A\in \MM_n(\K)$ non nulle, on définit $\fonct{\varphi}{\MM_n(\K)}{\MM_n(\K)}{M}{M+\tr (MA)A}$. Étudier la diagonalisablilité de $\varphi$.
Notons $\fonct{f}{\MM_n(\K)}{\K}{M}{\tr (MA)}$, puisque $A\neq 0$, alors $f\neq 0$, $f$ est une forme linéaire,
donc $\dim(\Ker (f))=n^2-1$.
Soit $(M_1,\cdots,M_{n^2-1})$ une base de $\Ker (f)$, alors
$$\forall j\in \inter{1,n^2-1},\, \varphi (M_j)=M_j+f(M_j)A=M_j$$
donc $1\in \Sp (\varphi)$ et $\dim E_1(\varphi)\geq n^2-1$. Comme $\varphi\neq \mathrm{Id}e$ alors
$\dim E_1(\varphi)=n^2-1$.
Il nous reste alors une valeur propre au maximum à chercher! or si $M$ est un vecteur propre
associé à une valeur propre $\lambda\neq 1$, on aurait
$$\varphi (M)=M+\tr (MA) A=\lambda M \Longrightarrow M=\dfrac{\tr (MA)}{1-\lambda}A \text{ donc } M\in \Vect (A)$$
On distingue alors deux cas:
Soient $a\neq b\in\R$,on définit $u\in \LL(\R_n[X])$ par
$u(P)=(X-a)(X-b)P'(X)-\left(nX-\frac{n}{2}(a+b)\right)P(X)$.
Déterminer $\Sp (u)$, montrer que $u$ est diagonalisable.
Pour $k\in \inter{0,n}$, on pose $P_k=(X-a)^k(X-b)^{n-k}$. On a
$$\begin{array}{lcl}
u(P_k)&=&(X-a)(X-b)[k (X-a)^{k-1}(X-b)^{n-k}+(n-k)(X-a)^{k}(X-b)^{n-k-1}]\\
&&-n(X-\dfrac{a+b}{2})(X-a)^k(X-b)^{n-k}\\
&&\\
&=&[k(X-b)+(n-k)(X-a)]P_k-n(X-\dfrac{a+b}{2})P_k\\
&=&(k+n-k-n)XP_k-(kb+(n-k)a-n(a+b)/2)P_k\\
&=&\left(\dfrac{n}{2}-k\right)(b-a)P_k
\end{array}$$
On en déduit alors que, pour tout $k\in \inter{0,n}$, $ \left(\dfrac{n}{2}-k\right)(b-a)\in \Sp (u)$.
Ces valeurs sont 2 à 2 distincts, de plus il y $n+1$ valeurs.
On en déduit alors que $u$ est diagonalisable car admet $n+1$ valeurs propres simples.
Soient $0< a_1< \cdots< a_n\in \R$, on considère la matrice suivante: $$ U=\begin{pmatrix} 0 & a_2 & a_3 & \cdots & & a_n \\ a_1 & 0 & a_3 & & &\vdots \\ \vdots& a_2 & \ddots & \ddots& & \\ & \vdots & a_3 & & & \\ & &\vdots& \ddots & & a_n \\ % & & & & & \\ a_1 & a_2 & a_3 & \cdots & a_{n-1}& 0 \\ \end{pmatrix}\in \MM_n(\R) $$