Puisque $\rg(A)=1$ alors $A$ peut s'écrire comme le produit de vecteur colonne $X=\begin{pmatrix}x_1\\ \vdots\\x_n \end{pmatrix} \in \MM_{n\,1}(\K)$ non nul fois un vecteur ligne $Y=\begin{pmatrix} y_1&\cdots&y_n \end{pmatrix} \in \MM_{1\,n}(\K)$ non nul. $$A =X\cdot Y =\begin{pmatrix} x_1y_1&x_1y_2&\cdots&\cdots& x_1y_n\\ x_2y_1&x_2y_2&\cdots&\cdots& x_2y_n\\ \vdots& &\ddots& &\vdots\\ \vdots& && \ddots &\vdots\\ x_ny_1&\cdots& & & x_ny_n \end{pmatrix} $$ Ce qui donne, $$\mathrm{tr} = \dsum_{k=1}^n a_{k\,k} = \dsum_{k=1}^n x_ky_k =Y\cdot X.$$ D'autre part, $$A^2 = (X\cdot Y)(X\cdot Y)=X\underset{\in \K}{( Y\cdot X) }Y = (Y\cdot X) (X\cdot Y)=(Y\cdot X)A $$ i.e. $A^2=\mathrm{tr} (A) A$ CQFD.
Soient $A,B\in \MM_n(\K)$ tel que $\rg(AB-BA)=1$. Calculer $(AB-BA)^2$.
Puisque $\rg(AB-BA)=1$ alors il existe $X\in \MM_{n\,1}(\K),\, Y\in \MM_{1\,n}(\K)$ (voir aussi exo matrices) tels que $$X\neq 0,\, Y\neq 0,\quad AB-BA =X\cdot Y.$$ Ce qui donne, $$(AB-BA)^2 =(X\cdot Y)(X\cdot Y)=X (Y\cdot X) Y = (Y\cdot X) (X\cdot Y)= (Y\cdot X) (AB-BA).$$ mais $Y\cdot X=\dsum_{i=1}^n x_iy_i =\mathrm{tr} (X\cdot Y)=\mathrm{tr} (AB-BA)=0$ puisque $\mathrm{tr}( AB-BA)=\mathrm{tr}(AB)-\mathrm{tr}(BA)$.
On en déduit alors que $(AB-BA)^2=0$.
Soient $A,B\in \MM_n(\C)$. On pose $M=\begin{pmatrix} A & A\\A & B \end{pmatrix}\in \MM_{2n}(\C)$.
Soit $E$ un espace vectoriel de dimension $n$ ($n\geq 1$). Soit $u$ un endomorphisme de $E$ tel que $\Ker u = \im u$.
Notons $p=\dim\im u\in \N^*$.
Soit $A_1,\cdots,A_p$ des matrices de $\MM_n(\K)$ tels que $\dsum_{k=1}^pA_k\in \mathrm{GL}_n(\K)$. Déterminer le rang des matrices suivantes: $$A=\left(A_1\,A_2\,\cdots\,A_p\right)\in \MM_{n\,np}(\K),\quad C=\begin{pmatrix} A_1&A_2&\cdots&A_p&0\\ 0&A_1&\cdots&A_{p-1}&A_p \end{pmatrix}.$$
Pour $k\in \inter{1,p}$, on note $S_k=\dsum_{j=1}^pA_j$ par hypothèse $s_p\in \mathrm{GL}_n(\K)$. On
note également $P=\begin{pmatrix}
I_n&\cdots&I_n\\
&\ddots&\vdots\\
(0)& &I_n
\end{pmatrix}\in \mathrm{GL}_{np}(\K)$, alors
$\rg(A)=\rg(AP)=\rg((S_1\,S_2\cdots S_p))=n$.
Soient $n,p\in \N^*$, $A\in \MM_n(\K),\,B\in \MM_p(\K)$ et $C\in \MM_{n,p}(\K)$.
Supposons que $\rg (A)=r\leq n$ et $\rg (B)=s\leq p$, alors il existe $Q_1,\,Q_2\in GL_n(\K),\,\,R_1,R_2\in GL_p(\K)$ tels que $$A = Q_1\begin{pmatrix} I_r&0\\ 0&0 \end{pmatrix}Q_2,\text{ et } B=R_1\begin{pmatrix} I_s&0\\ 0&0 \end{pmatrix}R_2.$$ On pose alors $D_1=\begin{pmatrix} Q_1&0\\ 0&R_1 \end{pmatrix}\in GL_{n+p}(\K)$ et $D_2=\begin{pmatrix} Q_2&0\\ 0&R_2 \end{pmatrix}\in GL_{n+p}(\K)$, et on a $$D_1\begin{pmatrix} Q_r&0\\ 0&R_s \end{pmatrix}D2=\begin{pmatrix} Q_1Q_r&0\\0&R_1R_s \end{pmatrix}\begin{pmatrix} Q_2&0\\ 0&R_2 \end{pmatrix}=\begin{pmatrix} A&0\\ 0&B \end{pmatrix}$$ La multiplication par une matrice inversible ne change pas le rang, on en déduit, $$\rg \begin{pmatrix} A&0\\ 0&B \end{pmatrix}=\rg \begin{pmatrix} Q_r&0\\ 0&R_s \end{pmatrix} =\rg \begin{pmatrix} I_r&0&0&0\\ 0& 0& 0 &0\\ 0&0&I_s&0\\ 0&0&0&0 \end{pmatrix} =\rg (A)+\rg(B).$$
Soient $n$ et $p$ deux entiers naturels non nuls. Soient $A\in \MM_{p,n}(\C)$ et $B\in \MM_{n,p}(\C)$. On considère dans $\MM_{n+p}(\C)$ la matrice $$M=\begin{pmatrix}0_{n}&B\\A&0_{p}\end{pmatrix}$$
Soit $A\in\MM_n(\R)$, on définit la matrice $B\in \MM_{2n}(\R)$ par $B=\begin{pmatrix} A&2A\\ A&2A \end{pmatrix}$.
On pose $N=\begin{pmatrix}
-2I_n&-2I_n\\
I_n&I_n
\end{pmatrix}\in \MM_{2n}(\R)$ $N\neq 0$ et $BN=0$ donc $B$ n'est pas inversible.
Si on suppose que $A$ inversible alors $\rg(B)\geq n$ donc $\dim (\Ker (B))\leq n$.
Soit $X=\begin{pmatrix}
X_1\\X_2
\end{pmatrix}\in \R^{2n}$ avec $X_i\in \R^n$, on a
$$X\in \Ker (B)\Longrightarrow BX=0\Longrightarrow \begin{pmatrix}
AX_1+2AX_2\\
AX_1+2AX_2
\end{pmatrix}0\Longrightarrow AX_1=-2AX_2 \Longrightarrow X_1=-2X_2.$$
Ainsi $F=\{{\,}^t (-2X X), \,X\in \R^n\}\subset \Ker (B)$ or $\dim (F)=n$, on en déduit alors que
$\Ker (B)=F$.
Soit $X=\begin{pmatrix}
X_1\\X_2
\end{pmatrix}\in \R^{2n}$ avec $X_i\in \R^n$, on a
$$X\in \im (B) \Leftrightarrow \exists U,V\in \R^n,\, X=B\begin{pmatrix}
U\\V
\end{pmatrix} \Leftrightarrow \exists U,V\in \R^n \left\{\begin{array}{l}
X_1=AU+2AV\\
X_2=AU+2AV
\end{array}
\right.$$
$\mathbf{1.\,}$ En utilisant le théorème du rang et le faite que $\rg (u)=n$, on trouve que $\dim
(\Ker (u))=n$.
D'autre part, $\im (u)\subset \Ker (u)$, en effet si $x\in \im (u)$, il existe $z\in \R^{2n}$ tel que
$x=u(z)$,
donc $u(x)=u^2(z)=$.
Ceci montre que $\im (u)=\Ker (u)$.
Soit $(e_1,\cdots,e_n)$ une base de $\im (u)$, alors pour tout
$j\in \inter{1,n}$ il existe $f_j\in \R^{2n}$ tel que $e_j=u(f_j)$.
Montrons que la famille $(f_1,\cdots,f_n,e_1,\cdots,e_n)$ est une base de $\R^{2n}$, pour cela il
suffit de montre
qu'il s'agit d'une famille libre.
Soient $\alpha_1,\cdots,\alpha_n,\beta_1,\cdots,\beta_n\in \R$ tels que $\dsum_{1\leq k\leq
n}\alpha_kf_k+\beta_ke_k=0\quad(\star)$. On applique $u$ à cette relation ce qui donne:
$$0=u\left(\dsum_{1\leq k\leq n}\alpha_kf_k+\beta_ke_k\right)= \dsum_{1\leq k\leq
n}\alpha_k\underset{=e_k}{u(f_k)}+\beta_k\underset{=0}{u(e_k)}=\dsum_{1\leq k\leq
n}\alpha_ke_k\Longrightarrow \alpha_1=\cdots=\alpha_n=0,$$
car la famille $(e_1,\cdots,e_n)$ est libre.
Donc la relation $(\star)$ devient $\dsum_{1\leq k\leq n}\beta_ke_k=0$ ce qui implique
$\beta_1=\cdots=\beta_n=0$.
On en déduit alors que la famille $(e_1,\cdots,e_n,f_1,\cdots,f_n)$ est libre donc base de $\R^{2n}$
et la matrice de $u$ dans cette base est:
$\mathbf{2.\,}$ Notons $\fonct{v}{\im u}{\im u}{x}{u(x)}$, on a $\rg(v) +\dim(\Ker (v))=\rg (u)=2n$
donc
$\rg (v)=\rg (u)-\dim (\Ker v)$ or $\Ker v= \Ker u \cap \im (u)\subset \Ker (u)$,
on en déduit alors que $\rg (v)\geq n$
(puisque $\rg (u)=2n$ et $\dim (\Ker (v))\leq \dim (\Ker (u))=n$).
Montrons maitenant que $\im v=\im u^2$. En effet si $y\in \im u^2$ alors il existe $x\in E$ tel que
$y=u^2(x)=u(u(x))=v(u(x))$
car $u(x)\in \im u$ donc $\im u^2\subset \im v$ et inversement si $y\in \im v$ donc il existe $x\in
\im u$ tel que $y=v(x)=u(x)$, or comme
$x$ est $\im u$, donc il existe $z\in E$ tel que $x=u(z)$ soit finalement $y=u^2(z)\in \im u^2$, d'où
l'égalité.
On en déduit alors que $\rg u^2=\rg v\geq n$.
Si $x\in \im u^2$ alors il existe $z\in E$ tel que $x=u^2(z)$, donc $u(x)=u^3(z)=0$ autrement dit,
$x\in \Ker (u)$ ceci impliqueque
$\im u^2 \subset \Ker u$, comme $\dim(\Ker u)=n$ et $\rg (u^2)\geq n$, on en déduit que $\rg (u^2)=n$
et $\im u^2=\Ker u$.
Soit $\BB_1=(e_1,\cdots,e_n)$ une base de $\Ker u$, alors il existe pour tout $i\in \inter{1,n}$
$x_i\in E$ tel que $e_i=u^2(x_i)$
on note alors $f_i = u(x_i)$, puis on montre que $(e_1,\cdots,e_n,f_1,\cdots,f_n,x_1\cdots,x_n)$ une
base de $E$ (même démarche que dans la
question précédente). La matrice de $u$ dans cette base est de la forme demandée.
Soient $A\in GL_p(\R),\,B\in \MM_{pq}(\R),\,C\in \MM_{qp}(\R),\,D\in \MM_q(\R)$. Montrer que $M=\begin{pmatrix} A&B\\ C&D \end{pmatrix}$ est de rang $p$ ssi $D=CA^{-1}B$.
Supposons que $D=CA^{-1}B$, on pose alors $N=\begin{pmatrix} A^{-1}&0\\ -CA^{-1}&I_q \end{pmatrix}\in \MM_{p+q}(\R)$, la matrice $N$ est inversible. On en déduit donc que $\rg(NM)=\rg (M)$, or $$NM = \begin{pmatrix} A^{-1}&0\\ -CA^{-1}&I_q \end{pmatrix}\begin{pmatrix} A&B\\ C&D \end{pmatrix} =\begin{pmatrix} A^{-1}A&A^{-1}B\\ -CA^{-1}A+C&-CA^{-1}B+D \end{pmatrix} =\begin{pmatrix} I_p&A^{-1}B\\ 0&0 \end{pmatrix} $$ Inversement, supposons que $\rg (M)=p$, en utilisant la matrice $N$, on trouve $$p=\rg (NM)=\rg (\begin{pmatrix} I_p&A^{-1}B\\ 0&-CA^{-1}B+D \end{pmatrix})=p+\rg (-CA^{-1}B+D)$$ on en déduit alors que $\rg ( -CA^{-1}B+D)=0$ autrement dit, $D=CA^{-1}B$.
Soient $A,B\in GL_n(\C)$ on pose $N=\begin{pmatrix} 0&A\\ B&0 \end{pmatrix}\in \MM_{2n}(\C)$. Montrer que $N\in GL_{2n}(\C)$. Calculer $N^2$ puis pour $P\in \C[X]$ calculer $P(N^2)$.
Soient $U,V,X,Y\in \MM_n(\C)$, on pose $M=\begin{pmatrix} U&V\\ X&Y \end{pmatrix}\in \MM_{2n}(\C)$, on a $$MN=\begin{pmatrix} U&V\\ X&Y \end{pmatrix}\begin{pmatrix} 0&A\\ B&0 \end{pmatrix}=\begin{pmatrix} VB&UA\\ YB&XA \end{pmatrix}$$ Si on prend $Y=0=U$ et $V=B^{-1},\, X=A^{-1}$, on trouve $$NM=\begin{pmatrix} I_n&0\\ 0&I_n \end{pmatrix} \Longrightarrow N\in GL_{2n}(\C),\,\text{ et } N^{-1}= \begin{pmatrix} 0&B^{-1}\\ A^{-1}&0 \end{pmatrix}.$$ Calculons maintenant $N^2$, $$N^2= \begin{pmatrix} 0&A\\ B&0 \end{pmatrix}\begin{pmatrix} 0&A\\ B&0 \end{pmatrix}=\begin{pmatrix} AB&0\\ 0&BA \end{pmatrix}$$ Il s'agit d'une matrice diagonale par bloc, donc pour tout $k\in \N, $ on a $$(N^2)^k=\begin{pmatrix} (AB)^k&0\\ 0&(BA)^k \end{pmatrix}\Longrightarrow \forall P\in \C[X],\, P(N^2)=\begin{pmatrix} P(AB)&0\\ 0&P(BA) \end{pmatrix}.$$
Soit $A=\begin{pmatrix} a&b\\c&d \end{pmatrix}\in \MM_2(\C)$.
$\mathbf{1. }$ On sait que $\tr (A)=a+d$ et $\det (A)=ad-cb$, on calcul alors $A^2$, $$ \begin{array}{lcl} A^2&=&\begin{pmatrix} a^2+bc&ab+bd\\ ca+cd&bc+d^2 \end{pmatrix}\\ &&\\ &=&\begin{pmatrix} a^2+bc+ad-cb+&ab+bd\\ ca+cd&bc+d^2+ad-cb \end{pmatrix}-\begin{pmatrix} ad-cb&0\\ 0&ad-cb \end{pmatrix}\\ &&\\ &=&(a+d)\begin{pmatrix} a&b\\ c&d \end{pmatrix}-(ad-cb)I_2 \end{array}$$ $\mathbf{2. }$ Supposons que $\det (A)\neq 0$, alors en utilisant la question précédente, on trouve $$A (A-\tr (A)I_2)=-\det(A)I_2 \Longrightarrow A\left(\dfrac{1}{\det(A)}(\tr (A)I_2-A)\right)=I_2.$$ Ce qui prouve que $A$ est inversible.
Soit $A=\begin{pmatrix} 3&-3&2\\ -1&5&-2\\ -1&3&0 \end{pmatrix}\in \MM_3(\R)$.
$\mathbf{1.\,}$ Le calcul de $A^2$ donne
$$A^2=\begin{pmatrix}
10&-18&12\\
-6&22&-12\\
-6&18&-8
\end{pmatrix}=6\begin{pmatrix}
3&-3&2\\
-1&5&-2\\
-1&3&0
\end{pmatrix}+\begin{pmatrix}
-8&0&0\\
0&-8&0\\
0&0&-8
\end{pmatrix}.$$
On en déduit que $A^2-6A=-8I_3$. Donc $A$ est inversible et
$A^{-1}=\frac{-1}{8}\left(A-6I_3\right)$.
$\mathbf{2.\,}$ Soit $n\in \N$, il existe un unique triplet $(a,b,Q)\in \R^2\times \R[X]$ tels que
$X^n=Q(X)(X^2-6X+8)+aX+b$. En particulier,
$$\left\{\begin{array}{lcl}
2^n&=&Q(2)\times 0+2a+b\\
4^n&=&Q(4)\times 0+4a+b
\end{array}
\right. \Longrightarrow a=2^{n-1}(2^n-1),\,\, b=2^{n+1}-4^n.$$
Soit $A=\begin{pmatrix} 0&1&1\\ 1&0&1\\ 1&1&0 \end{pmatrix}\in \MM_3(\R)$. Calculer $A^2$, en déduire que $A$ est inversible puis donner $A^{-1}$ en fonction de $A$.
Notons $J=\begin{pmatrix} 1&1&1\\ 1&1&1\\ 1&1&1 \end{pmatrix}$, on a $A=J-I_3$, alors $$A^2=J^2-2J+I_3=3J-2J+I_3=J+I_3=J-I_3+2I_3=A+2I_3$$ En particulier, $A(A-I_3)=2I_3$, on en déduit alors que $A$ est inversible et $A^{-1}=\frac{1}{2}(A-I_3)$.
Déterminer les matrice $A\in \MM_3(\R)$ telle que $A^2=\begin{pmatrix} 1&0&0\\1&1&0\\1&0&4 \end{pmatrix}$.
Notons $B=\begin{pmatrix} 1&0&0\\1&1&0\\1&0&4 \end{pmatrix}$, si $A$ est une solutions de l'équation $A^2=B$ alors $A$ et $B$ commutent, i.e. $AB=BA$. Supposons que $A=\begin{pmatrix} a&b&c\\x&y&z\\u&v&w \end{pmatrix}$, alors $$AB=BA\Longleftrightarrow \begin{pmatrix} b+c&0&3c\\ y+z-a&-b&3z-c\\ -3u+v+w-a&-3v-b&-c \end{pmatrix}=0\Longleftrightarrow\left\{\begin{array}{l} b=0\\ c=0\\ y=a\\ u=\frac{w-a}{3}\\ v=0 \end{array} \right. \Longleftrightarrow A=\begin{pmatrix} a&0&0\\ x&a&0\\ \frac{w-a}{3}&0&w \end{pmatrix} $$ Ensuite, on calcule $A^2$, $$A^2=\begin{pmatrix} a^2&0&0\\ 2xa&a^2&0\\ \frac{w^2-a^2}{3}&0&w^2 \end{pmatrix}=B\Longleftrightarrow\left\{\begin{array}{l} a^2=1\\ w^2=4\\ 2ax=1 \end{array}\right.\Longleftrightarrow A=\begin{pmatrix} \varepsilon_1&0&0\\ \frac{1}{2\varepsilon_1}&\varepsilon_1&0\\ \frac{2\varepsilon_2-\varepsilon_1}{3}&0&2\varepsilon_2 \end{pmatrix} $$ avec $\varepsilon_1,\,\varepsilon_2\in \{-1,1\}$.
On se place dans $E=\C\,\,^4$ muni de sa base canonique $\BB=(e_1,e_2,e_3,e_4).$ On désigne par $j$ l'endomorphisme de $E$ dont la matrice dans $\BB$ est la matrice suivante $$J=\left( \begin{array}{cccc} 0&1 &0&0\\ 0&0&1&0\\ 0&0&0&1\\ 1&0&0&0 \end{array} \right)\in M_4(\C).$$
$\mathbf{1.\,}$ On a $j(\BB)=\{e_4,e_1,e_2,e_3\}$ et
$$j^2(\BB)=j(\{e_4,e_1,e_2,e_3\})=\{j(e_4),j(e_1),j(e_2),j(e_3)\}=\{e_3,e_4,e_1,e_2\}$$
De la même façon, on trouve
$$j^3(\BB)=\{e_2,e_3,e_4,e_1\},\, j^4(\BB)=\{e_1,e_2,e_3,e_4\}.$$
$\mathbf{2.\,}$ On en déduit alors,
$$J^2=\begin{pmatrix}
0&0&1&0\\
0&0&0&1\\
1&0&0&0\\
0&1&0&0
\end{pmatrix},\quad J^3=\begin{pmatrix}
0&0&0&1\\
1&0&0&0\\
0&1&0&0\\
0&0&1&0
\end{pmatrix},\quad J^4=I_4.$$
$\mathbf{3.\,}$ Comme $J^4=I_4$ alors $X^4-1$ est un polynôme annulateur de $J$.
$\mathbf{4.\,}$ Soient $a,b,c$ et $d\in \R$ tels que $aJ^3+bJ^2+cJ+dI_4=0$ alors
$$0=\begin{pmatrix}
d&c&b&a\\
a&d&c&d\\
b&a&d&c\\
c&b&a&d
\end{pmatrix}\Longrightarrow a=b=c=d=0,$$
on en déduit alors que $J$ n'admet pas de polynôme annulateur de degré inférieur ou égale à $3$.
$\mathbf{5.\,}$ D'après ce qui procède, le polynôme minimale de $J$ est $X^4-1$.
Soit $A=\begin{pmatrix} 1&1&0\\-1&0&0\\2&0&-1 \end{pmatrix}\in \MM_n(\R)$.
$\mathbf{1.\,}$ Le calcul de $A^2$ donne $A^2=\begin{pmatrix}
0&1&0\\
-1&-1&0\\
0&2&1
\end{pmatrix}$. Soient $a,b,c\in \R$ tels que
$$aA^2+bA+cI_3=0\Leftrightarrow \begin{pmatrix}
b+c&a+b&0\\
-a-b&-a+c&0\\
2b&2 a&a-b+c
\end{pmatrix}=0\Longrightarrow a=b=c=0$$
Donc $A$ n'admet pas de polynôme annulateur de degré inférieur ou égale à 2.
$\mathbf{2.\,}$ Le calcul de $A^3$ donne $ A^3=-I_3$ donc le polynôme $X^3+1$ est un polynôme
annulateur de $A$, de plus c'est le polynôme minimale (d'après la question 2.).
Soit $f:\MM_n(\R)\rightarrow\R$ une fonction non constante telle que \begin{equation*} \forall A,B\in\MM_n(\R)\qquad f(AB)=f(A)\,f(B). \end{equation*}
Soient $A,B\in \MM_n(\R)$. On pose $C=AB-BA$. Montrer que si $C$ est colinéaire à $A$ ou à $B$ alors elle est nilpotente.
On note $C=AB-BA$, on suppose que $C\neq 0$ (si $C=0$ il n'a y rien à démontrer). On suppose qu'il
existe
$\lambda\in \R^*$ tel que $C=\lambda A$.
Considérons l'endomorphisme $\fonct{\varphi}{\MM_n(\R)}{\MM_n(\R)}{X}{XB-BX}$, on a
$\varphi(A)=\lambda A$. On a
$$\varphi (A^2)=A^2B-BA^2=A(AB-BA+BA)-(BA-AB+AB)A=\lambda A^2+ABA+\lambda A^2-ABA=2\lambda A^2.$$
On montre par récurrence que, pour tout $k\in \N$, $\varphi(A^k)=k\lambda A^k$, en effet la relation
est vraie pour
$k\in \inter{0,2}$. De plus,
$$\varphi(A^{k+1})=A^{k+1}B-BA^{k+1}=A^k(BA+C)-BA^{k+1}=(A^kB-BA^k)A+A^kC=k\lambda A^{k+1}+\lambda
A^{k+1}=(k+1)\lambda A^{k+1}.$$
Il existe alors $r\in \N$ tel que $\Ker (\varphi -r\lambda \mathrm{Id}e)=\{0\}$ ( en effet $(\lambda
r)_{r\in \N}$ sont deux à
deux distincts donc la somme de $\dsum_{r\in \N}\Ker (\varphi -r\lambda \mathrm{Id}e)$ est
direct).
Comme on a $\varphi (A^r)-r\lambda A^r=0$ donc $A^r=0$ donc $A$ est nilpotente ce qui donne le
résultat.
Soit $A \in\MM_n(\R)$. On note $\Delta_A = \{M \in \MM_n(\R),\, M + {\,}^t M = \tr(M)A\}$.
Soient $n\in \N^*$ et $D \in \MM_{n}(\K)$ une matrice diagonale dont les éléments diagonaux sont deux à deux distincts.
$\mathbf{1. }$ On sait que $\mathbb{D}_{n}(\K)$ est une sous-espace vectoriel de $\MM_n(\K)$, de
dimension $n$.
Il suffit donc de montrer que la famille ($I_n, D, D^2, \ldots, D^{n-1}$) est une famille libre.
Soit $\lambda_0,\cdots,\lambda_n\in \K$ tels que $\dsum_{i=0}^{n-1}\lambda_i D^i =0$.
En considérant les termes diagonaux, on obtient alors le système:
$$(S) \ \ \begin{cases} \lambda_0 +\lambda_1 d_1 + \ldots +\lambda_{n-1}d_1^{n-1} & = 0\\
\lambda_0 +\lambda_1 d_2 + \ldots +\lambda_{n-1}d_2^{n-1} & = 0\\
\ldots & =0 \\
\lambda_0 +\lambda_1 d_{n} + \ldots +\lambda_{n-1}d_n^{n-1} & = 0
\end{cases} $$
Soit alors $P=\lambda_0 + \lambda_1 X + \ldots + \lambda_{n-1}X^{n-1} \in \K_{n-1}[X]$. Le système
$(S)$
équivaut à dire que ce polynôme s'annule en $d_1,\cdots,d_n$. Les $d_i$ étant distincts, il possède
donc $n$
racines distinctes; étant de degré $\leq n-1$, il s'agit du polynôme nul, d'où
$\lambda_0=\ldots=\lambda_{n-1}=0$.
$\mathbf{2. }$ Soit $A=(a_{i\,j})\in \MM_n(\K)$ tel que $AD=DA$.
Soient $i,j\in \inter{1,n}$ tels que $i\neq j$, on a:
$$(AD)_{i\,j}=\sum_{k=1}^na_{i\,k}d_{k\,j}=a_{i\,j}d_{j\,j}\text{ et }
(DA)_{i\,j}=\sum_{k=1}^nd_{i\,k}a_{k\,j}=d_{i\,i}a_{i\,j}$$
On en déduit que $a_{i\,j}d_{j\,j}=a_{i\,j}d_{i\,i}$, comme $d_{i\,i}\neq d_{j\,j}$, on obtient alors
$a_{i\,j}=0$.
Ce qui donne que $A$ est une matrice diagonale.
Soient $n\geq 2$ et $A\in \MM_n(\C)$, on note $$\mathcal{V}(A)=\{P\in \C[X],\mid \, P\neq 0 \text{ et } P(A)=0\}.$$