Montrer qu'une matrice est de rang 1 ssi elle s'écrit comme le produit d'une matrice colonne par une matrice ligne.
Soient $p,q\in \N^*$, $C=\left(\begin{array}{c}
a_1\\
\vdots\\
a_q
\end{array}\right)\in \MM_{q\,1}(\K)$ une matrice colonne non nulle et
$L=(b_1\cdots b_p)\in \MM_{1\,p}(\K)$ une matrice linge non nulle, le produit $CL$ s'écrit
$$CL=\left(
\begin{array}{cccc}
a_1b_1&a_1b_2&\cdots&a_1b_p\\
\vdots&\vdots&\vdots&\vdots\\
a_qb_1&a_nb_2&\cdots&a_qb_p
\end{array}
\right)$$
On constate que toutes les colonnes de la matrice $CL$ sont proportionnelles à la colonne $C$.
La matrice $CL$ est bien de rang 1.
Inversement, soit $A\in \MM_{p\,q}(\K)$ une matrice de rang $1$. Puisque $\rg (A)\neq 0$ alors il
existe une
colonne de $A$ non nulle on peut supposer que $C_1\neq 0$, d'autre part puisque $\rg (A)=1$ alors
toutes les colonnes
de $A$ sont proportionnelles à $C_1$, i.e. $C_k=b_kC_1$ (pour $k=2\cdots n$).
Notons $L=(1\,a_2\cdots a_q)$ une matrice ligne. On a $A=C_1L$. D'où le résultat.
Soit $A\in \MM_n(\R)$ de rang 1 ($n\geq 2$). Montrer qu'il existe $\alpha \in \R$ tel que $A^k=\alpha^{k-1}A$ pour tout $k\geq 1$.
D'après l'exercice précédent, on a $A=CL$ avec $C\in \MM_{n\,1}(\R) $ et $L\in \MM_{1\,n}(\R)$.
Soit $k\in \N^*$, on a
$$A^k=\underset{k \text{ fois} }{\underbrace{(CL)(CL)\cdots (CL)}}=C
\underset{k-1 \text{ fois} }{\underbrace{(LC)\cdots (LC)}}L $$
Or $LC=\alpha\in \R$ donc on a $\boxed{A^k=\alpha^{k-1} A}$.
Soit $A\in\MM_n(\R)$ (avec $n\geq 2$) la matrice de coefficients $a_{ij}=\cos(i-j)$. Trouver le rang de~$A$.
En utilisant la formule $\cos(a+b)+\cos(a-b)=2\cos(a)\cos(b)$. On trouve $\cos(k+2)+\cos(k)=2\cos(1)\cdot \cos(k+1)$, ce qui donne (en notant $C_j$ la $j$\up{ème} colonne de la matrice $A$) \begin{equation*} \forall k\in \inter{0,n-2},\quad C_{k+2}= -C_k-2\cos(1)\,C_{k+1}\Longrightarrow \rg(A)\leq 2. \end{equation*} D'autre part, la matrice $A'=\begin{pmatrix} \cos(0)&\cos(1)\\ \cos(1)&\cos(0) \end{pmatrix}$ extraite de la matrice $A$ est inversible donc $\rg(A)\geq 2$. On en déduit, $\boxed{\rg(A)=2}$.
Soit $A\in \MM_n(\R)$ telle qu'il existe $\lambda>0$ avec $A^3=-\lambda A$. Montrer que le rang de $A$ est pair.
Dans la suite, on suppose que $A\neq 0$.
Supposons que $n=2$, alors comme $A\neq 0$, il existe $x_0\in \R^2$ tel que $Ax_0\neq 0$. De plus
$A^2x_0\neq 0$
car sinon on aurait $0=A(A^2x_0)=-\lambda Ax_0\neq 0$ ce qui impossible.
Montrons que la famille $(Ax_0,A^2x_0)$ est libre.
Supposons qu'il existe $\alpha\in \R^*$ tel que
$$A^2x_0=\alpha Ax_0\Longrightarrow A^3x_0=\alpha A^2x_0=-\lambda
Ax_0=-\lambda\dfrac{1}{\alpha}A^2x_0\Longrightarrow
(\alpha^2+\lambda)A^2x_0=0\Longrightarrow\alpha^2+\lambda=0,$$
ce qui est impossible car $\lambda>0$. Donc la famille $(Ax_0,A^2x_0)$ est une base de $\R^2$ et
clairement les deux vecteurs sont dans $\im (A)$ ce qui prouve que $\rg (A)=2$.
Supposons que $n>2$, et notons $f$ l'application linéaire canoniquement associée à $A$, donc $f$
vérifie $f^3=-\lambda f$.
On note $F=\im (f)\subset\R^n$. Notons d'abord que $F\cap \Ker(f)=\{0\}$, en effet si $x\in \im(f)\cap
\Ker (f)$, on trouve:
$$\exists z\in E,\, x=f(z) \text{ et } f(x)=0 =f^2(z) \text{ donc } 0=f^3(z)=-\lambda f(z)=-\lambda x
\text{ soit } x=0.$$
Comme $F$ est stable par $f$, on définit alors $\fonct{v}{F}{F}{x}{f(x)}$. Vu que $F\cap
\Ker(f)=\{0\}$, on en déduit que $\Ker v=\{0\}$,
donc $v$ est bijective i.e. $\det (v)\neq 0$.
D'autre part, on a
$$ \forall x\in F,\,\, v^3(x)=f^3(x)=-\lambda f(x)=-\lambda v(x) \Longrightarrow \det(v)^3=(-1)^{\dim
F}\lambda^{\dim F}\det (v)$$
donc $(-1)^{\dim F}>0$ autrement dit, $\dim F=2p,\, p\in \N^*$.
Soit $A\in \MM_n(\R)$. On suppose que $\rg (A)=1$ et $\tr (A)=1$. Montrer que $A^2=A$.
On considère $f:\R^n\longmapsto\R^n$ l'application canoniquement associée à $A$, comme $\rg (f)=\rg
(A)=1$, on en
déduit que $\dim (\Ker (f))=n-1$.
Soit $\{e_1,\cdots,e_{n-1}\}$ une base de $\Ker (f)$, qu'on complète à une base $\BB$ de $\K^n$, alors
la matrice
de $f$ dans cette base est $A'=\begin{pmatrix}
0&\cdots&0&\lambda_1\\
\vdots& &\vdots&\vdots\\
0&\cdots&0&\lambda_n
\end{pmatrix} $, puisque $\tr (f)=1$ alors $\lambda_n=1$.
Comme $A$ et $A'$ sont semblables, alors $A=PA'P^{-1}$ ce qui donne $A^2=P A'^2 P^{-1}$, un calcul
simple
donne $(A')^2=A'$, d'où $A^2=A$.
Soient $(X_1,\cdots,X_q)$ et $(Y_1,\cdots,Y_p)$ des familles libres dans $\MM_{n\,1}(\K)$. Montrer que la famille $(Y_i{\,}^t X_j)_{(i,j)\in \inter{1,p}\times\inter{1,q}}$ est libre dans $\MM_n(\K)$.
Puisque les deux familles $(X_i),\,(Y_j)$ sont libre alors $p,q\leq n$. On complète les familles
$(X_1,\cdots,X_q)$ et $(Y_1,\cdots,Y_p)$ à des bases $(X_1,\cdots,X_n),\,(Y_1,\cdots,Y_n)$ de
$\MM_{n,1}(\K)$.
On note $A,\,B$ les deux matrices de $\mathrm{GL}_n(\K)$ telles que les colonnes de $A$ (resp. $B$)
sont les $X_i$ (resp. $Y_i$).
On considère ensuite $\fonct{\varphi}{\MM_n(\K)}{\MM_n(\K)}{M}{BM{\,}^t A}$, $\varphi$ est un
automorphisme de
$\MM_n(\K)$.
On a $Y_i{\,}^t X_j=\varphi(E_{i\,j})$ ...
Soient $A,B\in\MM_n(\R)$ telles que $AB=A+B$. Montrer que $\rg(A)=\rg(B)$.
Soit $X\in \Ker (B)$ alors $ABX=0=AX+BX=AX$ donc $X\in \Ker(A)$, on en déduit alors que
$\Ker(B)\subset \Ker(A)$.
Soit $Y\in \im (B),$ alors il existe $X\in \R^n$ tel que $Y=BX$ donc
$$Y=BX= ABX-AX = A(BX-X)\Longrightarrow Y\in \im (A)\Longrightarrow \im (B)\subset \im (A)$$
En utilisant le théorème du rang, on trouve finalement que $\im(B)=\im(A)$.
Soit $v\in \MM_{n\,1}(\R)$ non nul. On définit la matrice suivante :
$H(v)=I_n-\dfrac{2}{{\,}^t v\cdot v}v\cdot {\,}^t v$.
Calculer $H(v)^2,\, H(v){\,}^t H(v)$. Que dire du range de $H(v)$?
Soit $v\in \MM_{n\,1}(R)$, on note $\alpha= {\,}^t v\cdot v\in \R$ et $B=v\cdot {\,}^t v\in
\MM_n(\R)$, on a
$$\begin{array}{lcl}
H(v)^2&=&(I_n-\dfrac{2}{\alpha} B)^2=I_n-\dfrac{4}{\alpha}
B+\dfrac{4}{\alpha^2}B^2=I_n-\dfrac{4}{\alpha} B+
\dfrac{4}{\alpha^2} (v\cdot {\,}^t v)(v\cdot {\,}^t v)\\
&&\\
&=&I_n-\dfrac{4}{\alpha} B+\dfrac{4}{\alpha^2}( v\cdot ({\,}^t v\cdot v) \cdot {\,}^t
v)=I_n-\dfrac{2}{\alpha} B+
\dfrac{4}{\alpha^2} \alpha v\cdot {\,}^t v\\
&&\\
&=&I_n-\dfrac{4}{\alpha}B+\dfrac{4}{\alpha}B=I_n
\end{array}$$
On en déduit alors que la matrice $H(v)$ est inversible et $H(v)^{-1}=H(v)$.
D'autre part, on a
$${\,}^t H(v)={\,}^t I_n-\dfrac{2}{\alpha}{\,}^t (v\cdot {\,}^t
v)=I_n-\dfrac{2}{\alpha}{\,}^t
({\,}^t v)\cdot{\,}^t v=H(v),$$
donc $H(v)$ est symétrique.
Soit $A=\begin{pmatrix} 1&0&0\\ 0&0&0\\ 0&1&0 \end{pmatrix}$ et $B=\begin{pmatrix} 0&0&1\\ 0&1&0\\ 0&0&0 \end{pmatrix}$. Alors $$AB= \begin{pmatrix} 1&0&0\\ 0&0&0\\ 0&1&0 \end{pmatrix}\begin{pmatrix} 0&0&1\\ 0&1&0\\ 0&0&0 \end{pmatrix}= \begin{pmatrix} 0&0&1\\ 0&0&0\\ 0&1&0 \end{pmatrix},$$ et $(AB)^2=\begin{pmatrix} 0&1&0\\ 0&0&0\\ 0&0&0 \end{pmatrix}.$ $$BA= \begin{pmatrix} 0&0&1\\ 0&1&0\\ 0&0&0 \end{pmatrix}\begin{pmatrix} 1&0&0\\ 0&0&0\\ 0&1&0 \end{pmatrix}=\begin{pmatrix} 0&1&0\\ 0&0&0\\ 0&0&0 \end{pmatrix}$$ et $(BA)^2=0$.
Soit $M=(m_{ij})\in\MM_n(\R)$ définie par $\quad m_{ij}= \begin{cases} i & \text{si }1\leqslant i < n\text{ et } j=i+1\ ;\\ n-i+1&\text{si }1< i\leqslant n\text{ et } j=i-1\ ;\\ 0&\text{dans tous les autres cas.} \end{cases}$ Soit $f$ l'endomorphisme de $\R_{n-1}[X]$ de matrice $M$ dans la base canonique.
La matrice $M$ est .. $$M=\begin{pmatrix} 0&1&0&\cdots&\cdots&\cdots&0\\ n-1&0&2&\ddots&&&\vdots\\ 0&n-2&0&\ddots&\ddots&&\vdots\\ \vdots&\ddots&\ddots&\ddots&\ddots&\ddots&\vdots\\ \vdots&&\ddots&\ddots&0&n-2&0\\ \vdots&&&\ddots&2&0&n-1\\ 0&\cdots&\cdots&\cdots&0&1&0 \end{pmatrix}$$ Ainsi, $$f(1)=(n-1)X,\,f(X^{n-1})=(n-1)X^{n-2},\quad\forall k\in\inter{1,n-2},\,f(X^k)=(n-1-k)X^{k+1}+kX^{k-1}$$ On peut écrire, pour $k\in \inter{1,n-2}$ $$f(X^k)= (n-1)X^{k+1}- kX^{k+1}+kX^{k-1}=(n-1)XX^k+(1-X^2)(X^k)'$$ Cette relation reste vraie pour $k=0$ ou $k=n-1$. On en déduit $$\forall P\in \R_{n-1}[X],\quad f(P)=(n-1)XP+(1-X^2)P'.$$
Soient $A,B\in \MM_n(\C)$ de rang 1, telles que $A+B$ soit aussi de rang 1. Montrer que $A$ et $B$ ont soit le même noyau soit le même image.
Supposons que $\Ker(A)\neq \Ker (B)$ (on doit montrer alors que $\im (A)=\im (B)$), il existe
alors
$x_0\in \R^n$ tel que $Ax_0=y\neq 0$ et $Bx_0=0$.
Puisque $\rg (A)=1$, on en déduit que $\im (A)=\Vect (y)$, puis on a $(A+B)x_0=Ax_0+Bx_0=y$ donc $\im
(A+B)=\Vect(y)$.
La matrice $B$ étant de rang $1$, il existe $z\in \R^n$ non nul tel que $\im (B)=\Vect( z)$ et
$z=Bx_1$ avec $x_1\in \R^n$
(non nul bien sûre!), ce qui donne
$$z=Bx_1 =(A+B)x_1- Ax_1 \in \Vect (y) \text{ puisque } \im(A+B) =\im(A)=\Vect (y).$$
On en déduit alors que $\im (B)=\Vect(y)=\im (A)$.
Déterminer l'inverse de $\begin{pmatrix} 1&1&1&1\\ 1&1+a&1&1\\ 1&1&1+b&1\\ 1&1&1&1+c \end{pmatrix}$ s'il existe, avec $a,b,c\in \K$.
Il est clair que si $a=0$, ou $b=0$, ou $c=0$ alors la matrice n'est pas inversible. Supposons dans la suite que $abc\neq 0$. On utilise la méthode de Gausse pour trouve l'inverse. $$\begin{pmatrix} 1&1 &1 &1 &|&1&0&0&0\\ 1&1+a&1 &1 &|&0&1&0&0\\ 1&1 &1+b&1 &|&0&0&1&0\\ 1&1 &1 &1+c&|&0&0&0&1 \end{pmatrix} \underset{\underset{i\in \inter{2,4}}{L_i\longleftarrow L_i-L_1}}{\leadsto} \begin{pmatrix} 1&1 &1 &1 &|&1&0&0&0\\ 0&a &0 &0 &|&-1&1&0&0\\ 0&0 &b &0 &|&-1&0&1&0\\ 0&0 &0 &c &|&-1&0&0&1 \end{pmatrix}\underset{\substack{L_2\longleftarrow L_2/a\\ L_3\longleftarrow L_3/b\\ L_4\longleftarrow L4/c}}{\leadsto}$$ $$\begin{pmatrix} 1&1 &1 &1 &|&1&0&0&0\\ 0&1 &0 &0 &|&\frac{-1}{a}&\frac{1}{a}&0&0\\ 0&0 &1 &0 &|&\frac{-1}{b}&0&\frac{1}{b}&0\\ 0&0 &1 &1 &|&\frac{-1}{c}&0&0&\frac{1}{c} \end{pmatrix} \underset{L_1\longleftarrow L_1-L2-L3-L4}{\leadsto} \begin{pmatrix} 1&0 &0 &0 &|&1+\frac{1}{a}+\frac{1}{b}+\frac{1}{c}&-\frac{1}{a}&-\frac{1}{b}&-\frac{1}{c}\\ 0&1 &0 &0 &|&\frac{-1}{a}&\frac{1}{a}&0&0\\ 0&0 &1 &0 &|&\frac{-1}{b}&0&\frac{1}{b}&0\\ 0&0 &1 &1 &|&\frac{-1}{c}&0&0&\frac{1}{c} \end{pmatrix}$$
Soit $A=\begin{pmatrix} 1&1&1\\ 1&j&j^2\\ 1&j^2&j \end{pmatrix},\, Y=\begin{pmatrix} a\\b\\c \end{pmatrix} $. Résoudre le système $AX=Y$ d'inconnu $X\in \C^3$.
En déduire que $A$ est inversible puis donner $A^{-1}$.
Soit $Y=\begin{pmatrix} a\\b\\c \end{pmatrix}$, on note $X=\begin{pmatrix} x_1\\x_2\\x_3 \end{pmatrix}$. On a $$ AX=Y\Longleftrightarrow\left\{\begin{array}{lcrcrclr} x_1&+&x_2&+&x_3&=&a&\quad\quad (L1)\\ x_1&+&jx_2&+&j^2x_3&=&b&\quad\quad (L2)\\ x_1&+&j^2x_2&+&jx_3&=&c&\quad\quad (L3) \end{array} \right.$$ En utilisant la relation $1+j+j^2=0$, on trouve $$\left\{ \begin{array}{lcl} L1+L2+L3&\Longrightarrow& x_1=\dfrac{a+b+c}{3}\\ L1+j^2L2+jL3&\Longrightarrow& x_2=\dfrac{a+j^2b+jc}{3}\\ L1+jL2+j^2L3&\Longrightarrow& x_3=\dfrac{a+jb+j^2c}{3} \end{array} \right. \Longrightarrow X =\dfrac{1}{3}\begin{pmatrix} a+b+c\\ a+j^2b+jc\\ a+jb+j^2c \end{pmatrix} $$ Ceci prouve que $A$ est inversible et que: $$\boxed{A^{-1}=\dfrac{1}{3}\begin{pmatrix} 1&1&1\\ 1&j^2&j\\ 1&j&j^2 \end{pmatrix}}.$$
Soit $n\in \N^*$. Soient $A,B\in\MM_n(\K)$ deux matrices telles que $AB=A+B$. Montrer que $(A-I_n)\in GL_n(\K)$ et calculer $(A-I_n)^{-1}$.
On a $(A-I_n)(B-I_n)=AB-A-B+I_n=I_n$, on en déduit que $(A-I_n)\in GL_n(\K)$ de plus $$\boxed{(A-I_n)^{-1}=(B-I_n)}.$$
Soient $A,B\in \MM_n(C)$. On suppose que $A$ est inversible, et $B$ nilpotente. Montrer que $I_n+A^{-1}BA$ est inversible puis calculer son inverse.
Notons d'abord que, pour tout $k\in \N$, $(A^{-1}BA)^k=A^{-1}B^kA$. Comme $B$ est nilpotente alors il
existe
$r\in \N$ tel que, pour tout $k\geq r$, on a $B^k=0$.
On pose $C=A^{-1}\left(\dsum_{k=0}^{r-1}B^k\right)A$, on a $(I_n+A^{-1}BA)C=I_n$ ce qui montre que
$I_n+A^{-1}BA$ est inversible et $(I_n+A^{-1}BA)^{-1}=C$.
Soit $n\in \N^*$. On considère les matrices $A=(a_{p\,q})$ et $B=(b_{p\,q})\in \MM_n(\C)$ définies par: $$\forall 1\leq p,q\leq n,\,~~a_{p\,q}=\omega^{(p-1)(q-1)}\text{ et } b_{p,q}=\overline{\omega}^{(p-1)(q-1)}\text{ où } \omega=\ee^{\ii\frac{2\pi}{n}}.$$
Rappelons que $\omega$ est une racine $n$ième de l'unité.
Soit $n\in \N^*$. On considère la matrice $A=(a_{i\,j})_{1\leq i,j\leq n}$ définie par: $\,\,\dsp\forall 1\leq i,j\leq n,~~~~a_{i\,j}=\left\{\begin{array}{ll} (-1)^{i-1}{i-1\choose j-1}&\text{ si }j\leq i,\\ &\\ 0&\text{ sinon} \end{array} \right.$. Calculer $A^2$.
Soient $1\leq i,j\leq n$, le terme d'indice $i,\,j$ de la matrice $A^2$ s'écrit
$A_{i\,j}=\dsp\sum_{k=1}^n a_{i\,k}a_{k\,j}$.
Pour que $a_{i\,k}a_{k\,j}$ ne soit pas nul il faut que $k\leq i$ et $j\leq k$, donc $A_{i\,j}=0$ si
$j>i$.
Soient maintenant $1\leq j\leq i\leq n$, on a
$$
\begin{array}{lcl}
\dsp\sum_{k=j}^i(-1)^{i-1}(-1)^{k-1}{i-1\choose k-1}{k-1\choose j-1}
&=&\dsp\sum_{k=j}^i(-1)^{i+k}\dfrac{(i-1)!}{(i-k)!(k-1)!}\dfrac{(k-1)!}{(j-1)!(k-j)!}\\
&=&\dsp\dfrac{(-1)^i(i-1)!}{(j-1)!} \sum_{k=j}^i(-1)^{k}\dfrac{1}{(i-k)!(k-j)!}\\
&=&\dsp\dfrac{(-1)^i(i-1)!}{(j-1)!} \sum_{k=0}^{i-j}(-1)^{k+j}\dfrac{1}{(i-j-k)!(k)!}\\
&=&\dsp\dfrac{(-1)^{i-j}(i-1)!}{(j-1)!(i-j)!} \sum_{k=0}^{i-j}(-1)^{k}\dfrac{(i-j)!}{(i-j-k)!(k)!}\\
&=&\dsp\dfrac{(-1)^{i-j}(i-1)!}{(j-1)!(i-j)!} \sum_{k=0}^{i-j}(-1)^{k}{i-j \choose
k}=\dfrac{(-1)^{i-j}(i-1)!}{(j-1)!(i-j)!} (1-1)^{i-j}.
\end{array}
$$
On en déduit que $A_{i\,j}=\delta_{i\,j}$. Ce qui donne $\boxed{ A^2=I_n}$.
Soit $n\in \N,\,n>1$. On considère la matrice $A=(a_{i\,j})_{1\leq i,j\leq n}$ définie par: $$\forall 1\leq i,j\leq n,~~~~a_{i\,j}=1 \text{ si } i\neq j \text{ et } a_{i\,i}=0.$$ Montrer que $A$ est inversible et calculer $A^{-1}$.
Une conséquence de l'exercice ci-après, avec $a=0,\,b=1$.
Même question avec $A=\begin{pmatrix} a & b&\cdots &\cdots&b\\ c & a&0 &\cdots&0 \\ \vdots& 0 &\ddots&\ddots&\vdots\\ \vdots&\vdots&\ddots&\ddots&0\\ c &0 &\ldots &0& a \end{pmatrix}$, ($a,b,c\in \R$).
Il est clair ici que si $a=0$ alors la matrice $A$ n'est pas inversible. Supposons que $a\neq 0$.
Considérons le système $(S): AX=Y$, dans ce cas le système $(S)$ peut s'écrire
$$(S)\Leftrightarrow\left\{\begin{array}{cclccr}
ax_1 &+& b\dsp\sum_{j=2}^nx_j&=&y_1&\\
cx_1&+& ax_k&=&y_k& \forall k\in\{2,\cdots,n\}
\end{array}
\right.
\Leftrightarrow\left\{\begin{array}{r}
ax_1 + \dfrac{b}{a}\dsp\sum_{j=2}^ny_j-\dfrac{bc}{a}(n-1)x_1=y_1\\
\forall k\in\{2,\cdots,n\}, ~~x_k=\dfrac{y_k-cx_1}{a}
\end{array}
\right.
$$
Ce qui donne
\begin{equation}
x_1=\dfrac{ay_1-\dsp b\sum_{j=2}^ny_j}{a^2-(n-1)bc}\quad\quad (\star)
\end{equation}
On a supposé dans l'équation ($\star$) que $a^2-(n-1)bc\neq 0$.
En rapportant la valeur de $x_1$ trouvée dans l'équation ($\star$)dans l'expression de $x_k$, on
trouve
\begin{equation}
x_k=\dfrac{-cay_1+\dsp bc\sum_{j=2}^ny_j +((a^2-(n-2)bc)y_k}{a(a^2-(n-1)bc)}\quad\quad (\star\star)
\end{equation}
On note dans la suite (pour simplifier l'écriture) $\Delta=(a^2-(n-1)bc)$. Les équations
($\star$) et
($\star\star$) nous donne:
$$
A^{-1}=\dfrac{1}{a\Delta}
\left(
\begin{array}{ccccc}
a^2&-ba&\cdots&\cdots&-ba\\
-ca&bc+\Delta&bc&\cdots&bc\\
-ca&bc&bc+\Delta&\cdots&bc\\
\vdots&\vdots&\vdots&\ddots&\vdots\\
-ca&bc&bc&\cdots&bc+\Delta
\end{array}
\right).
$$
Soit $n\in \N^*$. Montrer que la famille $\mathcal{F}=((1+X)^k)_{0\leq k\leq n}$ est une base de
$\R_n[X]$.
Donner la matrice de passage $P$ de la base canonique $\BB$ à la base $\mathcal{F}$ puis déterminer
$P^{-1}$.
La famille $\mathcal{F}$ est libre puisqu'elle contient des polynômes non nuls de degrés deux à deux
distincts, de plus $\mathcal{F}$
continent autant d'éléments que la dimension de $\R_n[X]$ donc $\mathcal{F}$ est une base de
$\R_n[X]$.
Soit $k\in \{0,\cdots,n\}$, on a $\dsp (1+X)^k=\sum_{i=0}^k{k\choose i}X^i$, on en déduit que la
matrice $P$ de passage de la base $\BB$ à la base $\mathcal{F}$ s'écrit:
$$P=\left( \begin{array}{cccc}
\binom{0}{0} & \binom{1}{0} & \ldots & \binom{n}{0} \\
0 & \binom11 & \ldots & \binom{n}1 \\
\vdots & \vdots & \ddots & \vdots \\
0 & 0 & \ldots & \binom{n}{n}
\end{array} \right)
$$
Pour trouver $P^{-1}$, il suffit de remarquer que,
$$\forall k\in \{0,\cdots,n-1\},~~~~X^k=(-1+1+X)^k=\dsp\sum_{i=0}^k\binom{k}{i}(-1)^{k-i}(1+X)^i,$$ ce
qui donne,
$$P^{-1}=\left( \begin{array}{cccc}
\binom{0}{0} & -\binom{1}{0} & \ldots &(-1)^n \binom{n}{0} \\
0 & \binom11 & \ldots & (-)^{n-1}\binom{n}1 \\
\vdots & \vdots & \ddots & \vdots \\
0 & 0 & \ldots & \binom{n}{n}
\end{array} \right)
$$
Soit $C\in \MM_{n,1}(\R)$ une matrice colonne non nulle et $L \in \MM_{1,n}(\R)$ une matrice ligne non nulle avec $ n \geq 2$. On pose $A = CL - I$ où $I = I_n$ est la matrice identité.
On a: $A=-I$ ssi $CL=0$, comme on peut PAS avoir $CL=0$ (ceci impliquerais que $C=0$ ou $L=0$ ce qui
est exclu ici).
Donc $\boxed{A\neq -I}$.
En utilisant le faite que $CL$ et $I$ commutent, on trouve
$$A^2=(CL)(CL)-2CL+I=(\underset{\in \R}{\underbrace{LC}}) CL-2CL+I=(LC-2)CL+I=(LC-2)A+(LC-1)I$$
Ce qui donne la relation demandé.
D'après ce qui précède, $A\in GL_n(\R)$ ssi $LC\neq 1$ et dans ce cas, on a
$$\boxed{A^{-1}=\dfrac{1}{LC-1}\left(A+(2-LC)I\right)}.$$
$A$ est une matrice de symétrie ssi $A^2=I$, ce qui donne:
$$A^2=I\Longleftrightarrow (LC) \,CL-2CL+I=I\Longleftrightarrow (LC-2)\,CL=0\Longleftrightarrow LC=2$$
Soit $a\in \R$, on pose $M(a)=\begin{pmatrix} 1-2a&a&a\\ a&1-2a&a\\ a&a&1-2a \end{pmatrix}\in \MM_3(\R)$.
Un calcul simple donne $M(a)M(b)=M(a+b-3ab)$.
Puisque $M(0)=I_3$, alors pour savoir si $M(a)$ est inversible, il suffit de trouver $b$ tel que
$a+b-3ab=0$.
La résolution de cette équation donne (pour $a\neq 1/3$) $b=\dfrac{a}{3a-1}$.
Ainsi, pour tout $a\in \R\setminus \{1/3\},\, M(a)$ est inversible et
$M(a)^{-1}=M\left(\frac{a}{3a-1}\right)$.
En revanche, pour $a=\frac{1}{3}$, on a
$$M(1/3)=\begin{pmatrix}
\frac{1}{3}&\frac{1}{3}&\frac{1}{3}\\
\frac{1}{3}&\frac{1}{3}&\frac{1}{3}\\
\frac{1}{3}&\frac{1}{3}&\frac{1}{3}
\end{pmatrix}\Longrightarrow \rg (M(1/3))=1 \text{, donc $M(1/3)$ n'est pas inversible.}$$
Soit $n\in \N$, on a
$$M(a)^{n+1}=M(a)^nM(a)=M(a+u_n-3au_n)=M(u_{n+1})$$
Donc la suite $(u_n)$ vérifie:
$$u_0=0,\,u_1=a,\,\forall n\geq 1,\, u_{n+1}=a +(1-3a)u_n.$$
On pose $v_n=u_n-\dfrac{1}{3}$ donc
$$\begin{array}{lcl}
v_{n+1}&=&u_{n+1}-\dfrac{1}{3}\\
&=&a +(1-3a)u_n-\dfrac{1}{3}=a +(1-3a)(v_n+\dfrac{1}{3})-\dfrac{1}{3}\\
&=&a+(1-3a)v_n+\dfrac{1-3a}{3}-\dfrac{1}{3}=(1-3a)v_n
\end{array}$$
Donc $v_n=v0(1-3a)^n=\dfrac{-1}{3}(1-3a)^n$. On en déduit,
$$ \forall n\in \N,\quad u_n=\dfrac{1}{3}\left(1-(1-3a)^n\right).$$
Soit $k\in \R$. On pose $M(k)= \left( \begin{array}{cccccc} 1 &-k &0 &\cdots&\cdots&0\\ 0 &1 &-k & & &\vdots \\ \vdots &\ddots& &\ddots& &\vdots \\ \vdots & &\ddots&\ddots&\ddots & 0 \\ & & & & 1& -k \\ 0 & &\cdots& &0 & 1 \end{array} \right)\in \MM_n(\R) $. Montrer que $M(k)$ est inversible et déterminer $M(k)^{-1}$.
On note $K$ la matrice définie par: $$K= \begin{pmatrix} 0 &1 &0 &\cdots&\cdots&0\\ 0 &0 &1 & & &\vdots \\ \vdots &\ddots& &\ddots& &\vdots \\ \vdots & &\ddots&\ddots&\ddots & 0 \\ & & & & 0&1 \\ 0 & &\cdots& &0 & 0 \end{pmatrix} $$ Un calcul simple donne: $$K^2= \begin{pmatrix} 0 &0 &1 &\cdots&\cdots&0\\ 0 &0 &0 & 1 & \cdots &\vdots \\ \vdots &\ddots& &\ddots& &\vdots \\ \vdots & &\ddots&\ddots&\ddots & 1 \\ & & & & 0& 0 \\ 0 & &\cdots& &0 & 0 \end{pmatrix} $$
Soient $A = \begin{pmatrix} 1 &\frac12 &\frac13 \\ \frac12 &\frac13 &\frac14 \\ \frac13 &\frac14 &\frac15 \end{pmatrix}$ et $B = \begin{pmatrix} 1\phantom{.00}&0.5\phantom{0}&0.33\\ 0.5\phantom{0}&0.33&0.25\\ 0.33&0.25&0.20 \end{pmatrix}$. Calculer $A^{-1}$ et $B^{-1}$.
$$A^{-1} = \begin{pmatrix} 9 &-36 &30 \cr -36 &192 &-180 \cr 30 &-180 &180 \cr \end{pmatrix},\quad B^{-1} \approx \begin{pmatrix} 55.6 &-277.8 &255.6 \cr -277.8 &1446.0 &-1349.2 \cr 255.6 &-1349.2 &1269.8 \cr \end{pmatrix}.$$
Soit $A=(a_{i,j})_{1\leqslant i,j\leqslant n}\in\MM_n(\C)$ telle que $\forall i\in\inter{1,n}$, $|a_{i,i}| >\dsum_{j\neq i}^{}|a_{i,j}|$. Montrer que $A\in\mathcal{GL}_n(\C)$. (Une matrice à diagonale strictement dominante est inversible.)
Montrons que $\text{Ker}A$ est réduit à $\{0\}$. Dans le cas contraire, on dispose d'un vecteur
colonne non nul
$X_0$ tel que $AX_0 = 0$. Posons $X_0=(x_i)_{1\leqslant i\leqslant n}$. Pour tout $i\in\inter{1,n}$,
$$\sum_{j=1}^{n}a_{i,j}x_j= 0\Rightarrow a_{i,i}x_i =-\sum_{j\neq i}^{}a_{i,j}x_j
\Rightarrow |a_{i,i}||x_i|\leqslant\sum_{j\neq i}^{}|a_{i,j}||x_j|.$$
On prend alors pour $i$ un indice $i_0$ tel que $|x_{i_0}| =\text{Max}\{|x_1|,...,|x_n|\}$. Puisque
$X\neq0$, on a
$|x_{i_0}|>0$. De plus,
$$|a_{i_0,i_0}||x_{i_0}|\leqslant\sum_{j\neq i_0}^{}|a_{i_0,j}||x_j|\leqslant\left(\sum_{j\neq
i_0}^{}|a_{i_0,j}|
\right)|x_{i_0}|,$$
et puisque $|x_{i_0}|>0$, on obtient après simplification $|a_{i_0,i_0}|\leqslant\sum_{j\neq
i_0}^{}|a_{i_0,j}|$
ce qui contredit les hypothèses.
Donc $\text{Ker}A=\{0\}$ et $A$ est inversible.
Soit $t\in\R^*$. On pose $A=\begin{pmatrix} 0&t\\-t&0 \end{pmatrix}$.
Soit $t\in \R^*$, on vérifie que
$$
\begin{pmatrix}
0&t\\-t&0
\end{pmatrix}\begin{pmatrix}
0&-1/t\\1/t&0
\end{pmatrix}=\begin{pmatrix}
0&-1/t\\1/t&0
\end{pmatrix}\begin{pmatrix}
0&t\\-t&0
\end{pmatrix}=\begin{pmatrix}
1&0\\0&1
\end{pmatrix}.$$
Donc $A(t)$ est inversible d'inverse $A(-1/t)$.
Soit $t\in \R^*$, on a $I_2-A=\begin{pmatrix}
1&-t\\t&1
\end{pmatrix}$ de déterminant $1+t^2\neq 0$, donc c'est une matrice inversible, et
$(I_2-A)^{-1}=\begin{pmatrix}
\dfrac{1}{1+t^2}&\dfrac{t}{1+t^2}\\
\dfrac{-t}{1+t^2}&\dfrac{1}{1+t^2}
\end{pmatrix}$, et après
$$R = \begin{pmatrix}
1&t\\-t&1
\end{pmatrix}
\begin{pmatrix}
\dfrac{1}{1+t^2}&\dfrac{t}{1+t^2}\\
\dfrac{-t}{1+t^2}&\dfrac{1}{1+t^2}
\end{pmatrix}=
\begin{pmatrix}
\dfrac{1-t^2}{1+t^2}&\dfrac{2t}{1+t^2}\\
\dfrac{-2t}{1+t^2}&\dfrac{1-t^2}{1+t^2}
\end{pmatrix}.$$
puis on a
$$
{\,}^t R\cdot R=\begin{pmatrix}
\dfrac{1-t^2}{1+t^2}&\dfrac{-2t}{1+t^2}\\
\dfrac{2t}{1+t^2}&\dfrac{1-t^2}{1+t^2}
\end{pmatrix}\begin{pmatrix}
\dfrac{1-t^2}{1+t^2}&\dfrac{2t}{1+t^2}\\
\dfrac{-2t}{1+t^2}&\dfrac{1-t^2}{1+t^2}
\end{pmatrix}
=\begin{pmatrix}
\dfrac{(1-t^2)^2+4t^2}{(1+t^2)^2}&0\\
0&\dfrac{4t^2+(1-t^2)}{(1+t^2)^2}
\end{pmatrix}=I_2
$$
Donc $R$ est inversible et $R^{-1}={\,}^t R$.
Soit $z\in\C^*$, on considère la matrice $A(z)=\begin{pmatrix} 0&z&z^2\\ z^{-1}&0&z\\ z^{-2}&z^{-1}&0 \end{pmatrix}$.
Un calcul simple donne: $$A(z)^2= \begin{pmatrix} 2&z&z^2\\ z^{-1}&2&z\\ z^{-2}&z^{-1}&2 \end{pmatrix}=2\begin{pmatrix} 1&0&0\\ 0&1&0\\ 0&0&1 \end{pmatrix}+\begin{pmatrix} 0&z&z^2\\ z^{-1}&0&z\\ z^{-2}&z^{-1}&0 \end{pmatrix}=2I_3+A(z).$$ Autrement dit, $A(z)^2-A(z)=2I_3$ soit $A(z)\left(\dfrac{1}{2}\left(A(z)-I_3\right)\right)=I_3$. On en déduit alors que $A(z)$ est inversible et $A(z)^{-1}=\frac{1}{2}(A(z)-I_3)$.
Soit $a\in\mathbb{R}^*$ et $\quad A=(a_{i\,j})\in \MM_n(\R)$, avec: $$\forall (i,j)\in \inter{1,n}^2,\,\,a_{i\,j}=a^{j-i} \text{ si } i\leq j \text{ et } a_{i\,j} = 0 \text{ sinon }.$$ Montrer que $A$ est inversible et calculer son inverse.
Un calcul simple nous donne: $$\forall a\in \R^*,\quad A(a)^{-1}=\begin{pmatrix} 1&-a&0 &\cdots&\cdots&0\\ 0&1 &-a& 0 &\cdots&0\\ & & & & & \\ & & & & &\\ & & & & 1&-a\\ & & & & &1 \end{pmatrix}.$$
Soient $n\in \N,\,n>1$ et $a,b\in \R$. On considère la matrice $A=(a_{i\,j})_{1\leq i,j\leq n}$ définie par: $$\forall 1\leq i,j\leq n,~~~~a_{i\,j}=b \text{ si } i\neq j \text{ et } a_{i\,i}=a.$$ Calculer $A^{-1}$ lorsqu'au c'est possible.
Il est clair que si $a=b$ alors la matrice n'est pas inversible, supposons alors dans la suite que
$a\neq b$.
On va résoudre le système $(S):~~AX=Y$ avec $X={}^T(x_1\cdots x_n),\,Y= {}^T(y_1\cdots y_n)\in
\MM_{n\,1}(\R)$.
$$
(S)\Longleftrightarrow\left\{\begin{array}{ccccccccc}
ax_1 &+& bx_2&+&\cdots &+&bx_n&=&y_1\\
bx_1 &+& ax_2&+&\cdots &+&bx_n&=&y_2\\
\vdots&& & & &&&&\\
bx_1 &+& bx_2&&\cdots &+&ax_n&=&y_n
\end{array}
\right.
$$
En additionnant les lignes de ce système, on obtient :
\begin{equation}
(a+(n-1)b)\dsp \sum_{k=1}^nx_k=\dsp\sum_{k=1}^ny_k,\quad\quad\quad (\heartsuit)
\end{equation}
Supposons que $a+(n-1)b\neq 0$ (sinon la matrice $A$ n'est pas inversible!).
En remarquant que chaque ligne du système $(S)$ peut s'écrire sous la forme:
$$
bx_1 +\cdots +ax_k +(bx_k-bx_k)+bx_{k+1}+\cdots+bx_n=y_k \Longrightarrow
(a-b)x_k+b\dsp\sum_{j=1}^nx_j=y_k$$
donc en utilisant la relation ($\heartsuit$), on trouve
$$
\forall k\in \{1,\cdots,n\},~~~~x_k=\dfrac{\big(a+(n-2)b\big)y_k-b\dsp\sum_{ \underset{j\neq
k}{j=1}}^n y_j}{(a-b)(a+(n-1)n)}$$
Ce qui donne
$$A^{-1}=\dfrac{1}{(a-b)\big(a+(n-1)b\big)}\left(
\begin{array}{cccc}
a+(n-2)b& -b &\cdots & -b\\
-b &\ddots& &\vdots\\
\vdots & &\ddots &-b\\
-b&\cdots&-b&(a+(n-2)b)
\end{array}\right).$$
Soient $a_1,\cdots,a_n\in \R_+^*$. On considère la matrice $A=\begin{pmatrix} 1+a_1 &1 &\cdots&\cdots&1\\ 1 &1+a_2 &\ddots& &\vdots\\ \vdots&\ddots&\ddots&\ddots& \\ & & &\ddots&1\\ 1 &\cdots&\cdots&1 &1+a_n \end{pmatrix}.$ Pour $X={\,}^t (x_1\cdots x_n)\in \MM_{n\,1}(\R)$ calculer le produit ${\,}^t X AX$. En déduire que $A$ est inversible.
Soit $X={\,}^t (x_1\cdots x_n)\in \MM_{n\,1}(\R)$, on a
$${\,}^t X A X = \begin{pmatrix}
x_1&\cdots&x_i&\cdots&x_n
\end{pmatrix} \begin{pmatrix}
\dsum_{k=1}^n x_k +a_1x_1\\
\vdots\\
\dsum_{k=1}^n x_k +a_ix_i\\
\vdots\\
\dsum_{k=1}^n x_k +a_nx_n\\
\end{pmatrix}
=\left(\dsum_{k=1}^n x_k\right)^2+\dsum_{j=1}^na_jx_j^2$$
En particulier, on trouve que ${\,}^t X A X> 0$ pour $X\neq 0$.
Supposons que $A$ n'est pas inversible, alors il existe $X_0\in \R^n$ non nul tel que $AX_0=0$, donc ${\,}^t X_0 AX_0=0$, ce qui est impossible. Donc $A$ est inversible.
Soit $A=\begin{pmatrix} 0&\frac{1}{n}&&\\ \frac{n}{n}&\ddots&\ddots&\\ &\ddots&\ddots&\frac{n}{n}\\ &&\frac{1}{n}&0 \end{pmatrix}\in\MM_{n+1}(\R)$.
On note $E=\big\{M\in\MM_n(\K),\,\, {\,}^t M=-M\big\}$. Soit $A\in\MM_n(\K)$. On définit $\fonct{f}{E}{E}{M}{{\,}^t AM+MA.}$
Exercice similaire à l'Exercice ci-après, avec ici la base
$\BB=(F_{ij}=E_{ij}-E_{ji})_{1\leq i< j\leq n}$.
La base dual $\BB^*=(F_{ij}^*)$ avec $F^*_{ij}=E_{ij}^*$.
Soient $n\in \N^*,\,A\in\MM_n(\K)$ une matrice vérifiant $A^k=I_n$ avec $k\in\N^*$.
On pose $B=I+A+A^2+\dots+A^{k-1}$, et on note $u,v$ les endomorphismes de $\K^n$ canoniquement
associés à $A$
et $B$. Montrer que: $$\Ker(u-\mathrm{Id})=\im v, \quad \im (u-\mathrm{Id})=\Ker v, \quad \K^n=\Ker
v\oplus\im v \text{ et }
\tr B=k\rg B.$$
On a $u^k-\mathrm{Id}=(u-\mathrm{Id})(\mathrm{Id}+u+u^2+\dots +u^{k-1})=(u-\mathrm{Id})\circ v=0$ et
donc $\im v\subset\Ker(u-\mathrm{Id})$.
Inversement, soit $x\in\Ker(u-\mathrm{Id})$. Alors $u(x)=x$. Donc $v(x)=(\mathrm{Id}+u+\dots
+u^{k-1})(x)=kx$ d'où $x=v\left(\frac{x}{k}\right)$
ce qui montre que $x\in\im v$.
D'où $\boxed{ \Ker(u-\mathrm{Id})=\im v}$.
Comme $v\circ(u-\mathrm{Id})=0$, on en déduit $\im (u-\mathrm{Id})\subset \Ker v$, on conclut alors
avec les dimensions, puisque
d'après le résultat précédent,
$$\dim\Ker v = n-\rg v= n-\dim \Ker(u-\mathrm{Id}) = \rg(u-\mathrm{Id}).$$
Soit $x\in \Ker v\cap \im v$. Alors $x\in\Ker(u-\mathrm{Id})$ donc $u(x)=x$. De $x\in\Ker v$ on tire
$kx=0$ donc $x=0$.
Soit $\boxed{\Ker v\cap \im v=\{0\}}$.
En utilisant le théorème du rang, ces sevs sont supplémentaires.
On écrit alors la matrice de $v$ dans une base adaptée à cette décomposition. Puisque la restriction
de $v$ à
$\im v$ est l'homothétie de rapport $k$, on obtient l'égalité voulue.
Soit $A$ une matrice non nulle de $\MM_n(\C)$ et $\varphi$ une application de $\MM_n(\C)$ dans lui-même définie par $\varphi(X)=-X+(\tr(X))A$.
On note $E=\R^3$ muni de sa base canonique $\BB$. On considère $P=\{(x,y,z)\in \R^3,\,x+y+z=0\}$ et $D=\Vect \left(\left(1,3,2\right)\right)$.
Soit $(x,y,z)\in P\cap D$ alors $x+y+z=0$ et il existe $\lambda\in \R$ tel que $$(x,y,z)=\lambda (1,3,2)\Longrightarrow \lambda+3\lambda+2\lambda =0 \Longrightarrow \lambda =0$$ donc $P\cap D=\{0\}$.
Soit $X=(x,y,z)\in \R^3$, on note $\alpha= x+y+z$, on peut alors écrire $$X = (X-\dfrac{\alpha}{6}(1,2,3))+\dfrac{\alpha}{6}(1,2,3) =X_P+X_D$$ Clairement, $X_D\in D$, et un petit calcul montre que $X_P\in P$, ceci prouve que $\R^3=P+D$. On en déduit alors que $\R^3=P\oplus D$.
Le calcul précédent montre que la projection $u$ sur $P$ parallèlement à $D$ est définie par : $$\forall (x,y,z)\in \R^3,\quad u((x,y,z))=\dfrac{1}{6}\left(5x-y-z,-3x+3y-3z,-2x-2y+4z\right)$$ Ce qui donne, $$A=\dfrac{1}{6}\begin{pmatrix} 5&-1&-1\\ -3&3&-3\\ -2&-2&4 \end{pmatrix} $$
Soit $f$ l'endomorphisme de $\R^3$ dont la matrice par rapport à la base canonique $(e_1, e_2, e_3)$ est $A= \left( \begin{array}{ccc} 15 & -11 & 5 \\ 20 & -15 & 8 \\ 8 & -7 & 6 \end{array} \right).$ Montrer que les vecteurs $ e'_1 = 2e_1+3e_2+e_3,\quad e'_2 = 3e_1+4e_2+e_3,\quad e'_3 = e_1+2e_2+2e_3$ forment une base de $\R^3$ et calculer la matrice de $f$ par rapport à cette base.
Notons l'ancienne base $\mathcal{B}=(e_1,e_2,e_3)$ et ce qui sera la nouvelle base $\mathcal{B}'=(e'_1,e'_2,e'_3)$. Soit $P$ la matrice de passage qui contient -en colonnes- les coordonnées des vecteurs de la nouvelle base $\mathcal{B}'$ exprimés dans l'ancienne base $\mathcal{B}$ $$P=\begin{pmatrix} 2 & 3 & 1 \\ 3 & 4 & 2 \\ 1 & 1 & 2 \\ \end{pmatrix}$$ On vérifie que $P$ est inversible (on va même calculer son inverse) donc $\mathcal{B}'$ est bien une base. De plus $$P^{-1} = \begin{pmatrix} -6 & 5 & -2 \\ 4 & -3 & 1 \\ 1 & -1 & 1 \\ \end{pmatrix} \text{ et on calcule } B=P^{-1} A P = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \\ \end{pmatrix}$$ $B$ est la matrice de $f$ dans la base $\mathcal{B}'$.
On considère l'application $\varphi$ qui à une matrice $M=(C_1,\cdots,C_n)$ associé la matrice $M'=(C_1',\cdots,C_n')$ avec $C_j'=\dsum_{k\neq j}C_k$.
Soit $A \in \MM_n(\R)$ et $u : \left\{ \begin{array}{ccc} \MM_n(\R) & \rightarrow & \MM_n(\R) \\ M & \mapsto & AM+MA \end{array} \right.$ . Montrer que $u\in \LL(\MM_n(\R))$ et calculer sa trace.
Soient $M,T\in \MM_n(\R)$ et $\lambda\in \R$. On a:
$$
\begin{array}{lcl}
u(\lambda M+T)&=&A(\lambda M+T)+(\lambda M +T)A=\lambda A M+AT+\lambda M A + TA \\
&&\\
&=& \lambda
(AM+MA)+(AT+TA)=\lambda u(M)+u(T)
\end{array}
$$
Donc $u\in \LL(\MM_n(\R)$.
Soit $\BB=(E_{ij})_{1\leq i,j\leq n}$ la base canonique de $\MM_n(\R)$ et $\BB^*=(E^*_{ij})_{1\leq
i,j\leq n}$ la
base dual de $\MM_n(\R)^*$. Alors $\tr u = \dsum_{i,j}E_{ij}^*\big(u(E_{ij})\big)$.
Si $A=(a_{k\ell})_{k,\ell}$, on a
$$
u(E_{ij})=
\begin{array}{c}
\begin{array}{ccccccccccc}
& & && &\,\,\underset{\downarrow}{C_i} &&& &\,\,\,\,\,\,\,\underset{\downarrow}{C_j} &
\end{array} \\
\begin{array}{c}
\\
\\
L_i\longrightarrow \\
\\
\\
L_j\longrightarrow \\
\\
\end{array}
\left(
\begin{array}{ccccccccc}
& & & & && a_{1i} & &\\
& &{}_{\text{\Huge{0}}} & & && a_{2i} & {}_{\text{\Huge{0}}} &\\
& & & & && \vdots & &\\
a_{j1}& & &\cdots &a_{ji}&\cdots &\boxed{a_{ii}+a_{jj}}&\cdots&a_{jn}\\
& & & & &&\vdots & & \\
& &{}_{\text{\Huge{0}}} & & && a_{ji} & {}_{\text{\Huge{0}}} &\\
& & & & &&\vdots & & \\
& & & & &&a_{ni} & &
\end{array}
\right)
\end{array}
$$
Donc $E^*_{ij}(u(E_{ij}))=a_{ii}+a_{jj}$. D'où, $\tr u = \dsum_{1\leq i,j\leq j}(a_{ii}+a_{jj})=\boxed{2n\tr A}$.
Pour tout $A\in \MM_n(\K)$, on pose $\varphi(A)=\dsum_{(i,j)\in \inter{1,n}^2}a_{i\,j}a_{j\,i}$. Montrer que si $A$ et $B$ sont semblables, alors $\varphi(A)=\varphi(B)$.
Soit $A=(a_{i\,j})\in \MM_n(\K)$, on note $A^2=(a'_{i\,j})\in \MM_n(\K)$, on a $$\varphi(A)=\dsum_{(i,j)\in \inter{1,n}^2}a_{i\,j}a_{j\,i}=\sum_{i=1}^n\left(\sum_{j=1}^na_{i\,j}a_{j\,i}\right)=\sum_{i=1}^na_{i\,i}'=\tr (A^2).$$ Si $A,\,B$ sont semblables, il en va de même pour $A^2$ et $B^2$, en particulier $\tr (A^2)=\tr (B^2)$ d'où $\boxed{\varphi(A)=\varphi(B)}$.
Montrer que toute matrice de trace nulle est semblable à une matrice à diagonale nulle.
On commence par démontrer le résultat classique: si $u$ est un endomorphisme tel que , pour tout
$x\in E$, le système $\{x,u(x)\}$ soit lié, alors $u$ est une homothétie (on a, si $x\neq 0$,
$u(x)=\lambda_x x$
puis on montre que $\lambda_x=\lambda_y$ en distinguant selon que $\{x,y\}$ est libre ou non...).
Soit donc $u$ un endomorphisme d'un $\K$-ev de dimension finie, de trace bulle. Il s'agit de montrer
qu'il existe une base de $E$ où la matrice de $u$ est à diagonale nulle.
Soit $a\in\R$, on note $A_a=\begin{pmatrix}4-a&1&-1\\-6&-1-a&2\\2&1&1-a\end{pmatrix}$ et $B_a=\begin{pmatrix}1-a&1&0\\0&1-a&0\\0&0&2-a\end{pmatrix}$. Montrer que $A_a$ et $B_a$ sont semblables pour tout $a\in\R$.
Soit $f$ l'application canoniquement associée à $A_a$, dir que $A_a$ et $B_a$ sont semblables revient
à dir que
$B_a$ est la matrice de $f$ dans une autre base $\BB'=(b_1,b_2,b_3)$ de $\R^3$, i.e. il faut
qu'on ait
$\left\{\begin{array}{lcl}
f(b_1)&=&(1-a)b_1\\
f(b_2)&=&b_1+(1-a)b_2\\
f(b_3)&=&(2-a)b_3
\end{array}\right.$.
On pose $b_1=xe_1+ye_2+ze_3$, puis on résout le système
$$
\begin{array}{lcl}
f(b_1)=(1-a)b_1&\Longleftrightarrow&
\begin{pmatrix}
4-a&1&-1\\
-6&-1-a&2\\
2&1&1-a
\end{pmatrix}\begin{pmatrix}
x\\y\\z
\end{pmatrix}=(1-a)\begin{pmatrix}
x\\y\\z
\end{pmatrix}\\
&&\\
&\Longleftrightarrow&\left\{\begin{array}{lcl}
3x+y-z&=&0\\
-6x-2y+2z&=&0\\
2x+y&=&0
\end{array}\right. \\
&&\\
&\Longleftrightarrow& b_1\in \Vect(e_1-2e_2+e_3).
\end{array}$$
On peut alors prendre $b_1=e_1-2e_2+e_3$. Cherchons maintenant $b_2=xe_1+ye_2+ze_3$ tel que
$f(b_2)=b_1+(1-a)b_2$ ce qui donne
$$
\begin{array}{lcl}
\begin{pmatrix}
4-a&1&-1\\
-6&-1-a&2\\
2&1&1-a
\end{pmatrix}\begin{pmatrix}
x\\y\\z
\end{pmatrix}&=&\begin{pmatrix}
1\\-2\\1
\end{pmatrix}+(1-a)\begin{pmatrix}
x\\y\\z
\end{pmatrix}\\
&&\\
&\Longleftrightarrow&\left\{\begin{array}{lcl}
3x+y-z&=&1\\
-6x-2y+2z&=&-2\\
2x+y&=&1
\end{array}\right.\\
&&\\
&\Longleftrightarrow& b_2\in e_1-e_2+e_3+\Vect(e_1-2e_2+e_3).
\end{array}
$$
On peut alors prendre $b_2=e_1-e_2+e_3$. Cherchons $b_3=xe_1+ye_2+ze_3$ tel que $f(b_3)=(2-a)b_2$ ce
qui donne le
système suivant:
$$
\begin{array}{lcl}
\begin{pmatrix}
4-a&1&-1\\
-6&-1-a&2\\
2&1&1-a
\end{pmatrix}\begin{pmatrix}
x\\y\\z
\end{pmatrix}&=&(2-a)\begin{pmatrix}
x\\y\\z
\end{pmatrix}\\
&&\\
&\Longleftrightarrow &\left\{\begin{array}{lcl}
2x+y-z&=&0\\
-6x-3y+2z&=&0\\
2x+y-z&=&0
\end{array}\right.\\
&\Longleftrightarrow & b_3\in \Vect(e_1-2e_2)
\end{array}
$$
Il faut maintenant vérifier que $(b_1,b_2,b_3)$ est une base de $\R^3$. Soient $\alpha,\beta,\gamma\in
\R$ tels que $\alpha b_1+\beta\,b_2+\gamma b_3=0$ alors
$$\alpha (e_1-2e_2+e_3)+\beta (e_1-e_2+e_3)+\gamma
(e_1-2e_2)=0\Longrightarrow\left\{\begin{array}{lcl}
\alpha+\beta+\gamma&=&0\\
-2\alpha-\beta-2\gamma&=&0\\
\alpha+\beta&=&0
\end{array}\right.$$
Ce qui donne $ \alpha=\beta=\gamma=0$.
Donc la famille $\BB'=(b_1,b_2,b_3)$ est libre donc base de $\R^3$ et par construction la matrice de
$f$ dans cette base est $B_a$, ceci prouve que les matrices $A_a$ et $B_a$ sont semblables.
Soit $A=\begin{pmatrix} 1&2&3\\ 3&1&2\\ 2&3&1 \end{pmatrix}$. Montrer que $A$ et ${\,}^t A$ sont semblables.
Soient $\BB=(e_1,e_2,e_3)$ la base canonique de $\R^3$ et $u\in \LL(\R^3)$ tel que la matrice de $u$ dans $\BB$ soit $A$. On note $\BB'=(e_2,e_1,e_3)$, $\BB'$ est une base de $\R^3$ et la matrice de $u$ dans $\BB'$ est ${\,}^t A$.
Soient $A = \begin{pmatrix} 1 &1 &0 &0 \cr 0 &1 &1 &0 \cr 0 &0 &1 &1 \cr 0 &0 &0 &1 \cr \end{pmatrix}$ et $B = \begin{pmatrix} 1 &2 &3 &4 \cr 0 &1 &2 &3 \cr 0 &0 &1 &2 \cr 0 &0 &0 &1 \cr \end{pmatrix}$. Montrer que $A$ et $B$ sont semblables. (On cherchera $P$ inversible telle que $PB = AP$)
$P = \begin{pmatrix} a &b &c &d \cr 0 &2a &3a+2b &4a+3b+2c \cr 0 &0 &4a &12a+4b \cr 0 &0 &0 &8a \cr \end{pmatrix}$ est inversible pour $a\neq 0$.
Montrer que les matrices $M=\begin{pmatrix}
1&4\\1&1
\end{pmatrix}$ et $D=\begin{pmatrix}
3&0\\0&-1
\end{pmatrix}$ sont semblables.
Soit $A\in \MM_n(\R)$. On pose $B=\begin{pmatrix}
A&4A\\A&A
\end{pmatrix},\,C=\begin{pmatrix}
3A&0\\0&-A
\end{pmatrix}\in \MM_{2n}(\R)$. Montrer que $B$ et $C$ sont semblables.
On cherche $U\in \R^2$ (resp. $V\in \R^2$ tel que $MU=3U$ (resp. $MV=-V$), on trouve
$U=\begin{pmatrix}
2\\1
\end{pmatrix},\, V=\begin{pmatrix}
-2\\1
\end{pmatrix}$. On pose alors $P=\begin{pmatrix}
2&-2\\1&1
\end{pmatrix}$, et après calcul, on trouve $D=P^{-1}MP$. Donc $M$ et $D$ sont semblable.
On pose $Q=\begin{pmatrix}
2I_n&-2I_n\\
I_n&I_n
\end{pmatrix}\in \MM_{2n}(\R)$, la matrice $Q$ est inversible d'inverse
$Q^{-1}=\dfrac{1}{4}\begin{pmatrix}
I_n&2I_n\\
-I_n&2I_n
\end{pmatrix}$ et on vérifie $C=Q^{-1}BQ$.