Matrices

Rang d'une matrice

($\star$) Correction

Montrer qu'une matrice est de rang 1 ssi elle s'écrit comme le produit d'une matrice colonne par une matrice ligne.

Correction

Soient $p,q\in \N^*$, $C=\left(\begin{array}{c} a_1\\ \vdots\\ a_q \end{array}\right)\in \MM_{q\,1}(\K)$ une matrice colonne non nulle et $L=(b_1\cdots b_p)\in \MM_{1\,p}(\K)$ une matrice linge non nulle, le produit $CL$ s'écrit $$CL=\left( \begin{array}{cccc} a_1b_1&a_1b_2&\cdots&a_1b_p\\ \vdots&\vdots&\vdots&\vdots\\ a_qb_1&a_nb_2&\cdots&a_qb_p \end{array} \right)$$ On constate que toutes les colonnes de la matrice $CL$ sont proportionnelles à la colonne $C$. La matrice $CL$ est bien de rang 1.
Inversement, soit $A\in \MM_{p\,q}(\K)$ une matrice de rang $1$. Puisque $\rg (A)\neq 0$ alors il existe une colonne de $A$ non nulle on peut supposer que $C_1\neq 0$, d'autre part puisque $\rg (A)=1$ alors toutes les colonnes de $A$ sont proportionnelles à $C_1$, i.e. $C_k=b_kC_1$ (pour $k=2\cdots n$).
Notons $L=(1\,a_2\cdots a_q)$ une matrice ligne. On a $A=C_1L$. D'où le résultat.

($\star$) Correction

Soit $A\in \MM_n(\R)$ de rang 1 ($n\geq 2$). Montrer qu'il existe $\alpha \in \R$ tel que $A^k=\alpha^{k-1}A$ pour tout $k\geq 1$.

Correction

D'après l'exercice précédent, on a $A=CL$ avec $C\in \MM_{n\,1}(\R) $ et $L\in \MM_{1\,n}(\R)$.
Soit $k\in \N^*$, on a $$A^k=\underset{k \text{ fois} }{\underbrace{(CL)(CL)\cdots (CL)}}=C \underset{k-1 \text{ fois} }{\underbrace{(LC)\cdots (LC)}}L $$ Or $LC=\alpha\in \R$ donc on a $\boxed{A^k=\alpha^{k-1} A}$.

(CCP 2003) Correction

Soit $A\in\MM_n(\R)$ (avec $n\geq 2$) la matrice de coefficients $a_{ij}=\cos(i-j)$. Trouver le rang de~$A$.

Correction

En utilisant la formule $\cos(a+b)+\cos(a-b)=2\cos(a)\cos(b)$. On trouve $\cos(k+2)+\cos(k)=2\cos(1)\cdot \cos(k+1)$, ce qui donne (en notant $C_j$ la $j$\up{ème} colonne de la matrice $A$) \begin{equation*} \forall k\in \inter{0,n-2},\quad C_{k+2}= -C_k-2\cos(1)\,C_{k+1}\Longrightarrow \rg(A)\leq 2. \end{equation*} D'autre part, la matrice $A'=\begin{pmatrix} \cos(0)&\cos(1)\\ \cos(1)&\cos(0) \end{pmatrix}$ extraite de la matrice $A$ est inversible donc $\rg(A)\geq 2$. On en déduit, $\boxed{\rg(A)=2}$.

($\star\star\star$) Correction

Soit $A\in \MM_n(\R)$ telle qu'il existe $\lambda>0$ avec $A^3=-\lambda A$. Montrer que le rang de $A$ est pair.

Correction

Dans la suite, on suppose que $A\neq 0$.
Supposons que $n=2$, alors comme $A\neq 0$, il existe $x_0\in \R^2$ tel que $Ax_0\neq 0$. De plus $A^2x_0\neq 0$ car sinon on aurait $0=A(A^2x_0)=-\lambda Ax_0\neq 0$ ce qui impossible.
Montrons que la famille $(Ax_0,A^2x_0)$ est libre. Supposons qu'il existe $\alpha\in \R^*$ tel que $$A^2x_0=\alpha Ax_0\Longrightarrow A^3x_0=\alpha A^2x_0=-\lambda Ax_0=-\lambda\dfrac{1}{\alpha}A^2x_0\Longrightarrow (\alpha^2+\lambda)A^2x_0=0\Longrightarrow\alpha^2+\lambda=0,$$ ce qui est impossible car $\lambda>0$. Donc la famille $(Ax_0,A^2x_0)$ est une base de $\R^2$ et clairement les deux vecteurs sont dans $\im (A)$ ce qui prouve que $\rg (A)=2$.
Supposons que $n>2$, et notons $f$ l'application linéaire canoniquement associée à $A$, donc $f$ vérifie $f^3=-\lambda f$. On note $F=\im (f)\subset\R^n$. Notons d'abord que $F\cap \Ker(f)=\{0\}$, en effet si $x\in \im(f)\cap \Ker (f)$, on trouve: $$\exists z\in E,\, x=f(z) \text{ et } f(x)=0 =f^2(z) \text{ donc } 0=f^3(z)=-\lambda f(z)=-\lambda x \text{ soit } x=0.$$ Comme $F$ est stable par $f$, on définit alors $\fonct{v}{F}{F}{x}{f(x)}$. Vu que $F\cap \Ker(f)=\{0\}$, on en déduit que $\Ker v=\{0\}$, donc $v$ est bijective i.e. $\det (v)\neq 0$.
D'autre part, on a $$ \forall x\in F,\,\, v^3(x)=f^3(x)=-\lambda f(x)=-\lambda v(x) \Longrightarrow \det(v)^3=(-1)^{\dim F}\lambda^{\dim F}\det (v)$$ donc $(-1)^{\dim F}>0$ autrement dit, $\dim F=2p,\, p\in \N^*$.

($\star$) Correction

Soit $A\in \MM_n(\R)$. On suppose que $\rg (A)=1$ et $\tr (A)=1$. Montrer que $A^2=A$.

Correction

On considère $f:\R^n\longmapsto\R^n$ l'application canoniquement associée à $A$, comme $\rg (f)=\rg (A)=1$, on en déduit que $\dim (\Ker (f))=n-1$.
Soit $\{e_1,\cdots,e_{n-1}\}$ une base de $\Ker (f)$, qu'on complète à une base $\BB$ de $\K^n$, alors la matrice de $f$ dans cette base est $A'=\begin{pmatrix} 0&\cdots&0&\lambda_1\\ \vdots& &\vdots&\vdots\\ 0&\cdots&0&\lambda_n \end{pmatrix} $, puisque $\tr (f)=1$ alors $\lambda_n=1$.
Comme $A$ et $A'$ sont semblables, alors $A=PA'P^{-1}$ ce qui donne $A^2=P A'^2 P^{-1}$, un calcul simple donne $(A')^2=A'$, d'où $A^2=A$.

($\star\star$) Correction

Soient $(X_1,\cdots,X_q)$ et $(Y_1,\cdots,Y_p)$ des familles libres dans $\MM_{n\,1}(\K)$. Montrer que la famille $(Y_i{\,}^t X_j)_{(i,j)\in \inter{1,p}\times\inter{1,q}}$ est libre dans $\MM_n(\K)$.

Correction

Puisque les deux familles $(X_i),\,(Y_j)$ sont libre alors $p,q\leq n$. On complète les familles $(X_1,\cdots,X_q)$ et $(Y_1,\cdots,Y_p)$ à des bases $(X_1,\cdots,X_n),\,(Y_1,\cdots,Y_n)$ de $\MM_{n,1}(\K)$.
On note $A,\,B$ les deux matrices de $\mathrm{GL}_n(\K)$ telles que les colonnes de $A$ (resp. $B$) sont les $X_i$ (resp. $Y_i$). On considère ensuite $\fonct{\varphi}{\MM_n(\K)}{\MM_n(\K)}{M}{BM{\,}^t A}$, $\varphi$ est un automorphisme de $\MM_n(\K)$.
On a $Y_i{\,}^t X_j=\varphi(E_{i\,j})$ ...

(Mines PSI 2018) Correction

Soient $A,B\in\MM_n(\R)$ telles que $AB=A+B$. Montrer que $\rg(A)=\rg(B)$.

Correction

Soit $X\in \Ker (B)$ alors $ABX=0=AX+BX=AX$ donc $X\in \Ker(A)$, on en déduit alors que $\Ker(B)\subset \Ker(A)$.
Soit $Y\in \im (B),$ alors il existe $X\in \R^n$ tel que $Y=BX$ donc $$Y=BX= ABX-AX = A(BX-X)\Longrightarrow Y\in \im (A)\Longrightarrow \im (B)\subset \im (A)$$ En utilisant le théorème du rang, on trouve finalement que $\im(B)=\im(A)$.

(Central 2017) Correction

Soit $v\in \MM_{n\,1}(\R)$ non nul. On définit la matrice suivante : $H(v)=I_n-\dfrac{2}{{\,}^t v\cdot v}v\cdot {\,}^t v$.
Calculer $H(v)^2,\, H(v){\,}^t H(v)$. Que dire du range de $H(v)$?

Correction

Soit $v\in \MM_{n\,1}(R)$, on note $\alpha= {\,}^t v\cdot v\in \R$ et $B=v\cdot {\,}^t v\in \MM_n(\R)$, on a $$\begin{array}{lcl} H(v)^2&=&(I_n-\dfrac{2}{\alpha} B)^2=I_n-\dfrac{4}{\alpha} B+\dfrac{4}{\alpha^2}B^2=I_n-\dfrac{4}{\alpha} B+ \dfrac{4}{\alpha^2} (v\cdot {\,}^t v)(v\cdot {\,}^t v)\\ &&\\ &=&I_n-\dfrac{4}{\alpha} B+\dfrac{4}{\alpha^2}( v\cdot ({\,}^t v\cdot v) \cdot {\,}^t v)=I_n-\dfrac{2}{\alpha} B+ \dfrac{4}{\alpha^2} \alpha v\cdot {\,}^t v\\ &&\\ &=&I_n-\dfrac{4}{\alpha}B+\dfrac{4}{\alpha}B=I_n \end{array}$$ On en déduit alors que la matrice $H(v)$ est inversible et $H(v)^{-1}=H(v)$.
D'autre part, on a $${\,}^t H(v)={\,}^t I_n-\dfrac{2}{\alpha}{\,}^t (v\cdot {\,}^t v)=I_n-\dfrac{2}{\alpha}{\,}^t ({\,}^t v)\cdot{\,}^t v=H(v),$$ donc $H(v)$ est symétrique.

(Navale PSI 2018) Correction

Soient $A,\,B\in\MM_n(\R)$ telles que $(AB)^2=0$. A-t-on $(BA)^2=0$?

Correction

Soit $A=\begin{pmatrix} 1&0&0\\ 0&0&0\\ 0&1&0 \end{pmatrix}$ et $B=\begin{pmatrix} 0&0&1\\ 0&1&0\\ 0&0&0 \end{pmatrix}$. Alors $$AB= \begin{pmatrix} 1&0&0\\ 0&0&0\\ 0&1&0 \end{pmatrix}\begin{pmatrix} 0&0&1\\ 0&1&0\\ 0&0&0 \end{pmatrix}= \begin{pmatrix} 0&0&1\\ 0&0&0\\ 0&1&0 \end{pmatrix},$$ et $(AB)^2=\begin{pmatrix} 0&1&0\\ 0&0&0\\ 0&0&0 \end{pmatrix}.$ $$BA= \begin{pmatrix} 0&0&1\\ 0&1&0\\ 0&0&0 \end{pmatrix}\begin{pmatrix} 1&0&0\\ 0&0&0\\ 0&1&0 \end{pmatrix}=\begin{pmatrix} 0&1&0\\ 0&0&0\\ 0&0&0 \end{pmatrix}$$ et $(BA)^2=0$.

(Centrale 2018) Correction

Soit $M=(m_{ij})\in\MM_n(\R)$ définie par $\quad m_{ij}= \begin{cases} i & \text{si }1\leqslant i < n\text{ et } j=i+1\ ;\\ n-i+1&\text{si }1< i\leqslant n\text{ et } j=i-1\ ;\\ 0&\text{dans tous les autres cas.} \end{cases}$ Soit $f$ l'endomorphisme de $\R_{n-1}[X]$ de matrice $M$ dans la base canonique.

  1. Déterminer $f(P)$ pour tout polynôme $P$ de la base canonique, puis pour tout polynôme $P$ de $\mathbb R_{n-1}[X]$.
  2. Déterminer le rang de $M$ par plusieurs méthodes.

Correction

La matrice $M$ est .. $$M=\begin{pmatrix} 0&1&0&\cdots&\cdots&\cdots&0\\ n-1&0&2&\ddots&&&\vdots\\ 0&n-2&0&\ddots&\ddots&&\vdots\\ \vdots&\ddots&\ddots&\ddots&\ddots&\ddots&\vdots\\ \vdots&&\ddots&\ddots&0&n-2&0\\ \vdots&&&\ddots&2&0&n-1\\ 0&\cdots&\cdots&\cdots&0&1&0 \end{pmatrix}$$ Ainsi, $$f(1)=(n-1)X,\,f(X^{n-1})=(n-1)X^{n-2},\quad\forall k\in\inter{1,n-2},\,f(X^k)=(n-1-k)X^{k+1}+kX^{k-1}$$ On peut écrire, pour $k\in \inter{1,n-2}$ $$f(X^k)= (n-1)X^{k+1}- kX^{k+1}+kX^{k-1}=(n-1)XX^k+(1-X^2)(X^k)'$$ Cette relation reste vraie pour $k=0$ ou $k=n-1$. On en déduit $$\forall P\in \R_{n-1}[X],\quad f(P)=(n-1)XP+(1-X^2)P'.$$

(X 2015 $\star$) Correction

Soient $A,B\in \MM_n(\C)$ de rang 1, telles que $A+B$ soit aussi de rang 1. Montrer que $A$ et $B$ ont soit le même noyau soit le même image.

Correction

Supposons que $\Ker(A)\neq \Ker (B)$ (on doit montrer alors que $\im (A)=\im (B)$), il existe alors $x_0\in \R^n$ tel que $Ax_0=y\neq 0$ et $Bx_0=0$.
Puisque $\rg (A)=1$, on en déduit que $\im (A)=\Vect (y)$, puis on a $(A+B)x_0=Ax_0+Bx_0=y$ donc $\im (A+B)=\Vect(y)$.
La matrice $B$ étant de rang $1$, il existe $z\in \R^n$ non nul tel que $\im (B)=\Vect( z)$ et $z=Bx_1$ avec $x_1\in \R^n$ (non nul bien sûre!), ce qui donne $$z=Bx_1 =(A+B)x_1- Ax_1 \in \Vect (y) \text{ puisque } \im(A+B) =\im(A)=\Vect (y).$$ On en déduit alors que $\im (B)=\Vect(y)=\im (A)$.

Invers

($\star$) Correction

Déterminer l'inverse de $\begin{pmatrix} 1&1&1&1\\ 1&1+a&1&1\\ 1&1&1+b&1\\ 1&1&1&1+c \end{pmatrix}$ s'il existe, avec $a,b,c\in \K$.

Correction

Il est clair que si $a=0$, ou $b=0$, ou $c=0$ alors la matrice n'est pas inversible. Supposons dans la suite que $abc\neq 0$. On utilise la méthode de Gausse pour trouve l'inverse. $$\begin{pmatrix} 1&1 &1 &1 &|&1&0&0&0\\ 1&1+a&1 &1 &|&0&1&0&0\\ 1&1 &1+b&1 &|&0&0&1&0\\ 1&1 &1 &1+c&|&0&0&0&1 \end{pmatrix} \underset{\underset{i\in \inter{2,4}}{L_i\longleftarrow L_i-L_1}}{\leadsto} \begin{pmatrix} 1&1 &1 &1 &|&1&0&0&0\\ 0&a &0 &0 &|&-1&1&0&0\\ 0&0 &b &0 &|&-1&0&1&0\\ 0&0 &0 &c &|&-1&0&0&1 \end{pmatrix}\underset{\substack{L_2\longleftarrow L_2/a\\ L_3\longleftarrow L_3/b\\ L_4\longleftarrow L4/c}}{\leadsto}$$ $$\begin{pmatrix} 1&1 &1 &1 &|&1&0&0&0\\ 0&1 &0 &0 &|&\frac{-1}{a}&\frac{1}{a}&0&0\\ 0&0 &1 &0 &|&\frac{-1}{b}&0&\frac{1}{b}&0\\ 0&0 &1 &1 &|&\frac{-1}{c}&0&0&\frac{1}{c} \end{pmatrix} \underset{L_1\longleftarrow L_1-L2-L3-L4}{\leadsto} \begin{pmatrix} 1&0 &0 &0 &|&1+\frac{1}{a}+\frac{1}{b}+\frac{1}{c}&-\frac{1}{a}&-\frac{1}{b}&-\frac{1}{c}\\ 0&1 &0 &0 &|&\frac{-1}{a}&\frac{1}{a}&0&0\\ 0&0 &1 &0 &|&\frac{-1}{b}&0&\frac{1}{b}&0\\ 0&0 &1 &1 &|&\frac{-1}{c}&0&0&\frac{1}{c} \end{pmatrix}$$

($\star$) Correction

Soit $A=\begin{pmatrix} 1&1&1\\ 1&j&j^2\\ 1&j^2&j \end{pmatrix},\, Y=\begin{pmatrix} a\\b\\c \end{pmatrix} $. Résoudre le système $AX=Y$ d'inconnu $X\in \C^3$.

En déduire que $A$ est inversible puis donner $A^{-1}$.

Correction

Soit $Y=\begin{pmatrix} a\\b\\c \end{pmatrix}$, on note $X=\begin{pmatrix} x_1\\x_2\\x_3 \end{pmatrix}$. On a $$ AX=Y\Longleftrightarrow\left\{\begin{array}{lcrcrclr} x_1&+&x_2&+&x_3&=&a&\quad\quad (L1)\\ x_1&+&jx_2&+&j^2x_3&=&b&\quad\quad (L2)\\ x_1&+&j^2x_2&+&jx_3&=&c&\quad\quad (L3) \end{array} \right.$$ En utilisant la relation $1+j+j^2=0$, on trouve $$\left\{ \begin{array}{lcl} L1+L2+L3&\Longrightarrow& x_1=\dfrac{a+b+c}{3}\\ L1+j^2L2+jL3&\Longrightarrow& x_2=\dfrac{a+j^2b+jc}{3}\\ L1+jL2+j^2L3&\Longrightarrow& x_3=\dfrac{a+jb+j^2c}{3} \end{array} \right. \Longrightarrow X =\dfrac{1}{3}\begin{pmatrix} a+b+c\\ a+j^2b+jc\\ a+jb+j^2c \end{pmatrix} $$ Ceci prouve que $A$ est inversible et que: $$\boxed{A^{-1}=\dfrac{1}{3}\begin{pmatrix} 1&1&1\\ 1&j^2&j\\ 1&j&j^2 \end{pmatrix}}.$$

($\star$) Correction

Soit $n\in \N^*$. Soient $A,B\in\MM_n(\K)$ deux matrices telles que $AB=A+B$. Montrer que $(A-I_n)\in GL_n(\K)$ et calculer $(A-I_n)^{-1}$.

Correction

On a $(A-I_n)(B-I_n)=AB-A-B+I_n=I_n$, on en déduit que $(A-I_n)\in GL_n(\K)$ de plus $$\boxed{(A-I_n)^{-1}=(B-I_n)}.$$

($\star$) Correction

Soient $A,B\in \MM_n(C)$. On suppose que $A$ est inversible, et $B$ nilpotente. Montrer que $I_n+A^{-1}BA$ est inversible puis calculer son inverse.

Correction

Notons d'abord que, pour tout $k\in \N$, $(A^{-1}BA)^k=A^{-1}B^kA$. Comme $B$ est nilpotente alors il existe $r\in \N$ tel que, pour tout $k\geq r$, on a $B^k=0$.
On pose $C=A^{-1}\left(\dsum_{k=0}^{r-1}B^k\right)A$, on a $(I_n+A^{-1}BA)C=I_n$ ce qui montre que $I_n+A^{-1}BA$ est inversible et $(I_n+A^{-1}BA)^{-1}=C$.

($\star\star$) Correction

Soit $n\in \N^*$. On considère les matrices $A=(a_{p\,q})$ et $B=(b_{p\,q})\in \MM_n(\C)$ définies par: $$\forall 1\leq p,q\leq n,\,~~a_{p\,q}=\omega^{(p-1)(q-1)}\text{ et } b_{p,q}=\overline{\omega}^{(p-1)(q-1)}\text{ où } \omega=\ee^{\ii\frac{2\pi}{n}}.$$

  1. Pour $k\in \N$, calculer $\dsp \sum_{p=0}^{n-1}\omega^{kp}$.
  2. Calculer $AB$, en déduire que $A$ et $B$ sont inversible. Déterminer $A^{-1},\,B^{-1}$ et $BA$.
  3. Calculer $A^2$ et $B^2$.

Correction

Rappelons que $\omega$ est une racine $n$ième de l'unité.

  1. On distingue deux cas:
    1. $\omega^k\neq 1$ dans ce cas $\dsp \sum_{p=0}^{n-1}\omega^{kp}=\dsp \sum_{p=0}^{n-1}(\omega^{k})^{p}=\dfrac{1-(\omega^k)^n}{1-\omega}=0$.
    2. $\omega^k=1$ (i.e $n\mid k$) dans ce cas $\dsp \sum_{p=0}^{n-1}\omega^{kp}=n$.
  2. Le terme $c_{p\,q}$ du produit $AB$ vaut $$c_{p\,q}=\sum_{k=1}^na_{p\,k}b_{k\,q}=\sum_{k=1}^n\omega^{(p-1)(k-1)}\overline{\omega}^{(k-1)(q-1)}=\sum_{k=1}^n\omega^{(p-q)(k-1)}=\sum_{k=0}^{n-1}\omega^{(p-q)k}~~~~~~(\text{ car } \overline{\omega}=\omega^{-1}).$$ On en déduit que $c_{p\,q}=0$ sauf si $n\mid (p-q)$ or $p$, $q$ étant entre $1$ et $n$ donc $p-q$ est entre $1-n$ et $n-1$ où il n'y a qu'un seul multiple de $n$ à savoir $0$.
    Conclusion $\boxed{ c_{p\,q}=n\delta_{p\,q}}$. D'où $\boxed{AB=nI_n}$.
    On en déduit que $A$ et $B$ sont inversible et $$\boxed{A^{-1}=\dfrac{1}{n}B,~~~~B^{-1}=\dfrac{1}{n}A~~\text{ et } AB=BA=nI_n}.$$
  3. Soient $1\leq p,q\leq n$, le terme d'indice $p,\,q$ de $A^2$ s'écrit $$\sum_{k=1}^na_{p\,k}a_{k\,q}=\sum_{k=1}^n\omega^{(p-1)(k-1)}\omega^{(k-1)(q-1)}=\sum_{k=1}^n\omega^{(p+q-2)(k-1)}=\sum_{k=0}^{n-1}\omega^{(p+q-2)k}$$ ce terme est nulle sauf si $p+q-2$ est un multiple de $n$, or $p+q-2\in \{0,\cdots,2n-2\} $ donc on a deux possibilités: $$ (p+q-2=0 \Longrightarrow p=q=1) \text{ ou }(p+q-2=n\Longrightarrow p=n+2-q).$$ Ce qui donne $$A^2= \left( \begin{array}{ccccccc} n&0& \cdot &\cdot &\cdot& &0\\ 0& & & & & &n\\ \cdot& & && \cdot &\\ \cdot& & &\cdot&&&\\ \cdot& & \cdot& &&&\\ %&&&&&\\ 0&n& &\cdots& &&0 \end{array} \right)$$ Calculons maintenant le terme $p,\,q$ de la matrice $B^2$, $$\sum_{k=1}^nb_{p\,k}b_{k\,q}=\sum_{k=1}^n\omega^{-(p-1)(k-1)}\omega^{-(k-1)(q-1)}=\sum_{k=1}^n\omega^{-(p+q-2)(k-1)}=\sum_{k=0}^{n-1}\omega^{(2-p-q)k}$$ On en déduit que $B^2=A^2$.
($\star\star$) Correction

Soit $n\in \N^*$. On considère la matrice $A=(a_{i\,j})_{1\leq i,j\leq n}$ définie par: $\,\,\dsp\forall 1\leq i,j\leq n,~~~~a_{i\,j}=\left\{\begin{array}{ll} (-1)^{i-1}{i-1\choose j-1}&\text{ si }j\leq i,\\ &\\ 0&\text{ sinon} \end{array} \right.$. Calculer $A^2$.

Correction

Soient $1\leq i,j\leq n$, le terme d'indice $i,\,j$ de la matrice $A^2$ s'écrit $A_{i\,j}=\dsp\sum_{k=1}^n a_{i\,k}a_{k\,j}$. Pour que $a_{i\,k}a_{k\,j}$ ne soit pas nul il faut que $k\leq i$ et $j\leq k$, donc $A_{i\,j}=0$ si $j>i$.
Soient maintenant $1\leq j\leq i\leq n$, on a $$ \begin{array}{lcl} \dsp\sum_{k=j}^i(-1)^{i-1}(-1)^{k-1}{i-1\choose k-1}{k-1\choose j-1} &=&\dsp\sum_{k=j}^i(-1)^{i+k}\dfrac{(i-1)!}{(i-k)!(k-1)!}\dfrac{(k-1)!}{(j-1)!(k-j)!}\\ &=&\dsp\dfrac{(-1)^i(i-1)!}{(j-1)!} \sum_{k=j}^i(-1)^{k}\dfrac{1}{(i-k)!(k-j)!}\\ &=&\dsp\dfrac{(-1)^i(i-1)!}{(j-1)!} \sum_{k=0}^{i-j}(-1)^{k+j}\dfrac{1}{(i-j-k)!(k)!}\\ &=&\dsp\dfrac{(-1)^{i-j}(i-1)!}{(j-1)!(i-j)!} \sum_{k=0}^{i-j}(-1)^{k}\dfrac{(i-j)!}{(i-j-k)!(k)!}\\ &=&\dsp\dfrac{(-1)^{i-j}(i-1)!}{(j-1)!(i-j)!} \sum_{k=0}^{i-j}(-1)^{k}{i-j \choose k}=\dfrac{(-1)^{i-j}(i-1)!}{(j-1)!(i-j)!} (1-1)^{i-j}. \end{array} $$ On en déduit que $A_{i\,j}=\delta_{i\,j}$. Ce qui donne $\boxed{ A^2=I_n}$.

(Mines-Télécom 2019) Correction

Soit $n\in \N,\,n>1$. On considère la matrice $A=(a_{i\,j})_{1\leq i,j\leq n}$ définie par: $$\forall 1\leq i,j\leq n,~~~~a_{i\,j}=1 \text{ si } i\neq j \text{ et } a_{i\,i}=0.$$ Montrer que $A$ est inversible et calculer $A^{-1}$.

Correction

Une conséquence de l'exercice ci-après, avec $a=0,\,b=1$.

($\star\star$) Correction

Même question avec $A=\begin{pmatrix} a & b&\cdots &\cdots&b\\ c & a&0 &\cdots&0 \\ \vdots& 0 &\ddots&\ddots&\vdots\\ \vdots&\vdots&\ddots&\ddots&0\\ c &0 &\ldots &0& a \end{pmatrix}$, ($a,b,c\in \R$).

Correction

Il est clair ici que si $a=0$ alors la matrice $A$ n'est pas inversible. Supposons que $a\neq 0$.
Considérons le système $(S): AX=Y$, dans ce cas le système $(S)$ peut s'écrire $$(S)\Leftrightarrow\left\{\begin{array}{cclccr} ax_1 &+& b\dsp\sum_{j=2}^nx_j&=&y_1&\\ cx_1&+& ax_k&=&y_k& \forall k\in\{2,\cdots,n\} \end{array} \right. \Leftrightarrow\left\{\begin{array}{r} ax_1 + \dfrac{b}{a}\dsp\sum_{j=2}^ny_j-\dfrac{bc}{a}(n-1)x_1=y_1\\ \forall k\in\{2,\cdots,n\}, ~~x_k=\dfrac{y_k-cx_1}{a} \end{array} \right. $$ Ce qui donne \begin{equation} x_1=\dfrac{ay_1-\dsp b\sum_{j=2}^ny_j}{a^2-(n-1)bc}\quad\quad (\star) \end{equation} On a supposé dans l'équation ($\star$) que $a^2-(n-1)bc\neq 0$.
En rapportant la valeur de $x_1$ trouvée dans l'équation ($\star$)dans l'expression de $x_k$, on trouve \begin{equation} x_k=\dfrac{-cay_1+\dsp bc\sum_{j=2}^ny_j +((a^2-(n-2)bc)y_k}{a(a^2-(n-1)bc)}\quad\quad (\star\star) \end{equation} On note dans la suite (pour simplifier l'écriture) $\Delta=(a^2-(n-1)bc)$. Les équations ($\star$) et ($\star\star$) nous donne: $$ A^{-1}=\dfrac{1}{a\Delta} \left( \begin{array}{ccccc} a^2&-ba&\cdots&\cdots&-ba\\ -ca&bc+\Delta&bc&\cdots&bc\\ -ca&bc&bc+\Delta&\cdots&bc\\ \vdots&\vdots&\vdots&\ddots&\vdots\\ -ca&bc&bc&\cdots&bc+\Delta \end{array} \right). $$

($\star\star$) Correction

Soit $n\in \N^*$. Montrer que la famille $\mathcal{F}=((1+X)^k)_{0\leq k\leq n}$ est une base de $\R_n[X]$.
Donner la matrice de passage $P$ de la base canonique $\BB$ à la base $\mathcal{F}$ puis déterminer $P^{-1}$.

Correction

La famille $\mathcal{F}$ est libre puisqu'elle contient des polynômes non nuls de degrés deux à deux distincts, de plus $\mathcal{F}$ continent autant d'éléments que la dimension de $\R_n[X]$ donc $\mathcal{F}$ est une base de $\R_n[X]$.
Soit $k\in \{0,\cdots,n\}$, on a $\dsp (1+X)^k=\sum_{i=0}^k{k\choose i}X^i$, on en déduit que la matrice $P$ de passage de la base $\BB$ à la base $\mathcal{F}$ s'écrit: $$P=\left( \begin{array}{cccc} \binom{0}{0} & \binom{1}{0} & \ldots & \binom{n}{0} \\ 0 & \binom11 & \ldots & \binom{n}1 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \ldots & \binom{n}{n} \end{array} \right) $$ Pour trouver $P^{-1}$, il suffit de remarquer que, $$\forall k\in \{0,\cdots,n-1\},~~~~X^k=(-1+1+X)^k=\dsp\sum_{i=0}^k\binom{k}{i}(-1)^{k-i}(1+X)^i,$$ ce qui donne, $$P^{-1}=\left( \begin{array}{cccc} \binom{0}{0} & -\binom{1}{0} & \ldots &(-1)^n \binom{n}{0} \\ 0 & \binom11 & \ldots & (-)^{n-1}\binom{n}1 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \ldots & \binom{n}{n} \end{array} \right) $$

($\star$) Correction

Soit $C\in \MM_{n,1}(\R)$ une matrice colonne non nulle et $L \in \MM_{1,n}(\R)$ une matrice ligne non nulle avec $ n \geq 2$. On pose $A = CL - I$ où $I = I_n$ est la matrice identité.

  1. Peut-on avoir $A = -I$ ? Vérifier : $A^2 + (2 - LC)A + (1 - LC)I = 0$, où l'on identifie les matrices de $M_{1,1}(\R)$ et les réels.
  2. Déterminer une condition nécessaire et suffisante pour avoir A inversible et déterminer $A^{-1}$ dans ce cas.
  3. Dans quels cas A est-elle une matrice de symétrie ? %\xcancel{\item La matrice A est-elle diagonalisable, si oui, la diagonaliser.}

Correction

On a: $A=-I$ ssi $CL=0$, comme on peut PAS avoir $CL=0$ (ceci impliquerais que $C=0$ ou $L=0$ ce qui est exclu ici). Donc $\boxed{A\neq -I}$.
En utilisant le faite que $CL$ et $I$ commutent, on trouve $$A^2=(CL)(CL)-2CL+I=(\underset{\in \R}{\underbrace{LC}}) CL-2CL+I=(LC-2)CL+I=(LC-2)A+(LC-1)I$$ Ce qui donne la relation demandé.
D'après ce qui précède, $A\in GL_n(\R)$ ssi $LC\neq 1$ et dans ce cas, on a $$\boxed{A^{-1}=\dfrac{1}{LC-1}\left(A+(2-LC)I\right)}.$$ $A$ est une matrice de symétrie ssi $A^2=I$, ce qui donne: $$A^2=I\Longleftrightarrow (LC) \,CL-2CL+I=I\Longleftrightarrow (LC-2)\,CL=0\Longleftrightarrow LC=2$$

(CCP) Correction

Soit $a\in \R$, on pose $M(a)=\begin{pmatrix} 1-2a&a&a\\ a&1-2a&a\\ a&a&1-2a \end{pmatrix}\in \MM_3(\R)$.

  1. Montrer que, $M(a)M(b)=M(a+b-3ab)$.
  2. En déduire l'ensemble $a$ dans $\R$ tel que $M(a)$ est inversible. Donner dans ce cas $M(a)^{-1}$ en fonction de $a$.
  3. Trouver une suite $(u_n)_n$ telle que $M(a)^n=M(u_n)$, pour tout $n\in \N$.

Correction

Un calcul simple donne $M(a)M(b)=M(a+b-3ab)$.
Puisque $M(0)=I_3$, alors pour savoir si $M(a)$ est inversible, il suffit de trouver $b$ tel que $a+b-3ab=0$. La résolution de cette équation donne (pour $a\neq 1/3$) $b=\dfrac{a}{3a-1}$.
Ainsi, pour tout $a\in \R\setminus \{1/3\},\, M(a)$ est inversible et $M(a)^{-1}=M\left(\frac{a}{3a-1}\right)$.
En revanche, pour $a=\frac{1}{3}$, on a $$M(1/3)=\begin{pmatrix} \frac{1}{3}&\frac{1}{3}&\frac{1}{3}\\ \frac{1}{3}&\frac{1}{3}&\frac{1}{3}\\ \frac{1}{3}&\frac{1}{3}&\frac{1}{3} \end{pmatrix}\Longrightarrow \rg (M(1/3))=1 \text{, donc $M(1/3)$ n'est pas inversible.}$$ Soit $n\in \N$, on a $$M(a)^{n+1}=M(a)^nM(a)=M(a+u_n-3au_n)=M(u_{n+1})$$ Donc la suite $(u_n)$ vérifie: $$u_0=0,\,u_1=a,\,\forall n\geq 1,\, u_{n+1}=a +(1-3a)u_n.$$ On pose $v_n=u_n-\dfrac{1}{3}$ donc $$\begin{array}{lcl} v_{n+1}&=&u_{n+1}-\dfrac{1}{3}\\ &=&a +(1-3a)u_n-\dfrac{1}{3}=a +(1-3a)(v_n+\dfrac{1}{3})-\dfrac{1}{3}\\ &=&a+(1-3a)v_n+\dfrac{1-3a}{3}-\dfrac{1}{3}=(1-3a)v_n \end{array}$$ Donc $v_n=v0(1-3a)^n=\dfrac{-1}{3}(1-3a)^n$. On en déduit, $$ \forall n\in \N,\quad u_n=\dfrac{1}{3}\left(1-(1-3a)^n\right).$$

(Info) Correction

Soit $k\in \R$. On pose $M(k)= \left( \begin{array}{cccccc} 1 &-k &0 &\cdots&\cdots&0\\ 0 &1 &-k & & &\vdots \\ \vdots &\ddots& &\ddots& &\vdots \\ \vdots & &\ddots&\ddots&\ddots & 0 \\ & & & & 1& -k \\ 0 & &\cdots& &0 & 1 \end{array} \right)\in \MM_n(\R) $. Montrer que $M(k)$ est inversible et déterminer $M(k)^{-1}$.

Correction

On note $K$ la matrice définie par: $$K= \begin{pmatrix} 0 &1 &0 &\cdots&\cdots&0\\ 0 &0 &1 & & &\vdots \\ \vdots &\ddots& &\ddots& &\vdots \\ \vdots & &\ddots&\ddots&\ddots & 0 \\ & & & & 0&1 \\ 0 & &\cdots& &0 & 0 \end{pmatrix} $$ Un calcul simple donne: $$K^2= \begin{pmatrix} 0 &0 &1 &\cdots&\cdots&0\\ 0 &0 &0 & 1 & \cdots &\vdots \\ \vdots &\ddots& &\ddots& &\vdots \\ \vdots & &\ddots&\ddots&\ddots & 1 \\ & & & & 0& 0 \\ 0 & &\cdots& &0 & 0 \end{pmatrix} $$

(Info) Correction

Soient $A = \begin{pmatrix} 1 &\frac12 &\frac13 \\ \frac12 &\frac13 &\frac14 \\ \frac13 &\frac14 &\frac15 \end{pmatrix}$ et $B = \begin{pmatrix} 1\phantom{.00}&0.5\phantom{0}&0.33\\ 0.5\phantom{0}&0.33&0.25\\ 0.33&0.25&0.20 \end{pmatrix}$. Calculer $A^{-1}$ et $B^{-1}$.

Correction

$$A^{-1} = \begin{pmatrix} 9 &-36 &30 \cr -36 &192 &-180 \cr 30 &-180 &180 \cr \end{pmatrix},\quad B^{-1} \approx \begin{pmatrix} 55.6 &-277.8 &255.6 \cr -277.8 &1446.0 &-1349.2 \cr 255.6 &-1349.2 &1269.8 \cr \end{pmatrix}.$$

($\star\star$) Correction

Soit $A=(a_{i,j})_{1\leqslant i,j\leqslant n}\in\MM_n(\C)$ telle que $\forall i\in\inter{1,n}$, $|a_{i,i}| >\dsum_{j\neq i}^{}|a_{i,j}|$. Montrer que $A\in\mathcal{GL}_n(\C)$. (Une matrice à diagonale strictement dominante est inversible.)

Correction

Montrons que $\text{Ker}A$ est réduit à $\{0\}$. Dans le cas contraire, on dispose d'un vecteur colonne non nul $X_0$ tel que $AX_0 = 0$. Posons $X_0=(x_i)_{1\leqslant i\leqslant n}$. Pour tout $i\in\inter{1,n}$, $$\sum_{j=1}^{n}a_{i,j}x_j= 0\Rightarrow a_{i,i}x_i =-\sum_{j\neq i}^{}a_{i,j}x_j \Rightarrow |a_{i,i}||x_i|\leqslant\sum_{j\neq i}^{}|a_{i,j}||x_j|.$$ On prend alors pour $i$ un indice $i_0$ tel que $|x_{i_0}| =\text{Max}\{|x_1|,...,|x_n|\}$. Puisque $X\neq0$, on a $|x_{i_0}|>0$. De plus, $$|a_{i_0,i_0}||x_{i_0}|\leqslant\sum_{j\neq i_0}^{}|a_{i_0,j}||x_j|\leqslant\left(\sum_{j\neq i_0}^{}|a_{i_0,j}| \right)|x_{i_0}|,$$ et puisque $|x_{i_0}|>0$, on obtient après simplification $|a_{i_0,i_0}|\leqslant\sum_{j\neq i_0}^{}|a_{i_0,j}|$ ce qui contredit les hypothèses.
Donc $\text{Ker}A=\{0\}$ et $A$ est inversible.

(CCP 2017) Correction

Soit $t\in\R^*$. On pose $A=\begin{pmatrix} 0&t\\-t&0 \end{pmatrix}$.

  1. Montrer que $A$ est inversible et déterminer $A^{-1}$.
  2. On pose $R=(I_2+A)(I_2-A)^{-1}$. Déterminer $R$ puis calculer ${\,}^t R\cdot R$. $R$ est-t-elle inversible?

Correction

Soit $t\in \R^*$, on vérifie que $$ \begin{pmatrix} 0&t\\-t&0 \end{pmatrix}\begin{pmatrix} 0&-1/t\\1/t&0 \end{pmatrix}=\begin{pmatrix} 0&-1/t\\1/t&0 \end{pmatrix}\begin{pmatrix} 0&t\\-t&0 \end{pmatrix}=\begin{pmatrix} 1&0\\0&1 \end{pmatrix}.$$ Donc $A(t)$ est inversible d'inverse $A(-1/t)$.
Soit $t\in \R^*$, on a $I_2-A=\begin{pmatrix} 1&-t\\t&1 \end{pmatrix}$ de déterminant $1+t^2\neq 0$, donc c'est une matrice inversible, et $(I_2-A)^{-1}=\begin{pmatrix} \dfrac{1}{1+t^2}&\dfrac{t}{1+t^2}\\ \dfrac{-t}{1+t^2}&\dfrac{1}{1+t^2} \end{pmatrix}$, et après $$R = \begin{pmatrix} 1&t\\-t&1 \end{pmatrix} \begin{pmatrix} \dfrac{1}{1+t^2}&\dfrac{t}{1+t^2}\\ \dfrac{-t}{1+t^2}&\dfrac{1}{1+t^2} \end{pmatrix}= \begin{pmatrix} \dfrac{1-t^2}{1+t^2}&\dfrac{2t}{1+t^2}\\ \dfrac{-2t}{1+t^2}&\dfrac{1-t^2}{1+t^2} \end{pmatrix}.$$ puis on a $$ {\,}^t R\cdot R=\begin{pmatrix} \dfrac{1-t^2}{1+t^2}&\dfrac{-2t}{1+t^2}\\ \dfrac{2t}{1+t^2}&\dfrac{1-t^2}{1+t^2} \end{pmatrix}\begin{pmatrix} \dfrac{1-t^2}{1+t^2}&\dfrac{2t}{1+t^2}\\ \dfrac{-2t}{1+t^2}&\dfrac{1-t^2}{1+t^2} \end{pmatrix} =\begin{pmatrix} \dfrac{(1-t^2)^2+4t^2}{(1+t^2)^2}&0\\ 0&\dfrac{4t^2+(1-t^2)}{(1+t^2)^2} \end{pmatrix}=I_2 $$ Donc $R$ est inversible et $R^{-1}={\,}^t R$.

(CCP 2015) Correction

Soit $z\in\C^*$, on considère la matrice $A(z)=\begin{pmatrix} 0&z&z^2\\ z^{-1}&0&z\\ z^{-2}&z^{-1}&0 \end{pmatrix}$.

  1. Calculer $A(z)^2$, en déduire que $A(z)$ est inversible et donner son inverse;
  2. Pour $n\in \N$, donner $A(z)^n$. Cette formule reste valable si $n\in \Z$?

Correction

Un calcul simple donne: $$A(z)^2= \begin{pmatrix} 2&z&z^2\\ z^{-1}&2&z\\ z^{-2}&z^{-1}&2 \end{pmatrix}=2\begin{pmatrix} 1&0&0\\ 0&1&0\\ 0&0&1 \end{pmatrix}+\begin{pmatrix} 0&z&z^2\\ z^{-1}&0&z\\ z^{-2}&z^{-1}&0 \end{pmatrix}=2I_3+A(z).$$ Autrement dit, $A(z)^2-A(z)=2I_3$ soit $A(z)\left(\dfrac{1}{2}\left(A(z)-I_3\right)\right)=I_3$. On en déduit alors que $A(z)$ est inversible et $A(z)^{-1}=\frac{1}{2}(A(z)-I_3)$.

(CCINP PSI 2019) Correction

Soit $a\in\mathbb{R}^*$ et $\quad A=(a_{i\,j})\in \MM_n(\R)$, avec: $$\forall (i,j)\in \inter{1,n}^2,\,\,a_{i\,j}=a^{j-i} \text{ si } i\leq j \text{ et } a_{i\,j} = 0 \text{ sinon }.$$ Montrer que $A$ est inversible et calculer son inverse.

Correction

Un calcul simple nous donne: $$\forall a\in \R^*,\quad A(a)^{-1}=\begin{pmatrix} 1&-a&0 &\cdots&\cdots&0\\ 0&1 &-a& 0 &\cdots&0\\ & & & & & \\ & & & & &\\ & & & & 1&-a\\ & & & & &1 \end{pmatrix}.$$

($\star\star$) Correction

Soient $n\in \N,\,n>1$ et $a,b\in \R$. On considère la matrice $A=(a_{i\,j})_{1\leq i,j\leq n}$ définie par: $$\forall 1\leq i,j\leq n,~~~~a_{i\,j}=b \text{ si } i\neq j \text{ et } a_{i\,i}=a.$$ Calculer $A^{-1}$ lorsqu'au c'est possible.

Correction

Il est clair que si $a=b$ alors la matrice n'est pas inversible, supposons alors dans la suite que $a\neq b$.
On va résoudre le système $(S):~~AX=Y$ avec $X={}^T(x_1\cdots x_n),\,Y= {}^T(y_1\cdots y_n)\in \MM_{n\,1}(\R)$. $$ (S)\Longleftrightarrow\left\{\begin{array}{ccccccccc} ax_1 &+& bx_2&+&\cdots &+&bx_n&=&y_1\\ bx_1 &+& ax_2&+&\cdots &+&bx_n&=&y_2\\ \vdots&& & & &&&&\\ bx_1 &+& bx_2&&\cdots &+&ax_n&=&y_n \end{array} \right. $$ En additionnant les lignes de ce système, on obtient : \begin{equation} (a+(n-1)b)\dsp \sum_{k=1}^nx_k=\dsp\sum_{k=1}^ny_k,\quad\quad\quad (\heartsuit) \end{equation} Supposons que $a+(n-1)b\neq 0$ (sinon la matrice $A$ n'est pas inversible!).
En remarquant que chaque ligne du système $(S)$ peut s'écrire sous la forme: $$ bx_1 +\cdots +ax_k +(bx_k-bx_k)+bx_{k+1}+\cdots+bx_n=y_k \Longrightarrow (a-b)x_k+b\dsp\sum_{j=1}^nx_j=y_k$$ donc en utilisant la relation ($\heartsuit$), on trouve $$ \forall k\in \{1,\cdots,n\},~~~~x_k=\dfrac{\big(a+(n-2)b\big)y_k-b\dsp\sum_{ \underset{j\neq k}{j=1}}^n y_j}{(a-b)(a+(n-1)n)}$$ Ce qui donne $$A^{-1}=\dfrac{1}{(a-b)\big(a+(n-1)b\big)}\left( \begin{array}{cccc} a+(n-2)b& -b &\cdots & -b\\ -b &\ddots& &\vdots\\ \vdots & &\ddots &-b\\ -b&\cdots&-b&(a+(n-2)b) \end{array}\right).$$

($\star\star$) Correction

Soient $a_1,\cdots,a_n\in \R_+^*$. On considère la matrice $A=\begin{pmatrix} 1+a_1 &1 &\cdots&\cdots&1\\ 1 &1+a_2 &\ddots& &\vdots\\ \vdots&\ddots&\ddots&\ddots& \\ & & &\ddots&1\\ 1 &\cdots&\cdots&1 &1+a_n \end{pmatrix}.$ Pour $X={\,}^t (x_1\cdots x_n)\in \MM_{n\,1}(\R)$ calculer le produit ${\,}^t X AX$. En déduire que $A$ est inversible.

Correction

Soit $X={\,}^t (x_1\cdots x_n)\in \MM_{n\,1}(\R)$, on a $${\,}^t X A X = \begin{pmatrix} x_1&\cdots&x_i&\cdots&x_n \end{pmatrix} \begin{pmatrix} \dsum_{k=1}^n x_k +a_1x_1\\ \vdots\\ \dsum_{k=1}^n x_k +a_ix_i\\ \vdots\\ \dsum_{k=1}^n x_k +a_nx_n\\ \end{pmatrix} =\left(\dsum_{k=1}^n x_k\right)^2+\dsum_{j=1}^na_jx_j^2$$ En particulier, on trouve que ${\,}^t X A X> 0$ pour $X\neq 0$.
Supposons que $A$ n'est pas inversible, alors il existe $X_0\in \R^n$ non nul tel que $AX_0=0$, donc ${\,}^t X_0 AX_0=0$, ce qui est impossible. Donc $A$ est inversible.

Applications linéaires

($\star\star$) Correction

Soit $A=\begin{pmatrix} 0&\frac{1}{n}&&\\ \frac{n}{n}&\ddots&\ddots&\\ &\ddots&\ddots&\frac{n}{n}\\ &&\frac{1}{n}&0 \end{pmatrix}\in\MM_{n+1}(\R)$.

  1. Trouver un endomorphisme $u\in \R_n[X]$ dont la matrice dans la base canonique est $A$.
  2. Pour $j\in \inter{0,n}$, on pose $P_j=(X-1)^j(X+1)^{n-j}$. Montrer que $(P_j)_{0\leq j\leq n}$ est une base de $\R_n[X]$ puis donner la matrice de $u$ dans cette base.

Correction

  1. Notons $f$ l'endomorphisme de $\R_n[X]$ associé à la matrice $A$ dans la base canonique. Alors, on a $$\left\{ \begin{array}{lr} f(1)= X&\\ f(X^k)=\dfrac{k}{n}X^{k-1}+\dfrac{n-k}{n}X^{k+1}=X^{k+1}+\dfrac{k}{n}X^{k-1}(1-X^2)&\forall k\in \{1,\cdots,n-1\}\\ f(X^n)=X^{n-1}& \end{array} \right. $$ On remarque que $f$ coïncide avec l'endomorphisme $\varphi$ (définie par $\varphi(P)=XP+\dfrac{(1-X^2)}{n}P'$)sur la base canonique de $\R_n[X]$ donc $$\boxed{ \forall P\in \R_n[X],~~f(P)=\varphi(P)=XP+\dfrac{(1-X^2)}{n}P'}.$$
  2. c.f.la correction de DS 2.

($\star\star$) Correction

On note $E=\big\{M\in\MM_n(\K),\,\, {\,}^t M=-M\big\}$. Soit $A\in\MM_n(\K)$. On définit $\fonct{f}{E}{E}{M}{{\,}^t AM+MA.}$

  1. Montrer que $f\in\LL(E)$.
  2. Déterminer $\tr(f)$ en fonction de $\tr(A)$.

Correction

Exercice similaire à l'Exercice ci-après, avec ici la base $\BB=(F_{ij}=E_{ij}-E_{ji})_{1\leq i< j\leq n}$.
La base dual $\BB^*=(F_{ij}^*)$ avec $F^*_{ij}=E_{ij}^*$.

($\star$) Correction

Soient $n\in \N^*,\,A\in\MM_n(\K)$ une matrice vérifiant $A^k=I_n$ avec $k\in\N^*$.
On pose $B=I+A+A^2+\dots+A^{k-1}$, et on note $u,v$ les endomorphismes de $\K^n$ canoniquement associés à $A$ et $B$. Montrer que: $$\Ker(u-\mathrm{Id})=\im v, \quad \im (u-\mathrm{Id})=\Ker v, \quad \K^n=\Ker v\oplus\im v \text{ et } \tr B=k\rg B.$$

Correction

On a $u^k-\mathrm{Id}=(u-\mathrm{Id})(\mathrm{Id}+u+u^2+\dots +u^{k-1})=(u-\mathrm{Id})\circ v=0$ et donc $\im v\subset\Ker(u-\mathrm{Id})$.
Inversement, soit $x\in\Ker(u-\mathrm{Id})$. Alors $u(x)=x$. Donc $v(x)=(\mathrm{Id}+u+\dots +u^{k-1})(x)=kx$ d'où $x=v\left(\frac{x}{k}\right)$ ce qui montre que $x\in\im v$.
D'où $\boxed{ \Ker(u-\mathrm{Id})=\im v}$. Comme $v\circ(u-\mathrm{Id})=0$, on en déduit $\im (u-\mathrm{Id})\subset \Ker v$, on conclut alors avec les dimensions, puisque d'après le résultat précédent, $$\dim\Ker v = n-\rg v= n-\dim \Ker(u-\mathrm{Id}) = \rg(u-\mathrm{Id}).$$ Soit $x\in \Ker v\cap \im v$. Alors $x\in\Ker(u-\mathrm{Id})$ donc $u(x)=x$. De $x\in\Ker v$ on tire $kx=0$ donc $x=0$. Soit $\boxed{\Ker v\cap \im v=\{0\}}$.
En utilisant le théorème du rang, ces sevs sont supplémentaires.
On écrit alors la matrice de $v$ dans une base adaptée à cette décomposition. Puisque la restriction de $v$ à $\im v$ est l'homothétie de rapport $k$, on obtient l'égalité voulue.

($\star\star$) Correction

Soit $A$ une matrice non nulle de $\MM_n(\C)$ et $\varphi$ une application de $\MM_n(\C)$ dans lui-même définie par $\varphi(X)=-X+(\tr(X))A$.

  1. A quelle condition $\varphi$ n'est-elle pas bijective? Caractériser alors $\varphi$.
  2. Discuter et résoudre, pour $B\in \MM_n(\C)$, l'équation $\varphi(X)=B$.

Correction

  1. Il est clair que $\varphi$ est une application linéaire de $\MM_n(\C)$ dans lui même. Donc $\varphi$ n'est pas bijective ssi $\varphi$ n'est pas injective.
    Supposons que $\varphi$ n'est pas injective, alors $\Ker \varphi\neq \{0\}$. Soit $B\in \Ker \phi$ non nulle, on a $$\varphi(B)=0\Longleftrightarrow B=\tr(B)A\Longleftrightarrow \tr(B)\neq 0$$ De plus, on a $$0=\tr (\varphi(B))=-\tr(B)+\tr (\tr(B)A)=-\tr(B)+\tr(B)\tr(A)=\tr(B)\big(1-\tr(A)\big)\Longrightarrow \tr(A)=1.$$ Inversement, si $\tr(A)=1$ alors $\varphi(A)=0$ et donc $\Ker \varphi \neq \{0\}$ i.e. $\varphi$ n'est pas injective.
    Conclusion: $\varphi$ n'est bijective ssi $\tr(A)=1$.
    Supposons qu'on est dans le cas ou $\tr(A)=1$, alors $$\forall B\in \MM_n(\C),~~\tr(\varphi (B))=0\Longrightarrow \varphi^2(B)=-\varphi(B).$$ Si on note $p=-\varphi$, on a alors $p\circ p=p$ i.e. $p$ est un projecteur, dont le noyau est $\C \cdot A$ et l'image $\{B\in \MM_n(\C),~~\tr(B)=0\}$.
  2. On distingue ici deux cas;
    1. Si $\tr (A)\neq 1$, alors $\varphi$ est bijective donc l'équation $\varphi(X)=B$ admet une et une seule solution. $$\tr (\varphi(X))=-\tr(X)+\tr(X)\tr(A)=\tr(B)\Longrightarrow \tr(X)=\dfrac{\tr(B)}{\tr(A)-1}.$$ Ce qui donne, $$B=-X+\tr(X)A\Longrightarrow \boxed{X=\dfrac{\tr(B)}{\tr(A)-1}A-B}.$$
    2. Si $\tr(A)=1$, alors $\varphi$ n'est pas bijective et $(-\varphi)$ est un projecteur. On distingue également ici deux cas:
      1. Si $\tr(B)\neq 0$ alors $B\not\in \im(\varphi)$ donc l'équation $\varphi(X)=B$ n'admet pas de solution.
      2. Si $\tr(B)=0$, alors $(-\varphi)(B)=B$ ce qui donne $\varphi(-B)=B$. On en déduit que l'équation $\varphi (X)=B$ admet l'ensemble de solutions $-B+ \Ker\varphi$

(CCP) Correction

On note $E=\R^3$ muni de sa base canonique $\BB$. On considère $P=\{(x,y,z)\in \R^3,\,x+y+z=0\}$ et $D=\Vect \left(\left(1,3,2\right)\right)$.

  1. Montrer que $E=P\oplus D$.
  2. Donner la matrice $A$ de la projection sur $P$ parallèlement à $D$ dans la bas $\BB$.

Correction

Soit $(x,y,z)\in P\cap D$ alors $x+y+z=0$ et il existe $\lambda\in \R$ tel que $$(x,y,z)=\lambda (1,3,2)\Longrightarrow \lambda+3\lambda+2\lambda =0 \Longrightarrow \lambda =0$$ donc $P\cap D=\{0\}$.

Soit $X=(x,y,z)\in \R^3$, on note $\alpha= x+y+z$, on peut alors écrire $$X = (X-\dfrac{\alpha}{6}(1,2,3))+\dfrac{\alpha}{6}(1,2,3) =X_P+X_D$$ Clairement, $X_D\in D$, et un petit calcul montre que $X_P\in P$, ceci prouve que $\R^3=P+D$. On en déduit alors que $\R^3=P\oplus D$.

Le calcul précédent montre que la projection $u$ sur $P$ parallèlement à $D$ est définie par : $$\forall (x,y,z)\in \R^3,\quad u((x,y,z))=\dfrac{1}{6}\left(5x-y-z,-3x+3y-3z,-2x-2y+4z\right)$$ Ce qui donne, $$A=\dfrac{1}{6}\begin{pmatrix} 5&-1&-1\\ -3&3&-3\\ -2&-2&4 \end{pmatrix} $$

($\star$) Correction

Soit $f$ l'endomorphisme de $\R^3$ dont la matrice par rapport à la base canonique $(e_1, e_2, e_3)$ est $A= \left( \begin{array}{ccc} 15 & -11 & 5 \\ 20 & -15 & 8 \\ 8 & -7 & 6 \end{array} \right).$ Montrer que les vecteurs $ e'_1 = 2e_1+3e_2+e_3,\quad e'_2 = 3e_1+4e_2+e_3,\quad e'_3 = e_1+2e_2+2e_3$ forment une base de $\R^3$ et calculer la matrice de $f$ par rapport à cette base.

Correction

Notons l'ancienne base $\mathcal{B}=(e_1,e_2,e_3)$ et ce qui sera la nouvelle base $\mathcal{B}'=(e'_1,e'_2,e'_3)$. Soit $P$ la matrice de passage qui contient -en colonnes- les coordonnées des vecteurs de la nouvelle base $\mathcal{B}'$ exprimés dans l'ancienne base $\mathcal{B}$ $$P=\begin{pmatrix} 2 & 3 & 1 \\ 3 & 4 & 2 \\ 1 & 1 & 2 \\ \end{pmatrix}$$ On vérifie que $P$ est inversible (on va même calculer son inverse) donc $\mathcal{B}'$ est bien une base. De plus $$P^{-1} = \begin{pmatrix} -6 & 5 & -2 \\ 4 & -3 & 1 \\ 1 & -1 & 1 \\ \end{pmatrix} \text{ et on calcule } B=P^{-1} A P = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \\ \end{pmatrix}$$ $B$ est la matrice de $f$ dans la base $\mathcal{B}'$.

(Mines 2018) Correction

On considère l'application $\varphi$ qui à une matrice $M=(C_1,\cdots,C_n)$ associé la matrice $M'=(C_1',\cdots,C_n')$ avec $C_j'=\dsum_{k\neq j}C_k$.

  1. On suppose que $n=3$. Donner la matrice de $\varphi$ dans la base canonique de $\MM_3(\R)$.
  2. On souhaite résoudre le système $\varphi(M)=\lambda M$ avec $\lambda\in \R$ et $M\in\MM_n(\R)$ non nulle.
    1. Montre que s'il existe $M\in\MM_n(\R)$ non nulle telle que $\varphi(M)=\lambda M$ alors $\lambda\in\{-1,n-1\}$.
    2. Résoudre le système $\varphi(M)=- M$, puis $\varphi(M)=(n-1) M$.
  3. Montrer que $\MM_n(\R)=\Ker (\varphi+\mathrm{Id})\oplus \Ker(\varphi-(n-1)\mathrm{Id})$.
Correction

  1. Soit $(E_{i\,j})_{1\leq i,j\leq 3}$ la base canonique de $\MM_3(\R)$.
  2. Soit $\lambda\in \R$, supposons qu'il existe $M\neq 0$ tel que $\varphi(M)=\lambda M$. On note $K=\dsum_{k=1}^nC_j \in \R^n$ la somme des colonnes de la matrice $M$.\\ Alors $$\forall j\in \inter{1,n},\quad \lambda C_j=\dsum_{k\neq j}C_k=\dsum_{k=1}^nC_k-C_j\Longrightarrow \lambda K= nK-K =(n-1)K$$ Si $K\neq 0$ alors $\lambda= n-1$, supposons que $K=0$, donc, $$\forall j\in \inter{1,n},\quad \lambda C_j=\dsum_{k\neq j}C_k=\dsum_{k=1}^nC_k-C_j=K-C_j\Longrightarrow \lambda =-1$$ conclusion, si l'équation $\varphi(M)=\lambda M$ admet une solution non nulle alors $\lambda\in\{-1,n-1\}$.

($\star\star$) Correction

Soit $A \in \MM_n(\R)$ et $u : \left\{ \begin{array}{ccc} \MM_n(\R) & \rightarrow & \MM_n(\R) \\ M & \mapsto & AM+MA \end{array} \right.$ . Montrer que $u\in \LL(\MM_n(\R))$ et calculer sa trace.

Correction

Soient $M,T\in \MM_n(\R)$ et $\lambda\in \R$. On a: $$ \begin{array}{lcl} u(\lambda M+T)&=&A(\lambda M+T)+(\lambda M +T)A=\lambda A M+AT+\lambda M A + TA \\ &&\\ &=& \lambda (AM+MA)+(AT+TA)=\lambda u(M)+u(T) \end{array} $$ Donc $u\in \LL(\MM_n(\R)$.
Soit $\BB=(E_{ij})_{1\leq i,j\leq n}$ la base canonique de $\MM_n(\R)$ et $\BB^*=(E^*_{ij})_{1\leq i,j\leq n}$ la base dual de $\MM_n(\R)^*$. Alors $\tr u = \dsum_{i,j}E_{ij}^*\big(u(E_{ij})\big)$.
Si $A=(a_{k\ell})_{k,\ell}$, on a $$ u(E_{ij})= \begin{array}{c} \begin{array}{ccccccccccc} & & && &\,\,\underset{\downarrow}{C_i} &&& &\,\,\,\,\,\,\,\underset{\downarrow}{C_j} & \end{array} \\ \begin{array}{c} \\ \\ L_i\longrightarrow \\ \\ \\ L_j\longrightarrow \\ \\ \end{array} \left( \begin{array}{ccccccccc} & & & & && a_{1i} & &\\ & &{}_{\text{\Huge{0}}} & & && a_{2i} & {}_{\text{\Huge{0}}} &\\ & & & & && \vdots & &\\ a_{j1}& & &\cdots &a_{ji}&\cdots &\boxed{a_{ii}+a_{jj}}&\cdots&a_{jn}\\ & & & & &&\vdots & & \\ & &{}_{\text{\Huge{0}}} & & && a_{ji} & {}_{\text{\Huge{0}}} &\\ & & & & &&\vdots & & \\ & & & & &&a_{ni} & & \end{array} \right) \end{array} $$ Donc $E^*_{ij}(u(E_{ij}))=a_{ii}+a_{jj}$. D'où, $\tr u = \dsum_{1\leq i,j\leq j}(a_{ii}+a_{jj})=\boxed{2n\tr A}$.

Matrices semblabes

($\star$) Correction

Pour tout $A\in \MM_n(\K)$, on pose $\varphi(A)=\dsum_{(i,j)\in \inter{1,n}^2}a_{i\,j}a_{j\,i}$. Montrer que si $A$ et $B$ sont semblables, alors $\varphi(A)=\varphi(B)$.

Correction

Soit $A=(a_{i\,j})\in \MM_n(\K)$, on note $A^2=(a'_{i\,j})\in \MM_n(\K)$, on a $$\varphi(A)=\dsum_{(i,j)\in \inter{1,n}^2}a_{i\,j}a_{j\,i}=\sum_{i=1}^n\left(\sum_{j=1}^na_{i\,j}a_{j\,i}\right)=\sum_{i=1}^na_{i\,i}'=\tr (A^2).$$ Si $A,\,B$ sont semblables, il en va de même pour $A^2$ et $B^2$, en particulier $\tr (A^2)=\tr (B^2)$ d'où $\boxed{\varphi(A)=\varphi(B)}$.

($\star\star$) Correction

Montrer que toute matrice de trace nulle est semblable à une matrice à diagonale nulle.

Correction

On commence par démontrer le résultat classique: si $u$ est un endomorphisme tel que , pour tout $x\in E$, le système $\{x,u(x)\}$ soit lié, alors $u$ est une homothétie (on a, si $x\neq 0$, $u(x)=\lambda_x x$ puis on montre que $\lambda_x=\lambda_y$ en distinguant selon que $\{x,y\}$ est libre ou non...).
Soit donc $u$ un endomorphisme d'un $\K$-ev de dimension finie, de trace bulle. Il s'agit de montrer qu'il existe une base de $E$ où la matrice de $u$ est à diagonale nulle.

  1. le résultat est immédiat si $u$ est une homothétie (car alors, $u=0$!).
  2. Sinon, d'après la remarque précédente, il existe $e_1\in E$ tel que $\{e_1,u(e_1)\}$ soit libre. On pose alors $e_2=u(e_1)$. D'après le th. de la base incomplète, il existe une base $\mathscr{B}$ de $E$ de la forme $(e_1,e_2,\ldots,e_n)$. Dans une telle base, la matrice de $u$ est de la forme $\left(\begin{array}{cccc} 0&*&\ldots&*\\ 1& & & \\ 0& & B &\\ \vdots& &\\ 0& & & \end{array}\right)$, avec $\tr B=0$, et il ne reste plus qu'à faire une récurrence sur $n$.

(CCP PC 2001) Correction

Soit $a\in\R$, on note $A_a=\begin{pmatrix}4-a&1&-1\\-6&-1-a&2\\2&1&1-a\end{pmatrix}$ et $B_a=\begin{pmatrix}1-a&1&0\\0&1-a&0\\0&0&2-a\end{pmatrix}$. Montrer que $A_a$ et $B_a$ sont semblables pour tout $a\in\R$.

Correction

Soit $f$ l'application canoniquement associée à $A_a$, dir que $A_a$ et $B_a$ sont semblables revient à dir que $B_a$ est la matrice de $f$ dans une autre base $\BB'=(b_1,b_2,b_3)$ de $\R^3$, i.e. il faut qu'on ait $\left\{\begin{array}{lcl} f(b_1)&=&(1-a)b_1\\ f(b_2)&=&b_1+(1-a)b_2\\ f(b_3)&=&(2-a)b_3 \end{array}\right.$.
On pose $b_1=xe_1+ye_2+ze_3$, puis on résout le système $$ \begin{array}{lcl} f(b_1)=(1-a)b_1&\Longleftrightarrow& \begin{pmatrix} 4-a&1&-1\\ -6&-1-a&2\\ 2&1&1-a \end{pmatrix}\begin{pmatrix} x\\y\\z \end{pmatrix}=(1-a)\begin{pmatrix} x\\y\\z \end{pmatrix}\\ &&\\ &\Longleftrightarrow&\left\{\begin{array}{lcl} 3x+y-z&=&0\\ -6x-2y+2z&=&0\\ 2x+y&=&0 \end{array}\right. \\ &&\\ &\Longleftrightarrow& b_1\in \Vect(e_1-2e_2+e_3). \end{array}$$ On peut alors prendre $b_1=e_1-2e_2+e_3$. Cherchons maintenant $b_2=xe_1+ye_2+ze_3$ tel que $f(b_2)=b_1+(1-a)b_2$ ce qui donne $$ \begin{array}{lcl} \begin{pmatrix} 4-a&1&-1\\ -6&-1-a&2\\ 2&1&1-a \end{pmatrix}\begin{pmatrix} x\\y\\z \end{pmatrix}&=&\begin{pmatrix} 1\\-2\\1 \end{pmatrix}+(1-a)\begin{pmatrix} x\\y\\z \end{pmatrix}\\ &&\\ &\Longleftrightarrow&\left\{\begin{array}{lcl} 3x+y-z&=&1\\ -6x-2y+2z&=&-2\\ 2x+y&=&1 \end{array}\right.\\ &&\\ &\Longleftrightarrow& b_2\in e_1-e_2+e_3+\Vect(e_1-2e_2+e_3). \end{array} $$ On peut alors prendre $b_2=e_1-e_2+e_3$. Cherchons $b_3=xe_1+ye_2+ze_3$ tel que $f(b_3)=(2-a)b_2$ ce qui donne le système suivant: $$ \begin{array}{lcl} \begin{pmatrix} 4-a&1&-1\\ -6&-1-a&2\\ 2&1&1-a \end{pmatrix}\begin{pmatrix} x\\y\\z \end{pmatrix}&=&(2-a)\begin{pmatrix} x\\y\\z \end{pmatrix}\\ &&\\ &\Longleftrightarrow &\left\{\begin{array}{lcl} 2x+y-z&=&0\\ -6x-3y+2z&=&0\\ 2x+y-z&=&0 \end{array}\right.\\ &\Longleftrightarrow & b_3\in \Vect(e_1-2e_2) \end{array} $$ Il faut maintenant vérifier que $(b_1,b_2,b_3)$ est une base de $\R^3$. Soient $\alpha,\beta,\gamma\in \R$ tels que $\alpha b_1+\beta\,b_2+\gamma b_3=0$ alors $$\alpha (e_1-2e_2+e_3)+\beta (e_1-e_2+e_3)+\gamma (e_1-2e_2)=0\Longrightarrow\left\{\begin{array}{lcl} \alpha+\beta+\gamma&=&0\\ -2\alpha-\beta-2\gamma&=&0\\ \alpha+\beta&=&0 \end{array}\right.$$ Ce qui donne $ \alpha=\beta=\gamma=0$. Donc la famille $\BB'=(b_1,b_2,b_3)$ est libre donc base de $\R^3$ et par construction la matrice de $f$ dans cette base est $B_a$, ceci prouve que les matrices $A_a$ et $B_a$ sont semblables.

($\star$) Correction

Soit $A=\begin{pmatrix} 1&2&3\\ 3&1&2\\ 2&3&1 \end{pmatrix}$. Montrer que $A$ et ${\,}^t A$ sont semblables.

Correction

Soient $\BB=(e_1,e_2,e_3)$ la base canonique de $\R^3$ et $u\in \LL(\R^3)$ tel que la matrice de $u$ dans $\BB$ soit $A$. On note $\BB'=(e_2,e_1,e_3)$, $\BB'$ est une base de $\R^3$ et la matrice de $u$ dans $\BB'$ est ${\,}^t A$.

($\star$) Correction

Soient $A = \begin{pmatrix} 1 &1 &0 &0 \cr 0 &1 &1 &0 \cr 0 &0 &1 &1 \cr 0 &0 &0 &1 \cr \end{pmatrix}$ et $B = \begin{pmatrix} 1 &2 &3 &4 \cr 0 &1 &2 &3 \cr 0 &0 &1 &2 \cr 0 &0 &0 &1 \cr \end{pmatrix}$. Montrer que $A$ et $B$ sont semblables. (On cherchera $P$ inversible telle que $PB = AP$)

Correction

$P = \begin{pmatrix} a &b &c &d \cr 0 &2a &3a+2b &4a+3b+2c \cr 0 &0 &4a &12a+4b \cr 0 &0 &0 &8a \cr \end{pmatrix}$ est inversible pour $a\neq 0$.

($\star$) Correction

Montrer que les matrices $M=\begin{pmatrix} 1&4\\1&1 \end{pmatrix}$ et $D=\begin{pmatrix} 3&0\\0&-1 \end{pmatrix}$ sont semblables.
Soit $A\in \MM_n(\R)$. On pose $B=\begin{pmatrix} A&4A\\A&A \end{pmatrix},\,C=\begin{pmatrix} 3A&0\\0&-A \end{pmatrix}\in \MM_{2n}(\R)$. Montrer que $B$ et $C$ sont semblables.

Correction

On cherche $U\in \R^2$ (resp. $V\in \R^2$ tel que $MU=3U$ (resp. $MV=-V$), on trouve $U=\begin{pmatrix} 2\\1 \end{pmatrix},\, V=\begin{pmatrix} -2\\1 \end{pmatrix}$. On pose alors $P=\begin{pmatrix} 2&-2\\1&1 \end{pmatrix}$, et après calcul, on trouve $D=P^{-1}MP$. Donc $M$ et $D$ sont semblable.
On pose $Q=\begin{pmatrix} 2I_n&-2I_n\\ I_n&I_n \end{pmatrix}\in \MM_{2n}(\R)$, la matrice $Q$ est inversible d'inverse $Q^{-1}=\dfrac{1}{4}\begin{pmatrix} I_n&2I_n\\ -I_n&2I_n \end{pmatrix}$ et on vérifie $C=Q^{-1}BQ$.