Matrices

Rappels cours 1ère année

Définitions

Soient $p,q\in \N^*$. On notera :

  1. $\blacklozenge\,$ $\MM_{p,q}(\K)$ l'ensemble des matrices de type $(p,q)$ à coefficients dans $\K$.
  2. $\blacklozenge\,$ $\MM_{n,n}(\K)$, ensemble des matrices carrées de type $(n,n)$, ou d'ordre $n$, se note plus simplement $\mathscr{M}_n(\K)$.

Soient $A=(a_{i\,j}),\,B=(b_{i\,j})\in \MM_{p,q}$ et $\lambda \in \K$. On définit la matrice $C=(c_{i\,j})=A+B$ par, $$\forall (i,j)\in \inter{1,p}\times \inter{1,q},\quad c_{i\,j}=a_{i\,j}+b_{i\,j}.$$ On définit également la matrice $\lambda A=(a'_{i\,j})$ par: $$\forall (i,j)\in \inter{1,p}\times \inter{1,q},\quad a'_{i\,j}=\lambda a_{i\,j}.$$

Muni des lois précédentes, $ \big( \MM_{p,q}(\K),+,. \big)$ est un $\K$-e-v de dimension finie. De plus, $\dim(\MM_{p\,q}(\K))=pq$.

Pour tout $(k,\ell)\in \inter{1,p}\times \inter{1,q}$, on définit la matrice $E_{k\,\ell}\in \MM_{pq}(\K)$ par: $E_{k\,\ell}$ est la matrice dont tous les termes sont nuls sauf celui d'indice $(k,\ell)$ qui est égal à $1$.

i.e. le terme d'indice $(i,j)$ de $E_{k\,\ell}$ vaut : $ \delta _{ki}\delta_{\ell j}$.

La famille $(E_{k\,\ell})_{(k,\ell) \in \inter{1,p} \times \inter{1,q}}$ est une base de $\MM_{pq}(\K)$.
De plus, pour toute matrice $A=(a_{ij}) \in \MM_{p,q}(\K)$, on a : $\, A= \underset{1 \leqslant j \leqslant q} {\dsp \sum_{1 \leqslant i \leqslant p}} {a_{ij}E_{ij}}$.

La base $(E_{k\ell})_{(k,\ell) \in \inter{1,p} \times \inter{1,q}}$ est appelée base canonique de $\MM_{p,q}(\K)$.

Multiplication matricielles Soit $A\in \MM_{p\,q}(\K)$ et $B\in \MM_{q,r}(\K)$. On définit, la matrice $C=(c_{ik})_{(i,k) \in \inter{1,p} \times \inter{1,r}}$ produit de $A$ par $B$, noté $C=AB$, par $$\forall (i,k) \in \inter{1,p} \times \inter{1,r} \ , \ c_{ik} = \dsp \sum_{j=1}^q{a_{ij}b_{jk}}.$$

Remarque

Cette définition n'a un sens que si $A$ est de type $(p,q)$ et $B$ de type $(q,r)$. Ainsi, le produit $AB$ peut être défini sans que $BA$ ne le soit.

  1. Si $A \in \MM_{p,q}(\K), \ B \in \MM_{q,r}(\K) \textrm{ et } C \in \MM_{r,s}(\K)$, alors : $A(BC) = (AB)C$.
  2. Si $A \in \MM_{p,q}(\K) \textrm{ et } B_1, B_2 \in\MM_{q,r}(\K)$, on a : $A(B_1+ B_2)= A B_1 + A B_2$.
  3. Si $A_1, A_2 \in \MM_{p,q}(\K) \textrm{ et } B \in \MM_{q,r}(\K)$, on a : $(A_1+A_2)B= A_1B + A_2 B$.

Rang d'une matrice Le rang d'une matrice $A \in \MM_{p,q}(\K)$ est, par définition, le rang de ses vecteurs colonnes (éléments de $\K^p$). On le note : $\rg A$.

Si $A\in \MM_{pq}(\K)$ alors $\rg (A)\leq \min(p,q)$.

Transposée Soit $A = (a_{ij})_{\underset{\scriptstyle 1 \leqslant j \leqslant q}{1 \leqslant i \leqslant p}}\in \MM_{p,q}(\K)$. On appelle transposée de $A$ la matrice ${\,}^tA =(a'_{ji})_{\underset{\scriptstyle 1 \leqslant i \leqslant p}{1\leqslant j \leqslant q}} \in \MM_{q,p}(\K)$ définie par : $$ \forall (i,j) \in \inter{1,p} \times \inter{1,q} \ , a'_{ji}=a_{ij}.$$

Soient $A \in \MM_{p,q}(\K) \text{ et } B \in \MM_{q,r}(\K)$, alors ${\,}^t (AB)={\,}^t B {\,}^t A$.

Cas des matrices carrées

Dans $\MM_{n}(\K)$, la multiplication des matrices est une loi de composition interne. On notera:

  1. $\blacklozenge\,$ On notera $I_n$ l'élément neutre de $\MM_{n}(\K)$ (pour la loi $\times$) i.e. pour tout $A\in \MM_n(\K),\,\,A\times I_n=I_n\times A=A$.
  2. $\blacklozenge\,$ $\MM_n(\K)$ est non intègre (si $n\geq 2$), i.e. on peut trouver des matrices $A,B$ telles que : $A\neq 0, \ B\neq 0 \text{ et } AB=0$.
  3. $\blacklozenge\,$ $\MM_n(\K)$ est non commutative (si $n\geq 2$), i.e. $AB$ en général n'est pas égale à $BA$.

(E3A 2003)

Soit $\BB=\{E_{i\,j},i,j\in \inter{1,n}\}$, la base canonique de $\MM_n(\K)$. Pour $A,\,B\in \BB$, calculer $AB$.

Application: Montrer qu'il n'existe pas une norme $N$ définie sur $\MM_n(\K)$ telle que, pour tout $A,\,B\in \MM_n(\K)$, $N(AB)=N(BA)$.

Correction

Soient $A,B\in \BB$, il existe alors $i,j,k,\ell\in \inter{1,n}$ tels que $A=E_{i\,j},\,B=E_{k\,\ell}$.

Soient $\alpha,\,\beta\in \inter{1,n}$, on a $$(E_{i\,j}E_{k\,\ell})_{\alpha\,\beta}=\dsum_{\gamma=1}^n (E_{i\,j})_{\alpha\,\gamma}(E_{k\,\ell})_{\gamma\,\beta}=\dsum_{\gamma=1}^n\delta_{i\,\alpha}\delta_{j\,\gamma}\delta_{\gamma \,k}\delta_{\ell \,\beta} . = \delta_{i\,\alpha}\delta_{j \,k}\delta_{\ell \,\beta}$$ donc si $j\neq k$ alors $E_{i\,j}E_{k\,\ell}=0$, sinon ($j=k$): $(E_{i\,j}E_{k\,\ell})_{\alpha\,\beta} = \delta_{i\,\alpha}\delta_{\ell \,\beta}$, i.e. $E_{i\,j}E_{k\,\ell}=E_{i\,\ell}$. Conclusion $E_{i\,j}E_{k\,\ell}=\delta_{j\,k}E_{i\,\ell}$.

La relation précédente est une vraie machine pour fabriquer des matrices $A$, $B$ telles que $AB=0$ et $BA\neq 0$. Par exemple $$E_{1\,2}E_{2\,3}=E_{1\,3} \text{ tandis que } E_{2\,3}E_{1\,2}=0.$$ Si on suppose maintenant qu'il existe une norme $N$ sur $\MM_n(\K)$ tel que $N(AB)=N(BA)$ pour tout $A,\,B\in \MM_n(\K)$, on aurait: $$0< N(E_{1\,3})=N(E_{1\,2}E_{2\,3})=N(E_{2\,3}E_{1\,2})=N(0)=0$$ ce qui est évidemment impossible.

Remarque

Donc $AB=0$ n'implique pas que $A=0$ ou $B=0$.

(Navale PSI 2018)

Soient $A,\,B\in\MM_n(\R)$ telles que $(AB)^2=0$. A-t-on $(BA)^2=0$?

Correction

Soit $A=\begin{pmatrix} 1&0&0\\ 0&0&0\\ 0&1&0 \end{pmatrix}$ et $B=\begin{pmatrix} 0&0&1\\ 0&1&0\\ 0&0&0 \end{pmatrix}$. Alors $$AB= \begin{pmatrix} 1&0&0\\ 0&0&0\\ 0&1&0 \end{pmatrix}\begin{pmatrix} 0&0&1\\ 0&1&0\\ 0&0&0 \end{pmatrix}= \begin{pmatrix} 0&0&1\\ 0&0&0\\ 0&1&0 \end{pmatrix},$$ et $(AB)^2=\begin{pmatrix} 0&1&0\\ 0&0&0\\ 0&0&0 \end{pmatrix}.$ $$BA= \begin{pmatrix} 0&0&1\\ 0&1&0\\ 0&0&0 \end{pmatrix}\begin{pmatrix} 1&0&0\\ 0&0&0\\ 0&1&0 \end{pmatrix}=\begin{pmatrix} 0&1&0\\ 0&0&0\\ 0&0&0 \end{pmatrix}$$ et $(BA)^2=0$.

Soient $A,\,B\in \MM_n(\K)$. On dit que $A$ et $B$ commutent entre elles ssi $AB=BA$.

Soient $A,\,B\in \MM_n(\K)$, on suppose que $A$ commute avec $B$, alors $$\forall m\in \N,\quad (A+B)^m=\dsum_{k=0}^m\binom{m}{k}A^kB^{m-k}.$$

Matrice inversible Soit $A\in \MM_n(\K)$. On dit que $A$ est une matrice inversible ssi: $$\exists B\in \MM_n(K),\,BA=AB=I_n.$$ Si $B$ existe elle est unique, on note $A^{-1}=B$.

On notera $GL_n(\K)$ l'ensemble des éléments inversibles de $\MM_n(\K)$.

Si $A,B \in GL_n(\K)$, alors $AB \in GL_n(\K),\, {\,}^t A \in GL_n(\K)$ et : $$(AB)^{-1} = B^{-1}A^{-1} \text{ et } ({\,}^t A)^{-1} = {\,}^t \,(A^{-1}).$$

(CCP 2015)

Soit $z\in\C^*$, on considère la matrice $A(z)=\begin{pmatrix} 0&z&z^2\\ z^{-1}&0&z\\ z^{-2}&z^{-1}&0 \end{pmatrix}$.

Calculer $A(z)^2$, en déduire que $A(z)$ est inversible et donner son inverse.

Correction

Un calcul simple donne: $$A(z)^2= \begin{pmatrix} 2&z&z^2\\ z^{-1}&2&z\\ z^{-2}&z^{-1}&2 \end{pmatrix}=2\begin{pmatrix} 1&0&0\\ 0&1&0\\ 0&0&1 \end{pmatrix}+\begin{pmatrix} 0&z&z^2\\ z^{-1}&0&z\\ z^{-2}&z^{-1}&0 \end{pmatrix}=2I_3+A(z).$$ Autrement dit, $A(z)^2-A(z)=2I_3$ soit $A(z)\left(\dfrac{1}{2}\left(A(z)-I_3\right)\right)=I_3$. On en déduit alors que $A(z)$ est inversible et $A(z)^{-1}=\frac{1}{2}(A(z)-I_3)$.

Une matrice carrée $A = (a_{ij}) \in \MM_n(\K)$ est dite symétrique (resp. antisymétrique) ssi ${\,}^t A=A$ (resp. ${\,}^t A=-A$).

On notera $\mathscr{S}_n(\K)$ l'ensemble des matrices symétriques d'ordre $n$ et $\mathscr{AS}_n(\K)$ l'ensemble des matrices antisymétriques d'ordre $n$.

$\mathscr{S}_n(\K)$ et $\mathscr{AS}_n(\K)$ sont des s-e-v supplémentaires de $\MM_n(\K)$, de dimensions respectives $\dsp \frac{n(n+1)}{2}$ et $\dsp \frac{n(n-1)}{2}$.

Une matrice carrée $A = (a_{ij}) \in \MM_n(\K)$ est dite triangulaire supérieure (resp. inférieure) si : $$\forall (i,j) \in \inter{1,n}^2 \ , \ [j< i \ \Rightarrow \ a_{ij}=0] \ (\text{ resp. } [j>i \ \Rightarrow \ a_{ij}=0]).$$ On notera $TS_n(\K)$ (resp. $TI_n(\K)$) l'ensemble des matrices triangulaires supérieures (resp. inférieures) d'ordre $n$.

Remarque

Il est clair que : $A \in TS_n(\K) \Leftrightarrow {\,}^t A \in TI_n(\K)$.

$TS_n(\K)$ est une s-e-v de $\MM_n(\K)$, de dimension $\dsp \frac{n(n+1)}{2}$.

Remarque

Puisque $TI_n(\K)=\{{\,}^t A,\, A\in TS_n(\K)\}$. Alors $TI_n(\K)$ est aussi une s-e-v de $\MM_n(\K)$, isomorphe (par {la transposition}), en tant qu'espace vectoriel, à la précédente, et donc $$\dim(TI_n(\K))=\dim(TS_n(\K)=\dfrac{n(n+1)}{2}.$$ On s'intéresse davantage (au moins dans le programme de PSI) aux matrices triangulaires supérieures, pour leur lien naturel avec les application linéaires (c.f. théorème ci-après, ...).

Une matrice carrée $A = (a_{ij}) \in \MM_n(\K)$ est dite diagonale si et seulement si : $$\forall (i,j) \in \inter{1,n}^2 \ , \ j \neq i \ \Rightarrow \ a_{ij}=0.$$ On note alors : $A = \textrm{diag}(a_{11},a_{22}, \ldots, a_{nn})$, et $D_n(\K)$ l'ensemble des matrices diagonales d'ordre $n$.

Matrice d'une application linéaire

Généralités

Soient

  • $E$ un $\K$- ev de dim $q$, rapporté à une base $\mathscr{B}_E=(e_1, \ldots, e_q)$
  • $F$ un $\K$- ev de dim $p$, rapporté à une base $\mathscr{B}_F=(e'_1, \ldots, e'_p)$

Matrice d'une famille de vecteurs Soit $(x_1, \ldots, x_q)$ des vecteurs de $F$. Alors, pour tout $j \in \inter{1,q}$, il existe $(a_{ij})_{1 \leqslant i \leqslant p} \in \K ^p$ tels que $x_j = \dsp \sum_{i=1}^p{a_{ij}e'_i}$. $A=(a_{ij})_{\underset{\scriptstyle 1 \leqslant j \leqslant q}{1 \leqslant i \leqslant p}} \in\MM_{p,q}(\K)$ s'appelle la matrice des $(x_j)$ dans la base $\mathscr{B}_F$.

Exemple

Soit $F=\R_2[X]$, $\BB_F=\left(e_0'=\frac{(X-1)(X-2)}{2},e_1'=\frac{X(X-2)}{-1},e_2'=\frac{X(X-1)}{2}\right)$.
On considère $\mathcal{F} =(P_0=1,P_1=X,P_2=X^2,P_3=X^2-X+1)$. Alors $$ \begin{array}{ccccccccccccc} P_0&=&1&\times&\textcolor{red}{e_0'}&+&1&\times&\textcolor{red}{e_1'}&+& 1&\times&\textcolor{red}{e_2'}\\ P_1&=&0&\times&\textcolor{red}{e_0'}&+&1&\times&\textcolor{red}{e_1'}&+& 2&\times&\textcolor{red}{e_2'}\\ \textcolor{blue}{P_2}&=&\textcolor{blue}{0}&\times&\textcolor{red}{e_0'}&+&\textcolor{blue}{1}&\times&\textcolor{red}{e_1'}&+& \textcolor{blue}{4}&\times&\textcolor{red}{e_2'}\\ P_3&=&1&\times&\textcolor{red}{e_0'}&+&1&\times&\textcolor{red}{e_1'}&+& 3&\times&\textcolor{red}{e_2'} \end{array} $$ Ce qui donne $$ \begin{matrix} \begin{matrix} \underset{\downarrow}{P_0}&\underset{\downarrow}{P_1}&\underset{\downarrow}{\textcolor{blue}{P_2}}&\underset{\downarrow}{P_3} \end{matrix} &\\ \begin{pmatrix} 1 \,\,& \,0 \,\,& \,\,\textcolor{blue}{0}\,\,& 1 \,\,\\ 1 \,\,& \,1 \,\,&\,\, \textcolor{blue}{1}\,\, & 1 \,\,\\ 1 \,\,& \,2\,\, & \,\, \textcolor{blue}{4}\,\, & 3 \,\, \\ \end{pmatrix}&\begin{matrix} \longleftarrow\,\textcolor{red}{e_0'}\\ \longleftarrow\,\textcolor{red}{e_1'}\\ \longleftarrow\,\textcolor{red}{e_2'} \end{matrix} \end{matrix} $$

Soit $u \in \mathscr{L}(E,F)$. On appelle : matrice de $u$ dans les bases $\mathscr{B}_E$ et $\mathscr{B}_F$ la matrice dans $\mathscr{B}_F$ du système de vecteurs $(u(e_1), \ldots ,u(e_q))$.

On note $M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$ ou $M_{\mathscr{B}_E,\mathscr{B}_F}(u)$ ou $M(u; \mathscr{B}_E, \mathscr{B}_F)$.

Remques

Ainsi : $M_{\mathscr{B}_F}^{\mathscr{B}_E}(u) = (a_{ij}) \in \MM_{p,q}(\K)$, où $a_{ij}$ désigne la $i^{\grave{e}me}$ coordonnée de $u(e_j)$ dans la base $\mathscr{B}_F$.

Donc pour déterminer la matrice de $u$ relativement aux bases $B_E$ et $B_F$, on calcul $u(B_E)$. $$ \left\{\begin{array}{l} u(e_1)=a_{11}e_1'+a_{21}e_2'+\cdots+a_{i1}e_i'+\cdots+a_{p1}e_p'\\ u(e_2)=a_{12}e_1'+a_{22}e_2'+\cdots+a_{i2}e_i'+\cdots+a_{p2}e_p'\\ \vdots\\ \textcolor{blue}{u(e_j)=a_{11}e_1'+a_{21}e_2'+\cdots+a_{i1}e_i'+\cdots+a_{p1}e_p'}\\ \vdots\\ u(e_q)=a_{11}e_1'+a_{21}e_2'+\cdots+a_{i1}e_i'+\cdots+a_{p1}e_p'\\ \end{array} \right. $$ Ceci nous donne la matrice de $u$. $$ \begin{matrix} \begin{matrix} \phantom{ M(u)=} \end{matrix}&\begin{matrix} u(e_1)& u(e_2)&& \textcolor{blue}{u(e_j)}&&u(e_q) \end{matrix} &\\ \begin{matrix} \,\\ \,\\ M(u)=\\ \,\\ \, \end{matrix} & \begin{pmatrix} a_{11} & \quad a_{12} & \dots & \textcolor{blue}{a_{1j}} & \dots & a_{1q} \\ a_{21} & \quad a_{22} & \dots & \textcolor{blue}{a_{2j}} & \dots & a_{2q} \\ \vdots & \quad \vdots & & \textcolor{blue}{\vdots }& & \vdots \\ a_{i1} & \quad a_{i2} & \dots & \textcolor{blue}{a_{ij}} & \dots & a_{iq} \\ \vdots & \quad \vdots & & \textcolor{blue}{\vdots} & & \vdots \\ a_{p1} & \quad a_{p2} & \dots & \textcolor{blue}{a_{pj}} & \dots & a_{pq} \end{pmatrix} & \begin{matrix} \longleftarrow\, e_1'\\ \longleftarrow\, e_2'\\ \vdots\\ \longleftarrow\, e_i'\\ \vdots\\ \longleftarrow\, e_p' \end{matrix} \end{matrix} $$

Remarque

La matrice d'une application linéaire est avant tout UNE MATRICE, donc ne contient que des scalaires.

A éviter

A éviter

(DS 2020)

On note dans cette partie $V =\MM_2(\C)$; l'espace vectoriel des matrices carrées d'ordre 2 à coefficients complexes. On fixe dans $V$ la base canonique $\EE=\{e_1=E_{1\,1},e_2=E_{1\,2},e_3=E_{2\,1},e_4=E_{2\,2}\}$ où $E_{i\,j}$ est la matrice dont tous les coefficients sont nuls sauf celui de la ligne $i$ et la colonne $j$.

Soit $A=\begin{pmatrix} 2&6\\1&1 \end{pmatrix}\in V$, et on considère $\fonct{\varphi}{V}{V}{M}{MA-AM}$.

  1. Écrire la matrice de $\varphi$ dans la base $\EE$.
  2. Calculer $\varphi(I_2)$ et $\varphi(A)$, que peut-t-on dire sur $\dim (\Ker(\varphi))$?
  3. Résoudre l'équation $\varphi(X)=5X$ d'inconnu $X\in V$.
  4. On pose $\BB=\{I_2,A,B,C\}$ avec $B=\begin{pmatrix} -2&-4\\1&2 \end{pmatrix},\quad C=\begin{pmatrix} 3&-9\\1&-3 \end{pmatrix}.$
    1. Montrer que $\BB$ est une base de $V$.
    2. Déterminer la matrice de $\varphi$ dans la base $\BB$.
Correction

  1. Et non, la matrice de $\varphi$ n'est pas une matrice de taille 2!.
    On calcul $\varphi( \EE)$, $$\begin{array}{l} \varphi(E_{1\,1})= \begin{pmatrix} 1&0\\ 0&0 \end{pmatrix}\begin{pmatrix} 2&6\\1&1 \end{pmatrix}-\begin{pmatrix} 2&6\\1&1 \end{pmatrix}\begin{pmatrix} 1&0\\ 0&0 \end{pmatrix} =\begin{pmatrix} 2&6 \\0&0 \end{pmatrix}-\begin{pmatrix} 2&0\\ 1&0 \end{pmatrix}=\begin{pmatrix} 0&6\\ -1&0 \end{pmatrix}\\ \varphi(E_{1\,2})= \begin{pmatrix} 0&1\\ 0&0 \end{pmatrix}\begin{pmatrix} 2&6\\1&1 \end{pmatrix}-\begin{pmatrix} 2&6\\1&1 \end{pmatrix}\begin{pmatrix} 0&1\\ 0&0 \end{pmatrix} =\begin{pmatrix} 1&1 \\0&0 \end{pmatrix}-\begin{pmatrix} 0&2\\ 0&1 \end{pmatrix}=\begin{pmatrix} 1&-1\\ 0&-1 \end{pmatrix}\\ \varphi(E_{2\,1})= \begin{pmatrix} 1&0\\ 0&0 \end{pmatrix}\begin{pmatrix} 2&6\\1&1 \end{pmatrix}-\begin{pmatrix} 2&6\\1&1 \end{pmatrix}\begin{pmatrix} 1&0\\ 0&0 \end{pmatrix} =\begin{pmatrix} 0&0 \\2&6 \end{pmatrix}-\begin{pmatrix} 6&0\\ 1&0 \end{pmatrix}=\begin{pmatrix} -6&0\\ 1&6 \end{pmatrix}\\ \varphi(E_{2\,2})= \begin{pmatrix} 1&0\\ 0&0 \end{pmatrix}\begin{pmatrix} 2&6\\1&1 \end{pmatrix}-\begin{pmatrix} 2&6\\1&1 \end{pmatrix}\begin{pmatrix} 1&0\\ 0&0 \end{pmatrix} =\begin{pmatrix} 0&0 \\1&1 \end{pmatrix}-\begin{pmatrix} 0&6\\ 0&1 \end{pmatrix}=\begin{pmatrix} 0&-6\\ 1&0 \end{pmatrix} \end{array} $$ Ce qui donne $$M_{\EE}(\varphi)=\begin{pmatrix} 0&1&-6&0\\ 6&-1&0&-6\\ -1&0&1&1\\ 0&-1&6&0 \end{pmatrix} $$
  2. $\varphi(I_2)=I_2A-AI_2=0,\,\,\varphi(A)=A^2-A^2=0$, donc $I_2,\,A\in \Ker(\varphi)$ et comme $A$ n'est pas colinéaire à $I_2$ on déduit alors que la famille $(I_2,A)$ est libre ce qui implique que $\dim (\Ker(\varphi))\geq 2$.
  3. Soit $X=\begin{pmatrix} a&b\\ c&d \end{pmatrix}$, on a $$\varphi(X)=5X \Longleftrightarrow \begin{pmatrix} b-6c&6a-b-6d\\ c+d-a&6c-b \end{pmatrix}=\begin{pmatrix} 5a&5b\\5c&5d \end{pmatrix}\Longleftrightarrow\left\{\begin{array}{l} d=-a\\ b=2a\\ a=-2c \end{array}\right.$$ i.e. $X\in \Vect\left(\begin{pmatrix} -2&-4\\ 1&2 \end{pmatrix}\right)$.

Soient $u \in \mathscr{L}(E,F)$ et $A=(a_{ij}) \in \MM_{p,q}(\K) = M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$, $x \in E$, $x=\dsp \sum_{j=1}^q{x_j e_j}$ et $y=u(x) \in F$, $y= \dsp \sum_{i=1}^p{y_i e'_i}$.
Soit enfin $X$ la matrice colonne des coordonnées de $x$ dans $\mathscr{B}_E$ : $X={\,}^t (x_1\cdots x_q) \in \ \MM_{q,1}(\K)$ et $Y$ la matrice colonne des coordonnées de $y$ dans $\mathscr{B}_F$ : $Y={\,}^t (y_1\cdots y_p) \in \ \MM_{p,1}(\K)$. Alors : $$\forall i \in \inter{1,p} \ , \ y_i = \dsp \sum_{j=1}^q{a_{ij}x_j}$$ ce qui se traduit matriciellement par: $\boxed{Y=AX}$.

L'application $$\fonct{\varphi_{_{(\BB_E,\,\BB_F)}}}{\mathscr{L}(E,F)}{\MM_{p,q}(\K)}{u}{M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)}$$ est une bijection de $\mathscr{L}(E,F)$ sur $\MM_{p,q}(\K)$.
(cette bijection dépend du choix des bases $\mathscr{B}_E$ et $\mathscr{B}_F$).

Soit $A \in \MM_{p,q}(\K)$. Alors il existe une et une seule application linéaire $a \in \mathscr{L}(\K^q,\K^p)$ telle que la matrice de $a$ dans les bases canoniques respectives de $\K^q$ et $\K^p$ soit égale à $A$. $a$ s'appelle l'application linéaire canoniquement associée à $A$.

Soient $G,E,F$ trois $\K$-ev de dimensions respectives $r,q,p$, rapportés respectivement à des bases $\mathscr{B}_G=(e''_1, \ldots, e''_r) , \, \mathscr{B}_E=(e_1, \ldots, e_q), \, \mathscr{B}_F=(e'_1, \ldots, e'_p)$. Soient :

  • $A \in \MM_{p,q}(\K)$, et $u \in \mathscr{L}(E,F)$ tq $A= M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$ ,
  • $B \in \MM_{r,p}(\K)$, et $v \in \mathscr{L}(F,G)$ tq $B=M_{\mathscr{B}_G}^{\mathscr{B}_F}(v)$ et
  • $C \in \MM_{r,q}(\K)$, tq $C =M_{\mathscr{B}_G}^{\mathscr{B}_E}(v \circ u)$ (avec $v \circ u \in \mathscr{L}(E,G)$).

Pour tous $k \in \inter{1,q}$, on a $(v\circ u)(e_k)=\dsum_{i=1}^r c_{ik}e''_i$. Or $$u(e_k)=\dsum_{j=1}^p a_{jk}e'_j\quad \text{ et } \quad v(e'_j)=\dsum_{i=1}^r b_{ij}e''_i$$ Donc $$(v\circ u)(e_k)=\dsum_{j=1}^p a_{jk}v(e'_j)=\dsum_{j=1}^p a_{jk}\left(\dsum_{i=1}^r b_{ij}e''_i \right)= \dsum_{i=1}^r\left(\dsp \sum_{j=1}^pb_{ji}{a_{jk}}\right)e''_i=\dsum_{i=1}^r c_{ik}e''_i.$$ On en déduit alors :

[Matrice de la composée] Avec les hypothèses précédentes, on a: $$\forall (i,k) \in \inter{1,r} \times \inter{1,q} \ , \ c_{ik} = \dsp \sum_{j=1}^p {b_{ij}a_{jk}}, \quad \text{i.e. }\, C=BA.$$ Autrement dit, $$\boxed{ M_{B_G}^{B_E}(v\circ u)=M_{B_G}^{B_F}(v) \times M_{B_F}^{B_E}(u)}.$$

Remarque

Dans la formule $ M_{B_G}^{B_E}(v\circ u)=M_{B_G}^{B_F}(v) \times M_{B_F}^{B_E}(u)$, la base de $F$ utilisée pour le calcul de la matrice de $u$ et $v$ doit être la même.

Changements de base

Matrices de passage Soit $E$ un $\K$-e-v de dimension $n$, et $\mathscr{B}=(e_1, \ldots,e_n)$ et $\mathscr{B}'=(e'_1, \ldots,e'_n)$ deux bases de $E$.

On appelle matrice de passage de $\mathscr{B}$ à $\mathscr{B}'$ la matrice du système $(e'_1, \ldots,e'_n)$ dans la base $\mathscr{B}$. On la note $P_\mathscr{B}^{\mathscr{B}'}$ ou $P_{\mathscr{B},\mathscr{B}'}$.

Remques

  1. Ainsi, la j-ème colonne de $P_\mathscr{B}^{\mathscr{B}'}$ est formée des coordonnées de $e'_j$ dans $\mathscr{B}$.
  2. $P_\mathscr{B}^{\mathscr{B}'}$ est aussi la matrice, dans la base $\mathscr{B}$ de l'endomorphisme $u$ de $E$ défini par : $\forall i \in \inter{1,n} \ , \ u(e_i)=e'_i$.
  3. $P_\mathscr{B}^{\mathscr{B}'}$ est aussi la matrice, dans les bases $\mathscr{B}'$ et $\mathscr{B}$ de l'application $\textrm{id}_E$, soit $M_{\mathscr{B}}^{\mathscr{B}'}(\textrm{id}_E)$.

$P_\mathscr{B}^{\mathscr{B}'}$ est inversible et $\left( P_\mathscr{B}^{\mathscr{B}'} \right) ^{-1} \ = \ P_{\mathscr{B}'}^{\mathscr{B}}$.

Remarque

Si on trouve une matrice de passage non inversible, ALORS il y a forcément une faute (ou plusieurs) de calculs!!

Matrice de passage

Matrice non inversible....il suffit de regarder la 1ère colonne.

Soit $E$ un $\K$-e-v de dimension $n$, $\mathscr{B}$ et $\mathscr{B}'$ deux bases de $E$, et $P$ la matrice de passage de $\mathscr{B}$ à $\mathscr{B}'$.
Soit $x$ un vecteur de $E$, $X$ la matrice colonne de ses coordonnées dans $\mathscr{B}$ et $X'$ celle de ses coordonnées dans $\mathscr{B}'$.
On a alors la relation : $\boxed{X \, = \, PX'}$.

Soient

  • $E$ un $\K$ e v de dimension $q$, muni de deux bases $\mathscr{B}_E$ et $\mathscr{B}'_E$.
    $P \in GL_q(\K)$ la matrice de passage de $\mathscr{B}_E$ à $\mathscr{B}'_E$
  • $F$ un $\K$ e v de dimension $p$, muni de deux bases $\mathscr{B}_F$ et $\mathscr{B}'_F$.
    $Q \in GL_p(\K)$ la matrice de passage de $\mathscr{B}_F$ à $\mathscr{B}'_F$

Soit $u \in \mathscr{L}(E,F)$, $A=M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$ et $A'=M_{\mathscr{B}'_F}^{\mathscr{B}'_E}(u)$ ($A,A' \in \MM_{p,q}(\K)$).
On a alors la relation : $ \boxed{A'=Q^{-1}AP }$.
On peut représenter ce résultat par le schéma suivant: \begin{CD} (E,\mathscr{B}_E) @< \mathrm{Id}_E< P< (E,\mathscr{B}_E')\\ @VuVAV @VuVA'V\\ (F,\mathscr{B}_F) @>\mathrm{Id}_F>{Q^{-1}}> (F,\mathscr{B}_F') \end{CD}

Cas d'un endomorphisme

Soient $E$ un $\K$ e-v de dimension $n$, muni de deux bases $\mathscr{B}_E$ et $\mathscr{B}'_E$, $P \in GL_n(\K)$ la matrice de passage de $\mathscr{B}_E$ à $\mathscr{B}'_E$.
Soiet $u \in \mathscr{L}(E)$, $A=M_{\mathscr{B}_E}(u)$ et $A'=M_{\mathscr{B}'_E}(u)$ ($A,A' \in\MM_{n}(\K)$).
On a alors la relation : $ \boxed{A'=P^{-1}AP }$.
\begin{CD} (E,\mathscr{B}_E) @< \mathrm{Id}_E< P< (E,\mathscr{B}_E')\\ @VuVAV @VuVA'V\\ (E,\mathscr{B}_E) @>\mathrm{Id}_E>{P^{-1}}> (E,\mathscr{B}_E') \end{CD}

Remarque

Généralement, on change la base $\BB$ pour travailler dans la base $\BB'$ avec l'objectif que la matrice de $u$ dans $\BB'$ soit plus simple (contient plus de $0$), par exemple diagonale ou triangulaire supérieure.


On considère $E=\R_2[X]$ muni de la base canonique $\BB=(1,X,X^2)$, et $u:E\longmapsto E$ définie par $u(P)=2P+(X-X^2)P(2)$.

  1. Donner la matrice de $u$ dans $\BB$.
  2. On considère $\BB'=\{X(X-1),X(X-2),(X-1)(X-2))$. Montrer que $\BB'$ est une base de $E$ puis déterminer la matrice de $u$ dans cette base.

Correction

  1. Le calcul de $u(\BB)$ donne, $$ u(1)=2+X-X^2,\,u(X)=4X-X^2,\,u(X^2)=4X-2X^2.$$ Ce qui donne, $$ \left.\begin{array}{ll} u(e_0)&=2\times e_0 +1\times e_1-1 \times e_2\\ u(e_1)&=0\times e_0 +4\times e_1-2 \times e_2\\ u(e_2)&=0\times e_0 +4\times e_1-2\times e_2 \end{array}\right\}\Longrightarrow M(u)=\begin{pmatrix} 2&0&0\\ 1&4&4\\ -1&-2&-2 \end{pmatrix} $$
  2. Comme $\BB'=(X(X-1),X(X-2),(X-1)(X-2))$ contient autant d'éléments que $\dim(E)$ alors il suffit de montrer que c'est une famille libre.
    Soient $a,b,\,c\in \R$ tels que $$ aX(X-1)+bX(X-2)+c(X-1)(X-2)=0 \Longleftrightarrow \forall x\in \R,\, ax(x-1)+bx(x-2)+c(x-1)(x-2)=0$$ Donc pour $x=2$ on trouve $a=0$, puis pour $x=1$, on trouve $b=0$ et enfin pour $x=2$ on a $c=0$, ce qui implique que $\BB'$ est libre donc base de $E$.
    On calcul $u(\BB')$, $$ u(e_1')=2X(X-1)+2(X-X^2)=0,\,u(e_2')=2X(X-2),\,u(e_3')=2(X-1)(X-2)$$ donc $$ \left.\begin{array}{ll} u(e'_0)&=0\times e'_0 +0\times e'_1+0 \times e'_2\\ u(e'_1)&=0\times e'_0 +2\times e'_1+0 \times e'_2\\ u(e'_2)&=0\times e'_0 +0\times e'_1+2\times e'_2 \end{array}\right.\Longrightarrow M_{\BB'}(u)=\begin{pmatrix} 0&0&0\\ 0&2&0\\ 0&0&2 \end{pmatrix} $$

On dit qu'une matrice carrée $A' \in \MM_{n}(\K)$ est semblable à la matrice $A \in \MM_{n}(\K)$ s'il existe $P \in GL_n(\K)$ telle que $A'=P^{-1}AP$.

$A$ et $A'$ sont semblables si et seulement si ce sont les matrices, dans deux bases différentes, d'un même endomorphisme $u$ d'un e-v de dimension $n$.

Soit $E$ un $\K$-e-v de dimension $n$, $\mathscr{B}_E=(e_1, \ldots,e_n)$ une base de $E$. Soit $u \in \mathscr{L}(E)$, et $A=M_{\mathscr{B}_E}(u) \in \MM_n(\K)$.
Alors : $A$ est triangulaire supérieure $\Longleftrightarrow \forall j \in \inter{1,n} \,, \Vect(e_1, \ldots,e_j)$ est stable par $u$.

Soient $A,B\in TS_n(\K)$ alors $AB\in TS_n(\K)$.

Lien avec le rang d'une matrice

  1. Si $A$ est la matrice, dans une base $\mathscr{B}_F$, d'un système de vecteurs $(x_1, \ldots, x_q)$ de $F$, le rang de $A$ est aussi celui, dans $F$, du système de vecteurs $(x_1, \ldots, x_q)$ .
  2. Si $A$ est la matrice, dans des bases $\mathscr{B}_E$ et $\mathscr{B}_F$ d'une application linéaire $u \in \mathscr{L}(E,F)$, le rang de $A$ est aussi le rang de $u$.
    En particulier, si $a$ est l'application linéaire canoniquement associée à $A$, $\rg A = \rg a$ .

  1. Si $A \in \MM_{p,q}(\K)$ et si $a$ est l'application linéaire canoniquement associée à $A$ $$ \rg A=p \ \Longleftrightarrow \ a \text{ surjective } \, , \, \rg A=q \, \Longleftrightarrow \, a \text{ injective }.$$
  2. Si $A \in \MM_{n}(\K)$ et si $a$ est l'application linéaire canoniquement associée à $A$ $$ \rg A=n \, \Longleftrightarrow \, a \text{ bijective } \, \Longleftrightarrow A \text{ est inversible}.$$

Remarque

On peut remplacer $a$ par n'importe quelle application linéaire $u$ d'un $\K$-ev $E$ de dimension $q$, rapporté à une base $\mathscr{B}_E$, dans un $\K$-ev $F$ de dimension $p$, rapporté à une base $\mathscr{B}_F$, telle que $A= M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$).

Soient $A \in \MM_{p,q}(\K)$ et $B \in \MM_{q,r}(\K)$.

  1. Si $p=q$ et $A \in GL_p(\K)$, $\rg (AB)=\rg (B), $
  2. Si $q=r$ et $B \in GL_q(\K)$, $\rg (AB)=\rg (A)$.

Rappelons la définiton d'une matrice extraite ou sous matrice.

Soit $A\in \MM_{pq}$, on dit que $A'$ est une sous-matrice ou matrice extraite de $A$ si $A'$ est obtenue de $A$ en supprimant certaines linges et / ou certaines colonnes de $A$.

Exemple

Considérons la matrice $A= \begin{pmatrix} a&b&c&d\\ u&v&w&q\\ x&y&z&r \end{pmatrix}$. En supprimant les colonnes 1 et 2 et la ligne 2, on obtient $$ \begin{pmatrix} \xcancel{a}&\textcolor{blue}{b}&\textcolor{blue}{c}&\xcancel{d}\\ \xcancel{u}&\xcancel{v}&\xcancel{w}&\xcancel{q}\\ \xcancel{x}&\textcolor{blue}{y}&\textcolor{blue}{z}&\xcancel{r} \end{pmatrix} \rightsquigarrow \quad A' =\begin{pmatrix} b&c\\y&z \end{pmatrix} $$

Le rang d'une matrice non nulle $A \in \MM_{p,q}(\K)$ est le plus grand entier $r \geqslant 1$ tel que l'on puisse extraire de $A$ une matrice carrée inversible d'ordre $r$.

(CCP 2015)

Soit $A\in\MM_n(\R)$ (avec $n\geq 2$) la matrice de coefficients $a_{ij}=\cos(i-j)$. Trouver le rang de~$A$.

Correction

En utilisant la formule $\cos(a+b)+\cos(a-b)=2\cos(a)\cos(b)$. On trouve $\cos(k+2)+\cos(k)=2\cos(1)\cdot \cos(k+1)$, ce qui donne (en notant $C_j$ la $j$ème colonne de la matrice $A$) \begin{equation*} \forall k\in \inter{0,n-2},\quad C_{k+2}= -C_k-2\cos(1)\,C_{k+1}\Longrightarrow \rg(A)\leq 2. \end{equation*} D'autre part, la matrice $A'=\begin{pmatrix} \cos(0)&\cos(1)\\ \cos(1)&\cos(0) \end{pmatrix}$ extraite de la matrice $A$ est inversible donc $\rg(A)\geq 2$.
On en déduit, $\boxed{\rg(A)=2}$.

Si $A \in \MM_{p,q}(\K)$, $\rg A = \rg ({\,}^t A)$.

Soit $A=(a_{ij}) \in TS_n(\K)$. Alors $A$ est inversible si et seulement si, $$i \in \inter{1,n},\quad a_{ii} \neq 0.$$ Dans ce cas, $A^{-1}$ est une matrice triangulaire supérieure, dont les éléments diagonaux sont les $\dsp \frac{1}{a_{ii}}$.

Soit $A=(a_{ij}) \in TS_n(\K)$. Alors $A$ est nilpotente si et seulement si, $$\forall i \in \inter{1,n},\quad a_{ii}=0.$$