Matrices
Rappels cours 1ère année
Définitions
Soient $p,q\in \N^*$. On notera :
-
$\blacklozenge\,$ $\MM_{p,q}(\K)$ l'ensemble des matrices de type $(p,q)$ à coefficients dans $\K$.
-
$\blacklozenge\,$ $\MM_{n,n}(\K)$, ensemble des matrices carrées de type $(n,n)$, ou d'ordre $n$,
se note plus simplement $\mathscr{M}_n(\K)$.
Soient $A=(a_{i\,j}),\,B=(b_{i\,j})\in \MM_{p,q}$ et $\lambda \in \K$. On définit la
matrice $C=(c_{i\,j})=A+B$ par,
$$\forall (i,j)\in \inter{1,p}\times \inter{1,q},\quad c_{i\,j}=a_{i\,j}+b_{i\,j}.$$
On définit également la matrice $\lambda A=(a'_{i\,j})$ par:
$$\forall (i,j)\in \inter{1,p}\times \inter{1,q},\quad a'_{i\,j}=\lambda a_{i\,j}.$$
Muni des lois précédentes, $ \big( \MM_{p,q}(\K),+,. \big)$
est un $\K$-e-v de dimension finie. De plus, $\dim(\MM_{p\,q}(\K))=pq$.
Pour tout $(k,\ell)\in \inter{1,p}\times \inter{1,q}$, on définit la matrice
$E_{k\,\ell}\in \MM_{pq}(\K)$ par: $E_{k\,\ell}$ est la matrice dont tous les termes sont nuls sauf
celui d'indice $(k,\ell)$ qui est égal à $1$.
i.e. le terme d'indice $(i,j)$ de $E_{k\,\ell}$ vaut : $ \delta _{ki}\delta_{\ell j}$.
La famille $(E_{k\,\ell})_{(k,\ell) \in \inter{1,p} \times \inter{1,q}}$ est une base de
$\MM_{pq}(\K)$.
De plus, pour toute matrice $A=(a_{ij}) \in \MM_{p,q}(\K)$, on a :
$\, A= \underset{1 \leqslant j \leqslant q} {\dsp \sum_{1 \leqslant i \leqslant p}}
{a_{ij}E_{ij}}$.
La base $(E_{k\ell})_{(k,\ell) \in \inter{1,p} \times \inter{1,q}}$ est appelée
base canonique de $\MM_{p,q}(\K)$.
Multiplication matricielles
Soit $A\in \MM_{p\,q}(\K)$ et $B\in \MM_{q,r}(\K)$. On définit, la matrice
$C=(c_{ik})_{(i,k) \in \inter{1,p} \times \inter{1,r}}$ produit de $A$ par
$B$, noté $C=AB$, par
$$\forall (i,k) \in \inter{1,p} \times \inter{1,r} \ , \ c_{ik} = \dsp
\sum_{j=1}^q{a_{ij}b_{jk}}.$$
Remarque
Cette définition n'a un sens que si $A$ est de type $(p,q)$
et $B$ de type $(q,r)$. Ainsi, le produit $AB$ peut être
défini sans que $BA$ ne le soit.
-
Si $A \in \MM_{p,q}(\K), \ B \in \MM_{q,r}(\K) \textrm{ et } C \in \MM_{r,s}(\K)$, alors
:
$A(BC) = (AB)C$.
-
Si $A \in \MM_{p,q}(\K) \textrm{ et } B_1, B_2 \in\MM_{q,r}(\K)$, on a : $A(B_1+ B_2)= A
B_1 + A B_2$.
-
Si $A_1, A_2 \in \MM_{p,q}(\K) \textrm{ et } B \in \MM_{q,r}(\K)$, on a :
$(A_1+A_2)B= A_1B + A_2 B$.
Rang d'une matrice
Le rang d'une matrice $A \in \MM_{p,q}(\K)$ est, par définition, le rang de ses vecteurs
colonnes (éléments de $\K^p$).
On le note : $\rg A$.
Si $A\in \MM_{pq}(\K)$ alors $\rg (A)\leq \min(p,q)$.
Transposée
Soit $A = (a_{ij})_{\underset{\scriptstyle 1 \leqslant j \leqslant q}{1 \leqslant i \leqslant
p}}\in \MM_{p,q}(\K)$.
On appelle transposée de $A$ la matrice
${\,}^tA =(a'_{ji})_{\underset{\scriptstyle 1 \leqslant i \leqslant p}{1\leqslant j \leqslant
q}} \in \MM_{q,p}(\K)$ définie par :
$$ \forall (i,j) \in \inter{1,p} \times \inter{1,q} \ , a'_{ji}=a_{ij}.$$
Soient $A \in \MM_{p,q}(\K) \text{ et } B \in \MM_{q,r}(\K)$, alors ${\,}^t (AB)={\,}^t B {\,}^t
A$.
Cas des matrices carrées
Dans $\MM_{n}(\K)$, la multiplication des matrices est une loi de composition interne. On
notera:
-
$\blacklozenge\,$ On notera $I_n$ l'élément neutre de $\MM_{n}(\K)$ (pour la loi $\times$)
i.e. pour tout $A\in \MM_n(\K),\,\,A\times I_n=I_n\times A=A$.
-
$\blacklozenge\,$ $\MM_n(\K)$ est non intègre (si $n\geq 2$),
i.e. on peut trouver des matrices $A,B$ telles que : $A\neq 0, \ B\neq 0 \text{ et
} AB=0$.
-
$\blacklozenge\,$ $\MM_n(\K)$ est non commutative (si $n\geq 2$), i.e. $AB$ en général n'est
pas égale à $BA$.
(E3A 2003)
Soit $\BB=\{E_{i\,j},i,j\in \inter{1,n}\}$, la base canonique de $\MM_n(\K)$. Pour $A,\,B\in
\BB$, calculer $AB$.
Application: Montrer qu'il n'existe pas une norme $N$ définie sur $\MM_n(\K)$ telle que, pour
tout $A,\,B\in \MM_n(\K)$, $N(AB)=N(BA)$.
Correction
Soient $A,B\in \BB$, il existe alors $i,j,k,\ell\in \inter{1,n}$ tels que
$A=E_{i\,j},\,B=E_{k\,\ell}$.
Soient $\alpha,\,\beta\in \inter{1,n}$, on a
$$(E_{i\,j}E_{k\,\ell})_{\alpha\,\beta}=\dsum_{\gamma=1}^n
(E_{i\,j})_{\alpha\,\gamma}(E_{k\,\ell})_{\gamma\,\beta}=\dsum_{\gamma=1}^n\delta_{i\,\alpha}\delta_{j\,\gamma}\delta_{\gamma
\,k}\delta_{\ell \,\beta} .
= \delta_{i\,\alpha}\delta_{j \,k}\delta_{\ell \,\beta}$$
donc si $j\neq k$ alors $E_{i\,j}E_{k\,\ell}=0$, sinon ($j=k$):
$(E_{i\,j}E_{k\,\ell})_{\alpha\,\beta} = \delta_{i\,\alpha}\delta_{\ell \,\beta}$, i.e.
$E_{i\,j}E_{k\,\ell}=E_{i\,\ell}$.
Conclusion $E_{i\,j}E_{k\,\ell}=\delta_{j\,k}E_{i\,\ell}$.
La relation précédente est une vraie machine pour fabriquer des matrices $A$, $B$ telles que
$AB=0$ et $BA\neq 0$. Par exemple
$$E_{1\,2}E_{2\,3}=E_{1\,3} \text{ tandis que } E_{2\,3}E_{1\,2}=0.$$
Si on suppose maintenant qu'il existe une norme $N$ sur $\MM_n(\K)$ tel que $N(AB)=N(BA)$ pour
tout $A,\,B\in \MM_n(\K)$, on aurait:
$$0< N(E_{1\,3})=N(E_{1\,2}E_{2\,3})=N(E_{2\,3}E_{1\,2})=N(0)=0$$
ce qui est évidemment impossible.
Remarque
Donc $AB=0$ n'implique pas que $A=0$ ou $B=0$.
(Navale PSI 2018)
Soient $A,\,B\in\MM_n(\R)$ telles que $(AB)^2=0$. A-t-on $(BA)^2=0$?
Correction
Soit $A=\begin{pmatrix}
1&0&0\\
0&0&0\\
0&1&0
\end{pmatrix}$ et $B=\begin{pmatrix}
0&0&1\\
0&1&0\\
0&0&0
\end{pmatrix}$. Alors
$$AB= \begin{pmatrix}
1&0&0\\
0&0&0\\
0&1&0
\end{pmatrix}\begin{pmatrix}
0&0&1\\
0&1&0\\
0&0&0
\end{pmatrix}=
\begin{pmatrix}
0&0&1\\
0&0&0\\
0&1&0
\end{pmatrix},$$
et $(AB)^2=\begin{pmatrix}
0&1&0\\
0&0&0\\
0&0&0
\end{pmatrix}.$
$$BA= \begin{pmatrix}
0&0&1\\
0&1&0\\
0&0&0
\end{pmatrix}\begin{pmatrix}
1&0&0\\
0&0&0\\
0&1&0
\end{pmatrix}=\begin{pmatrix}
0&1&0\\
0&0&0\\
0&0&0
\end{pmatrix}$$
et $(BA)^2=0$.
Soient $A,\,B\in \MM_n(\K)$. On dit que $A$ et $B$ commutent entre elles
ssi $AB=BA$.
Soient $A,\,B\in \MM_n(\K)$, on suppose que $A$ commute avec $B$, alors
$$\forall m\in \N,\quad (A+B)^m=\dsum_{k=0}^m\binom{m}{k}A^kB^{m-k}.$$
Matrice inversible
Soit $A\in \MM_n(\K)$. On dit que $A$ est une matrice inversible ssi:
$$\exists B\in \MM_n(K),\,BA=AB=I_n.$$
Si $B$ existe elle est unique, on note $A^{-1}=B$.
On notera $GL_n(\K)$ l'ensemble des éléments inversibles de $\MM_n(\K)$.
Si $A,B \in GL_n(\K)$, alors $AB \in GL_n(\K),\, {\,}^t A \in GL_n(\K)$ et :
$$(AB)^{-1} = B^{-1}A^{-1} \text{ et } ({\,}^t A)^{-1} = {\,}^t \,(A^{-1}).$$
(CCP 2015)
Soit $z\in\C^*$, on considère la matrice $A(z)=\begin{pmatrix}
0&z&z^2\\
z^{-1}&0&z\\
z^{-2}&z^{-1}&0
\end{pmatrix}$.
Calculer $A(z)^2$, en déduire que $A(z)$ est inversible et donner son inverse.
Correction
Un calcul simple donne:
$$A(z)^2= \begin{pmatrix}
2&z&z^2\\
z^{-1}&2&z\\
z^{-2}&z^{-1}&2
\end{pmatrix}=2\begin{pmatrix}
1&0&0\\
0&1&0\\
0&0&1
\end{pmatrix}+\begin{pmatrix}
0&z&z^2\\
z^{-1}&0&z\\
z^{-2}&z^{-1}&0
\end{pmatrix}=2I_3+A(z).$$
Autrement dit, $A(z)^2-A(z)=2I_3$ soit $A(z)\left(\dfrac{1}{2}\left(A(z)-I_3\right)\right)=I_3$.
On en déduit alors que $A(z)$ est inversible et $A(z)^{-1}=\frac{1}{2}(A(z)-I_3)$.
Une matrice carrée $A = (a_{ij}) \in \MM_n(\K)$ est dite symétrique
(resp. antisymétrique)
ssi ${\,}^t A=A$ (resp. ${\,}^t A=-A$).
On notera $\mathscr{S}_n(\K)$ l'ensemble des matrices symétriques d'ordre
$n$ et
$\mathscr{AS}_n(\K)$ l'ensemble des matrices antisymétriques d'ordre $n$.
$\mathscr{S}_n(\K)$ et $\mathscr{AS}_n(\K)$ sont des s-e-v supplémentaires de
$\MM_n(\K)$, de dimensions respectives $\dsp \frac{n(n+1)}{2}$ et
$\dsp \frac{n(n-1)}{2}$.
Une matrice carrée $A = (a_{ij}) \in \MM_n(\K)$ est dite triangulaire
supérieure (resp. inférieure) si :
$$\forall (i,j) \in \inter{1,n}^2 \ , \ [j< i \ \Rightarrow \ a_{ij}=0] \ (\text{ resp. }
[j>i \ \Rightarrow \ a_{ij}=0]).$$
On notera $TS_n(\K)$ (resp. $TI_n(\K)$) l'ensemble des
matrices triangulaires supérieures (resp. inférieures)
d'ordre $n$.
Remarque
Il est clair que : $A \in TS_n(\K) \Leftrightarrow {\,}^t A \in TI_n(\K)$.
$TS_n(\K)$ est une s-e-v de $\MM_n(\K)$, de dimension $\dsp \frac{n(n+1)}{2}$.
Remarque
Puisque $TI_n(\K)=\{{\,}^t A,\, A\in TS_n(\K)\}$.
Alors $TI_n(\K)$ est aussi une s-e-v de $\MM_n(\K)$, isomorphe (par {la transposition}), en tant
qu'espace vectoriel, à la précédente, et donc
$$\dim(TI_n(\K))=\dim(TS_n(\K)=\dfrac{n(n+1)}{2}.$$
On s'intéresse davantage (au moins dans le programme de PSI) aux matrices triangulaires
supérieures,
pour leur lien naturel avec les application linéaires
(c.f. théorème ci-après, ...).
Une matrice carrée $A = (a_{ij}) \in \MM_n(\K)$ est dite diagonale si
et seulement si :
$$\forall (i,j) \in \inter{1,n}^2 \ , \ j \neq i \ \Rightarrow \ a_{ij}=0.$$
On note alors : $A = \textrm{diag}(a_{11},a_{22}, \ldots, a_{nn})$, et $D_n(\K)$
l'ensemble des matrices diagonales d'ordre $n$.
Matrice d'une application linéaire
Généralités
Soient
-
$E$ un $\K$- ev de dim $q$, rapporté à une base $\mathscr{B}_E=(e_1, \ldots, e_q)$
-
$F$ un $\K$- ev de dim $p$, rapporté à une base $\mathscr{B}_F=(e'_1, \ldots, e'_p)$
Matrice d'une famille de vecteurs
Soit $(x_1, \ldots, x_q)$ des vecteurs de $F$. Alors, pour tout $j \in \inter{1,q}$, il existe
$(a_{ij})_{1 \leqslant i \leqslant p} \in \K ^p$ tels que $x_j = \dsp \sum_{i=1}^p{a_{ij}e'_i}$.
$A=(a_{ij})_{\underset{\scriptstyle 1 \leqslant j \leqslant q}{1 \leqslant i \leqslant p}}
\in\MM_{p,q}(\K)$
s'appelle la matrice des $(x_j)$ dans la base $\mathscr{B}_F$.
Exemple
Soit $F=\R_2[X]$,
$\BB_F=\left(e_0'=\frac{(X-1)(X-2)}{2},e_1'=\frac{X(X-2)}{-1},e_2'=\frac{X(X-1)}{2}\right)$.
On considère $\mathcal{F} =(P_0=1,P_1=X,P_2=X^2,P_3=X^2-X+1)$. Alors
$$
\begin{array}{ccccccccccccc}
P_0&=&1&\times&\textcolor{red}{e_0'}&+&1&\times&\textcolor{red}{e_1'}&+&
1&\times&\textcolor{red}{e_2'}\\
P_1&=&0&\times&\textcolor{red}{e_0'}&+&1&\times&\textcolor{red}{e_1'}&+&
2&\times&\textcolor{red}{e_2'}\\
\textcolor{blue}{P_2}&=&\textcolor{blue}{0}&\times&\textcolor{red}{e_0'}&+&\textcolor{blue}{1}&\times&\textcolor{red}{e_1'}&+&
\textcolor{blue}{4}&\times&\textcolor{red}{e_2'}\\
P_3&=&1&\times&\textcolor{red}{e_0'}&+&1&\times&\textcolor{red}{e_1'}&+&
3&\times&\textcolor{red}{e_2'}
\end{array}
$$
Ce qui donne
$$
\begin{matrix}
\begin{matrix}
\underset{\downarrow}{P_0}&\underset{\downarrow}{P_1}&\underset{\downarrow}{\textcolor{blue}{P_2}}&\underset{\downarrow}{P_3}
\end{matrix} &\\
\begin{pmatrix}
1 \,\,& \,0 \,\,& \,\,\textcolor{blue}{0}\,\,& 1 \,\,\\
1 \,\,& \,1 \,\,&\,\, \textcolor{blue}{1}\,\, & 1 \,\,\\
1 \,\,& \,2\,\, & \,\, \textcolor{blue}{4}\,\, & 3 \,\, \\
\end{pmatrix}&\begin{matrix}
\longleftarrow\,\textcolor{red}{e_0'}\\
\longleftarrow\,\textcolor{red}{e_1'}\\
\longleftarrow\,\textcolor{red}{e_2'}
\end{matrix}
\end{matrix}
$$
Soit $u \in \mathscr{L}(E,F)$.
On appelle : matrice de $u$ dans les bases $\mathscr{B}_E$ et $\mathscr{B}_F$
la matrice dans
$\mathscr{B}_F$ du système de vecteurs $(u(e_1), \ldots ,u(e_q))$.
On note $M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$ ou
$M_{\mathscr{B}_E,\mathscr{B}_F}(u)$
ou $M(u; \mathscr{B}_E, \mathscr{B}_F)$.
Remques
Ainsi : $M_{\mathscr{B}_F}^{\mathscr{B}_E}(u) = (a_{ij}) \in \MM_{p,q}(\K)$, où
$a_{ij}$ désigne la $i^{\grave{e}me}$ coordonnée de $u(e_j)$ dans la base $\mathscr{B}_F$.
Donc pour déterminer la matrice de $u$ relativement aux bases $B_E$ et $B_F$, on calcul $u(B_E)$.
$$
\left\{\begin{array}{l}
u(e_1)=a_{11}e_1'+a_{21}e_2'+\cdots+a_{i1}e_i'+\cdots+a_{p1}e_p'\\
u(e_2)=a_{12}e_1'+a_{22}e_2'+\cdots+a_{i2}e_i'+\cdots+a_{p2}e_p'\\
\vdots\\
\textcolor{blue}{u(e_j)=a_{11}e_1'+a_{21}e_2'+\cdots+a_{i1}e_i'+\cdots+a_{p1}e_p'}\\
\vdots\\
u(e_q)=a_{11}e_1'+a_{21}e_2'+\cdots+a_{i1}e_i'+\cdots+a_{p1}e_p'\\
\end{array}
\right.
$$
Ceci nous donne la matrice de $u$.
$$
\begin{matrix}
\begin{matrix}
\phantom{ M(u)=}
\end{matrix}&\begin{matrix}
u(e_1)& u(e_2)&& \textcolor{blue}{u(e_j)}&&u(e_q)
\end{matrix} &\\
\begin{matrix}
\,\\
\,\\
M(u)=\\
\,\\
\,
\end{matrix} &
\begin{pmatrix}
a_{11} & \quad a_{12} & \dots & \textcolor{blue}{a_{1j}} & \dots & a_{1q} \\
a_{21} & \quad a_{22} & \dots & \textcolor{blue}{a_{2j}} & \dots & a_{2q} \\
\vdots & \quad \vdots & & \textcolor{blue}{\vdots }& & \vdots \\
a_{i1} & \quad a_{i2} & \dots & \textcolor{blue}{a_{ij}} & \dots & a_{iq} \\
\vdots & \quad \vdots & & \textcolor{blue}{\vdots} & & \vdots \\
a_{p1} & \quad a_{p2} & \dots & \textcolor{blue}{a_{pj}} & \dots & a_{pq}
\end{pmatrix}
& \begin{matrix}
\longleftarrow\, e_1'\\
\longleftarrow\, e_2'\\
\vdots\\
\longleftarrow\, e_i'\\
\vdots\\
\longleftarrow\, e_p'
\end{matrix}
\end{matrix}
$$
Remarque
La matrice d'une application linéaire est avant tout UNE MATRICE, donc ne contient que
des scalaires.
A éviter
(DS 2020)
On note dans cette partie $V =\MM_2(\C)$; l'espace vectoriel des matrices carrées d'ordre 2 à
coefficients complexes. On fixe dans $V$ la base canonique
$\EE=\{e_1=E_{1\,1},e_2=E_{1\,2},e_3=E_{2\,1},e_4=E_{2\,2}\}$ où $E_{i\,j}$ est la matrice dont
tous les
coefficients sont nuls sauf celui de la ligne $i$ et la colonne $j$.
Soit $A=\begin{pmatrix}
2&6\\1&1
\end{pmatrix}\in V$, et on considère $\fonct{\varphi}{V}{V}{M}{MA-AM}$.
-
Écrire la matrice de $\varphi$ dans la base $\EE$.
-
Calculer $\varphi(I_2)$ et $\varphi(A)$, que peut-t-on dire sur $\dim (\Ker(\varphi))$?
-
Résoudre l'équation $\varphi(X)=5X$ d'inconnu $X\in V$.
-
On pose $\BB=\{I_2,A,B,C\}$ avec $B=\begin{pmatrix}
-2&-4\\1&2
\end{pmatrix},\quad C=\begin{pmatrix}
3&-9\\1&-3
\end{pmatrix}.$
-
Montrer que $\BB$ est une base de $V$.
-
Déterminer la matrice de $\varphi$ dans la base $\BB$.
Correction
-
Et non, la matrice de $\varphi$ n'est pas une matrice de taille 2!.
On calcul $\varphi( \EE)$,
$$\begin{array}{l}
\varphi(E_{1\,1})=
\begin{pmatrix}
1&0\\
0&0
\end{pmatrix}\begin{pmatrix}
2&6\\1&1
\end{pmatrix}-\begin{pmatrix}
2&6\\1&1
\end{pmatrix}\begin{pmatrix}
1&0\\
0&0
\end{pmatrix} =\begin{pmatrix}
2&6 \\0&0
\end{pmatrix}-\begin{pmatrix}
2&0\\
1&0
\end{pmatrix}=\begin{pmatrix}
0&6\\
-1&0
\end{pmatrix}\\
\varphi(E_{1\,2})=
\begin{pmatrix}
0&1\\
0&0
\end{pmatrix}\begin{pmatrix}
2&6\\1&1
\end{pmatrix}-\begin{pmatrix}
2&6\\1&1
\end{pmatrix}\begin{pmatrix}
0&1\\
0&0
\end{pmatrix} =\begin{pmatrix}
1&1 \\0&0
\end{pmatrix}-\begin{pmatrix}
0&2\\
0&1
\end{pmatrix}=\begin{pmatrix}
1&-1\\
0&-1
\end{pmatrix}\\
\varphi(E_{2\,1})=
\begin{pmatrix}
1&0\\
0&0
\end{pmatrix}\begin{pmatrix}
2&6\\1&1
\end{pmatrix}-\begin{pmatrix}
2&6\\1&1
\end{pmatrix}\begin{pmatrix}
1&0\\
0&0
\end{pmatrix} =\begin{pmatrix}
0&0 \\2&6
\end{pmatrix}-\begin{pmatrix}
6&0\\
1&0
\end{pmatrix}=\begin{pmatrix}
-6&0\\
1&6
\end{pmatrix}\\
\varphi(E_{2\,2})=
\begin{pmatrix}
1&0\\
0&0
\end{pmatrix}\begin{pmatrix}
2&6\\1&1
\end{pmatrix}-\begin{pmatrix}
2&6\\1&1
\end{pmatrix}\begin{pmatrix}
1&0\\
0&0
\end{pmatrix} =\begin{pmatrix}
0&0 \\1&1
\end{pmatrix}-\begin{pmatrix}
0&6\\
0&1
\end{pmatrix}=\begin{pmatrix}
0&-6\\
1&0
\end{pmatrix}
\end{array}
$$
Ce qui donne
$$M_{\EE}(\varphi)=\begin{pmatrix}
0&1&-6&0\\
6&-1&0&-6\\
-1&0&1&1\\
0&-1&6&0
\end{pmatrix}
$$
-
$\varphi(I_2)=I_2A-AI_2=0,\,\,\varphi(A)=A^2-A^2=0$, donc $I_2,\,A\in \Ker(\varphi)$ et
comme
$A$ n'est pas colinéaire à $I_2$ on déduit alors que la famille $(I_2,A)$ est libre ce
qui
implique que $\dim (\Ker(\varphi))\geq 2$.
-
Soit $X=\begin{pmatrix}
a&b\\ c&d
\end{pmatrix}$, on a
$$\varphi(X)=5X \Longleftrightarrow \begin{pmatrix}
b-6c&6a-b-6d\\
c+d-a&6c-b
\end{pmatrix}=\begin{pmatrix}
5a&5b\\5c&5d
\end{pmatrix}\Longleftrightarrow\left\{\begin{array}{l}
d=-a\\
b=2a\\
a=-2c
\end{array}\right.$$
i.e. $X\in \Vect\left(\begin{pmatrix}
-2&-4\\
1&2
\end{pmatrix}\right)$.
Soient $u \in \mathscr{L}(E,F)$ et $A=(a_{ij}) \in \MM_{p,q}(\K) =
M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$,
$x \in E$, $x=\dsp \sum_{j=1}^q{x_j e_j}$ et $y=u(x) \in F$, $y= \dsp \sum_{i=1}^p{y_i e'_i}$.
Soit enfin $X$ la matrice colonne des coordonnées de $x$ dans $\mathscr{B}_E$ :
$X={\,}^t (x_1\cdots x_q) \in \ \MM_{q,1}(\K)$ et $Y$ la matrice colonne des coordonnées de $y$
dans
$\mathscr{B}_F$ : $Y={\,}^t (y_1\cdots y_p) \in \ \MM_{p,1}(\K)$.
Alors :
$$\forall i \in \inter{1,p} \ , \ y_i = \dsp \sum_{j=1}^q{a_{ij}x_j}$$
ce qui se traduit matriciellement par: $\boxed{Y=AX}$.
L'application
$$\fonct{\varphi_{_{(\BB_E,\,\BB_F)}}}{\mathscr{L}(E,F)}{\MM_{p,q}(\K)}{u}{M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)}$$
est une bijection de $\mathscr{L}(E,F)$ sur $\MM_{p,q}(\K)$.
(cette bijection dépend du choix des bases $\mathscr{B}_E$ et
$\mathscr{B}_F$).
Soit $A \in \MM_{p,q}(\K)$. Alors il existe une et une seule application linéaire
$a \in \mathscr{L}(\K^q,\K^p)$ telle que la matrice de $a$ dans les bases canoniques respectives
de
$\K^q$ et $\K^p$ soit égale à $A$.
$a$ s'appelle l'application linéaire canoniquement associée à $A$.
Soient $G,E,F$ trois $\K$-ev de dimensions respectives $r,q,p$, rapportés respectivement à des
bases $\mathscr{B}_G=(e''_1, \ldots, e''_r) , \, \mathscr{B}_E=(e_1, \ldots, e_q), \,
\mathscr{B}_F=(e'_1, \ldots, e'_p)$.
Soient :
-
$A \in \MM_{p,q}(\K)$, et $u \in \mathscr{L}(E,F)$ tq $A=
M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$ ,
-
$B \in \MM_{r,p}(\K)$, et $v \in \mathscr{L}(F,G)$ tq
$B=M_{\mathscr{B}_G}^{\mathscr{B}_F}(v)$ et
-
$C \in \MM_{r,q}(\K)$, tq $C =M_{\mathscr{B}_G}^{\mathscr{B}_E}(v \circ u)$ (avec $v \circ u
\in
\mathscr{L}(E,G)$).
Pour tous $k \in \inter{1,q}$, on a $(v\circ u)(e_k)=\dsum_{i=1}^r c_{ik}e''_i$. Or
$$u(e_k)=\dsum_{j=1}^p a_{jk}e'_j\quad \text{ et } \quad v(e'_j)=\dsum_{i=1}^r b_{ij}e''_i$$
Donc
$$(v\circ u)(e_k)=\dsum_{j=1}^p a_{jk}v(e'_j)=\dsum_{j=1}^p a_{jk}\left(\dsum_{i=1}^r b_{ij}e''_i
\right)= \dsum_{i=1}^r\left(\dsp \sum_{j=1}^pb_{ji}{a_{jk}}\right)e''_i=\dsum_{i=1}^r c_{ik}e''_i.$$
On en déduit alors :
[Matrice de la composée]
Avec les hypothèses précédentes, on a:
$$\forall (i,k) \in \inter{1,r} \times \inter{1,q} \ , \ c_{ik} = \dsp \sum_{j=1}^p
{b_{ij}a_{jk}},
\quad \text{i.e. }\, C=BA.$$
Autrement dit,
$$\boxed{ M_{B_G}^{B_E}(v\circ u)=M_{B_G}^{B_F}(v) \times M_{B_F}^{B_E}(u)}.$$
Remarque
Dans la formule $ M_{B_G}^{B_E}(v\circ u)=M_{B_G}^{B_F}(v) \times M_{B_F}^{B_E}(u)$, la base de
$F$
utilisée pour le calcul de la matrice de $u$ et $v$ doit être la même.
Changements de base
Matrices de passage
Soit $E$ un $\K$-e-v de dimension $n$, et $\mathscr{B}=(e_1, \ldots,e_n)$ et
$\mathscr{B}'=(e'_1, \ldots,e'_n)$ deux bases de $E$.
On appelle matrice de passage de $\mathscr{B}$ à $\mathscr{B}'$ la matrice du système
$(e'_1, \ldots,e'_n)$ dans la base $\mathscr{B}$.
On la note $P_\mathscr{B}^{\mathscr{B}'}$ ou
$P_{\mathscr{B},\mathscr{B}'}$.
Remques
-
Ainsi, la j-ème colonne de $P_\mathscr{B}^{\mathscr{B}'}$ est formée des coordonnées de
$e'_j$ dans
$\mathscr{B}$.
-
$P_\mathscr{B}^{\mathscr{B}'}$ est aussi la matrice, dans la base $\mathscr{B}$ de
l'endomorphisme
$u$ de $E$ défini par : $\forall i \in \inter{1,n} \ , \ u(e_i)=e'_i$.
-
$P_\mathscr{B}^{\mathscr{B}'}$ est aussi la matrice, dans les bases $\mathscr{B}'$ et
$\mathscr{B}$ de l'application $\textrm{id}_E$, soit
$M_{\mathscr{B}}^{\mathscr{B}'}(\textrm{id}_E)$.
$P_\mathscr{B}^{\mathscr{B}'}$ est inversible et
$\left( P_\mathscr{B}^{\mathscr{B}'} \right) ^{-1} \ = \ P_{\mathscr{B}'}^{\mathscr{B}}$.
Remarque
Si on trouve une matrice de passage non inversible, ALORS il y a forcément une faute (ou
plusieurs) de calculs!!
Matrice non inversible....il suffit de regarder la 1ère colonne.
Soit $E$ un $\K$-e-v de dimension $n$, $\mathscr{B}$ et $\mathscr{B}'$ deux bases de $E$, et $P$
la
matrice de passage de $\mathscr{B}$ à $\mathscr{B}'$.
Soit $x$ un vecteur de $E$, $X$ la matrice colonne de ses coordonnées dans $\mathscr{B}$ et $X'$
celle
de ses coordonnées dans $\mathscr{B}'$.
On a alors la relation :
$\boxed{X \, = \, PX'}$.
Soient
-
$E$ un $\K$ e v de dimension $q$, muni de deux bases $\mathscr{B}_E$ et
$\mathscr{B}'_E$.
$P \in GL_q(\K)$ la matrice de passage de $\mathscr{B}_E$ à $\mathscr{B}'_E$
-
$F$ un $\K$ e v de dimension $p$, muni de deux bases $\mathscr{B}_F$ et
$\mathscr{B}'_F$.
$Q \in GL_p(\K)$ la matrice de passage de $\mathscr{B}_F$ à $\mathscr{B}'_F$
Soit $u \in \mathscr{L}(E,F)$, $A=M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$ et
$A'=M_{\mathscr{B}'_F}^{\mathscr{B}'_E}(u)$ ($A,A' \in \MM_{p,q}(\K)$).
On a alors la relation : $ \boxed{A'=Q^{-1}AP }$.
On peut représenter ce résultat par le schéma suivant:
\begin{CD}
(E,\mathscr{B}_E) @< \mathrm{Id}_E< P< (E,\mathscr{B}_E')\\
@VuVAV @VuVA'V\\
(F,\mathscr{B}_F) @>\mathrm{Id}_F>{Q^{-1}}> (F,\mathscr{B}_F')
\end{CD}
Cas d'un endomorphisme
Soient
$E$ un $\K$ e-v de dimension $n$, muni de deux bases $\mathscr{B}_E$ et $\mathscr{B}'_E$,
$P \in GL_n(\K)$ la matrice de passage de $\mathscr{B}_E$ à $\mathscr{B}'_E$.
Soiet $u \in \mathscr{L}(E)$, $A=M_{\mathscr{B}_E}(u)$ et $A'=M_{\mathscr{B}'_E}(u)$
($A,A' \in\MM_{n}(\K)$).
On a alors la relation : $ \boxed{A'=P^{-1}AP }$.
\begin{CD}
(E,\mathscr{B}_E) @< \mathrm{Id}_E< P< (E,\mathscr{B}_E')\\
@VuVAV @VuVA'V\\
(E,\mathscr{B}_E) @>\mathrm{Id}_E>{P^{-1}}> (E,\mathscr{B}_E')
\end{CD}
Remarque
Généralement, on change la base $\BB$ pour travailler dans la base $\BB'$ avec l'objectif que la
matrice de $u$ dans $\BB'$ soit plus simple (contient plus de $0$),
par exemple diagonale ou triangulaire supérieure.
On considère $E=\R_2[X]$ muni de la base canonique $\BB=(1,X,X^2)$, et $u:E\longmapsto E$
définie par
$u(P)=2P+(X-X^2)P(2)$.
-
Donner la matrice de $u$ dans $\BB$.
-
On considère $\BB'=\{X(X-1),X(X-2),(X-1)(X-2))$. Montrer que $\BB'$ est une base de $E$
puis déterminer la matrice de $u$ dans cette base.
Correction
-
Le calcul de $u(\BB)$ donne,
$$ u(1)=2+X-X^2,\,u(X)=4X-X^2,\,u(X^2)=4X-2X^2.$$
Ce qui donne,
$$
\left.\begin{array}{ll}
u(e_0)&=2\times e_0 +1\times e_1-1 \times e_2\\
u(e_1)&=0\times e_0 +4\times e_1-2 \times e_2\\
u(e_2)&=0\times e_0 +4\times e_1-2\times e_2
\end{array}\right\}\Longrightarrow M(u)=\begin{pmatrix}
2&0&0\\
1&4&4\\
-1&-2&-2
\end{pmatrix}
$$
-
Comme $\BB'=(X(X-1),X(X-2),(X-1)(X-2))$ contient autant d'éléments que $\dim(E)$ alors
il suffit de
montrer que c'est une famille libre.
Soient $a,b,\,c\in \R$ tels que
$$ aX(X-1)+bX(X-2)+c(X-1)(X-2)=0 \Longleftrightarrow \forall x\in \R,\,
ax(x-1)+bx(x-2)+c(x-1)(x-2)=0$$
Donc pour $x=2$ on trouve $a=0$, puis pour $x=1$, on trouve $b=0$ et enfin pour $x=2$ on
a $c=0$,
ce qui implique que $\BB'$ est libre donc base de $E$.
On calcul $u(\BB')$,
$$
u(e_1')=2X(X-1)+2(X-X^2)=0,\,u(e_2')=2X(X-2),\,u(e_3')=2(X-1)(X-2)$$
donc
$$
\left.\begin{array}{ll}
u(e'_0)&=0\times e'_0 +0\times e'_1+0 \times e'_2\\
u(e'_1)&=0\times e'_0 +2\times e'_1+0 \times e'_2\\
u(e'_2)&=0\times e'_0 +0\times e'_1+2\times e'_2
\end{array}\right.\Longrightarrow M_{\BB'}(u)=\begin{pmatrix}
0&0&0\\
0&2&0\\
0&0&2
\end{pmatrix}
$$
On dit qu'une matrice carrée $A' \in \MM_{n}(\K)$ est semblable à la
matrice $A \in \MM_{n}(\K)$ s'il existe $P \in GL_n(\K)$
telle que $A'=P^{-1}AP$.
$A$ et $A'$ sont semblables si et seulement si ce sont les matrices, dans deux bases
différentes, d'un même endomorphisme $u$ d'un e-v de
dimension $n$.
Soit $E$ un $\K$-e-v de dimension $n$, $\mathscr{B}_E=(e_1, \ldots,e_n)$ une base de $E$. Soit
$u \in \mathscr{L}(E)$, et $A=M_{\mathscr{B}_E}(u) \in \MM_n(\K)$.
Alors : $A$ est triangulaire supérieure $\Longleftrightarrow \forall j \in \inter{1,n} \,,
\Vect(e_1, \ldots,e_j)$ est stable par $u$.
Soient $A,B\in TS_n(\K)$ alors $AB\in TS_n(\K)$.
Lien avec le rang d'une matrice
-
Si $A$ est la matrice, dans une base $\mathscr{B}_F$, d'un système de vecteurs $(x_1,
\ldots, x_q)$ de $F$, le rang de $A$ est aussi celui, dans $F$,
du système de vecteurs $(x_1, \ldots, x_q)$ .
-
Si $A$ est la matrice, dans des bases $\mathscr{B}_E$ et $\mathscr{B}_F$ d'une
application
linéaire $u \in \mathscr{L}(E,F)$, le rang de $A$ est aussi le rang de $u$.
En particulier, si $a$ est l'application linéaire canoniquement associée à $A$,
$\rg A = \rg a$
.
-
Si $A \in \MM_{p,q}(\K)$ et si $a$ est l'application linéaire canoniquement associée à
$A$
$$ \rg A=p \ \Longleftrightarrow \ a \text{ surjective } \, , \, \rg A=q \,
\Longleftrightarrow \, a \text{ injective }.$$
-
Si $A \in \MM_{n}(\K)$ et si $a$ est l'application linéaire canoniquement associée à $A$
$$ \rg A=n \, \Longleftrightarrow \, a \text{ bijective } \,
\Longleftrightarrow A \text{ est inversible}.$$
Remarque
On peut remplacer $a$ par n'importe quelle application linéaire $u$ d'un $\K$-ev $E$ de
dimension $q$,
rapporté à une base $\mathscr{B}_E$, dans un $\K$-ev $F$ de dimension $p$, rapporté à une base
$\mathscr{B}_F$, telle que $A= M_{\mathscr{B}_F}^{\mathscr{B}_E}(u)$).
Soient $A \in \MM_{p,q}(\K)$ et $B \in \MM_{q,r}(\K)$.
-
Si $p=q$ et $A \in GL_p(\K)$, $\rg (AB)=\rg (B), $
-
Si $q=r$ et $B \in GL_q(\K)$, $\rg (AB)=\rg (A)$.
Rappelons la définiton d'une matrice extraite ou sous matrice.
Soit $A\in \MM_{pq}$, on dit que $A'$ est une sous-matrice ou matrice extraite
de $A$ si $A'$ est obtenue de $A$ en supprimant certaines linges et / ou certaines colonnes de $A$.
Exemple
Considérons la matrice $A= \begin{pmatrix}
a&b&c&d\\
u&v&w&q\\
x&y&z&r
\end{pmatrix}$. En supprimant les colonnes 1 et 2 et la ligne 2, on obtient
$$
\begin{pmatrix}
\xcancel{a}&\textcolor{blue}{b}&\textcolor{blue}{c}&\xcancel{d}\\
\xcancel{u}&\xcancel{v}&\xcancel{w}&\xcancel{q}\\
\xcancel{x}&\textcolor{blue}{y}&\textcolor{blue}{z}&\xcancel{r}
\end{pmatrix} \rightsquigarrow \quad A' =\begin{pmatrix}
b&c\\y&z
\end{pmatrix}
$$
Le rang d'une matrice non nulle $A \in \MM_{p,q}(\K)$ est le plus grand entier $r \geqslant 1$
tel
que l'on puisse extraire de $A$ une matrice carrée inversible d'ordre $r$.
(CCP 2015)
Soit $A\in\MM_n(\R)$ (avec $n\geq 2$) la matrice de coefficients $a_{ij}=\cos(i-j)$. Trouver le
rang de~$A$.
Correction
En utilisant la formule $\cos(a+b)+\cos(a-b)=2\cos(a)\cos(b)$. On trouve
$\cos(k+2)+\cos(k)=2\cos(1)\cdot \cos(k+1)$, ce qui donne (en notant $C_j$ la $j$ème
colonne de la matrice $A$)
\begin{equation*}
\forall k\in \inter{0,n-2},\quad C_{k+2}= -C_k-2\cos(1)\,C_{k+1}\Longrightarrow \rg(A)\leq 2.
\end{equation*}
D'autre part, la matrice $A'=\begin{pmatrix}
\cos(0)&\cos(1)\\
\cos(1)&\cos(0)
\end{pmatrix}$ extraite de la matrice $A$ est inversible donc $\rg(A)\geq 2$.
On en déduit, $\boxed{\rg(A)=2}$.
Si $A \in \MM_{p,q}(\K)$, $\rg A = \rg ({\,}^t A)$.
Soit $A=(a_{ij}) \in TS_n(\K)$. Alors $A$ est inversible si et seulement si,
$$i \in \inter{1,n},\quad a_{ii} \neq 0.$$
Dans ce cas, $A^{-1}$ est une matrice triangulaire supérieure, dont les éléments diagonaux sont
les $\dsp \frac{1}{a_{ii}}$.
Soit $A=(a_{ij}) \in TS_n(\K)$. Alors $A$ est nilpotente si et seulement si,
$$\forall i \in \inter{1,n},\quad a_{ii}=0.$$