Déterminer la nature de l'endomorphisme $f$ de $\R^3$, dont la matrice dans la base canonique de $\R^3$ est donnée ci-après, et préciser les éléments caractéristique de $f$ $$\mathbf{a)\,}\,\,\,\dfrac{-1}{27}\begin{pmatrix} 2&-26&7\\-23&2&14\\14&7&22 \end{pmatrix},\quad\mathbf{b)\,}\,\,\,\dfrac{1}{9}\begin{pmatrix} -7&4&-4\\ 4&-1&-8\\ -4&-8&-1 \end{pmatrix},\quad$$ $$\mathbf{c)\,}\,\,\,\dfrac{1}{9}\begin{pmatrix} 7&4&4\\ 4&1&-8\\ 4&-8&1 \end{pmatrix},\quad\mathbf{d)\,}\,\,\,\dfrac{1}{9}\begin{pmatrix} 7&-4&4\\ 4&8&1\\ 4&-1&-8 \end{pmatrix},$$
Déterminer la matrice $A$ dans une b.o.n.d $(i,j,k)$ de $\R^3$, de la rotation d'axe dirigé orienté par $i+j+k$ et d'angle $\dfrac{\pi}{3}[2\pi]$.
Notons $u$ la rotation d'axe dirigé orienté par $i+j+k$ et d'angle $\dfrac{\pi}{3}[2\pi]$.
On pose $I=\dfrac{i+j+k}{\sqrt{3}},\,J=\dfrac{i-j}{\sqrt{3}}$ et $K=I\wedge J=\dfrac{i+j-2k}{\sqrt{6}}$ de sorte que $J,\,K\in \Vect(I)^\perp$ et $\BB'=(I,J,K)$ soit une b.o.n.d de $\R^3$.
La matrice de $u$ dans $\BB'$ est $\begin{pmatrix} 1&0&0\\ 0&\frac{1}{2}&\frac{-\sqrt{3}}{2}\\ 0&\frac{\sqrt{3}}{2}&\frac{1}{2} \end{pmatrix}$. En utilisant la formule de changement de base, on trouve: $$ \begin{array}{lcl} A&=&M_\BB(u)=M_\BB^{\BB'}(Id) M_{\BB'}(u)M_{\BB'}^\BB(Id)\\ &&\\ &=&\begin{pmatrix} \frac{1}{\sqrt{3}}&\frac{1}{\sqrt{2}}&\frac{1}{\sqrt{6}}\\ \frac{1}{\sqrt{3}}&\frac{-1}{\sqrt{2}}&\frac{1}{\sqrt{6}}\\ \frac{1}{\sqrt{3}}&0&\frac{-2}{\sqrt{6}} \end{pmatrix} \begin{pmatrix} 1&0&0\\ 0&\frac{1}{2}&\frac{-\sqrt{3}}{2}\\ 0&\frac{\sqrt{3}}{2}&\frac{1}{2} \end{pmatrix} \begin{pmatrix} \frac{1}{\sqrt{3}}&\frac{1}{\sqrt{3}}&\frac{1}{\sqrt{3}}\\ \frac{1}{\sqrt{2}}&\frac{-1}{\sqrt{2}}&0\\ \frac{1}{\sqrt{6}}&\frac{1}{\sqrt{6}}&\frac{-2}{\sqrt{6}} \end{pmatrix} \\ &&\\ &=&\dfrac{1}{3}\begin{pmatrix} 2&-1&2\\ 2&2&-1\\ -1&2&2 \end{pmatrix} . \end{array} $$
Déterminer la matrice $A$ dans une b.o.n.d $(i,j,k)$ de $\R^3$, de la rotation d'axe dirigé orienté par $i-k$ et d'angle $\dfrac{\pi}{4}[2\pi]$.
Notons $u$ la rotation d'axe dirigé orienté par $i-k$ et d'angle $\dfrac{\pi}{4}[2\pi]$.
On pose $I=\dfrac{i-k}{\sqrt{2}},\,J=\dfrac{i+k}{\sqrt{2}}$ et $K=I\wedge J=-j$ de sorte que $J,\,K\in \Vect(I)^\perp$ et $\BB'=(I,J,K)$ soit une b.o.n.d de $\R^3$.
La matrice de $u$ dans $\BB'$ est $\begin{pmatrix} 1&0&0\\ 0&\frac{1}{\sqrt{2}}&\frac{-1}{\sqrt{2}}\\ 0&\frac{1}{\sqrt{2}}&\frac{1}{\sqrt{2}} \end{pmatrix}$. En utilisant la formule de changement de base, on trouve: $$ \begin{array}{lcl} A&=&M_\BB(u)=M_\BB^{\BB'}(Id)M_{\BB'}(u)M_{\BB'}^\BB(Id) \\ &&\\ &=&\begin{pmatrix} \frac{1}{\sqrt{2}} &\frac{1}{\sqrt{2}}&0\\ 0 &0 &-1\\ \frac{-1}{\sqrt{2}}&\frac{1}{\sqrt{2}}&0 \end{pmatrix} \begin{pmatrix} 1&0&0\\ 0&\frac{1}{\sqrt{2}}&\frac{-1}{\sqrt{2}}\\ 0&\frac{1}{\sqrt{2}}&\frac{1}{\sqrt{2}} \end{pmatrix} \begin{pmatrix} \frac{1}{\sqrt{2}}&0&\frac{-1}{\sqrt{2}}\\ \frac{1}{\sqrt{2}}&0&\frac{ 1}{\sqrt{2}}\\ 0&-1&0 \end{pmatrix}\\ &&\\ & =&\dfrac{1}{2}\begin{pmatrix} 1+\dfrac{1}{\sqrt{2}}&1&-1+\dfrac{1}{\sqrt{2}}\\ -1&\sqrt{2}&-1\\ -1+\dfrac{1}{\sqrt{2}}&1&1+\dfrac{1}{\sqrt{2}} \end{pmatrix} . \end{array}$$
Soit $E$ un espace euclidien de dimension 3. Soit $f\in \mathcal{S}\mathcal{O}(E)$ une rotation d'axe dirigé par le vecteur unitaire $e$ et d'angle $\theta$. Montrer la relation suivante: $$\forall x\in E,\quad f(x)=\cos(\theta)x+\sin(\theta) \,e\wedge x+(1-\cos(\theta))\scal{x}{e}e.$$ On suppose qu'il existe $x\in E$ non nul tel que $\scal{x}{f(x)}=0$, caractériser dans ce cas $f$.
Notons $H=\Vect(e)^\perp$, soit $(u,v=e\wedge u)$ une b.o.n de $H$, ainsi $(e,u,v)$ une b.o.n.d de
$E$. Déterminons la matrice de $f$ dans cette base.
$$\begin{array}{lcl}
f(e)&=&\cos(\theta)e+\sin(\theta) \,e\wedge
e+(1-\cos(\theta))\scal{e}{e}e=\cos(\theta)e+0+(1-\cos(\theta))e\\
&=&e\\
f(u)&=&\cos(\theta)u+\sin(\theta) \,e\wedge u+(1-\cos(\theta))\scal{u}{e}e=
\cos(\theta)u+\sin(\theta) v+(1-\cos(\theta))0\\
&=&\cos(\theta)u+\sin(\theta) v\\
f(v)&=&\cos(\theta)v+\sin(\theta) \,e\wedge v+(1-\cos(\theta))\scal{v}{e}e=
\cos(\theta)v-\sin(\theta) u+(1-\cos(\theta))0\\
&=&\cos(\theta)v-\sin(\theta) v
\end{array}$$
Ainsi, la matrice de $f$ dans cette base est $\begin{pmatrix}
1&0&0\\
0&\cos(\theta)&-\sin(\theta)\\
0&\sin(\theta)&\cos(\theta)
\end{pmatrix}$, donc $f$ est une rotation d'axe dirigé par $e$ et d'angle $\theta$.
Pour tout $x\in E\setminus\{0\}$,
$$\scal{x}{f(x)}=\scal{x}{\cos(\theta)x+\sin(\theta) \,e\wedge
x+(1-\cos(\theta))\scal{x}{e}e}=\cos(\theta)\norme{x}^2+(1-\cos(\theta))\scal{x}{e}^2.$$
Ainsi, si $\cos(\theta)>0$ alors $\scal{x}{f(x)}>0$. Donc on ne peut pas trouver dans ce $x$ non nul
tel que
$x$ soit orthogonale à $f(x)$.
Supposons alors que $\cos(\theta)\leq 0$, et posons pour $t\in \R$,
$$\varphi(t)= tu +(1-t) e,\, \text{ et } \psi (t) = \scal{f(\varphi (t))}{\varphi(t)}.$$
$\psi\in \CC(\R,\R)$ comme composition des fonctions continues, de plus,
$$\psi(0)=\scal{f(\varphi(0))}{\varphi(0)}=\scal{f(e)}{e}=1,\quad \psi(1)=\scal{f(\varphi(1))}{\varphi(1)}=\scal{f(u)}{u}=\cos(\theta)\leq 0.$$
Donc d'après le TVI, il existe $t_0\in ]0,1]$ tel que $\psi(t_0)=0$, i.e. il existe $x\in \R^3$ tel que $x\perp f(x)$.
Soit $A = \begin{pmatrix} a &-b &-c &-d \cr b & a & d &-c \cr c &-d & a & b \cr d & c &-b & a \cr \end{pmatrix} \in \MM_4(\R)$, avec $a,b,c,d$ non tous nuls. Calculer $A\,{\,}^t A$,en déduire que $A$ est inversible. Quelles conditions sur $a,b,c,d$ pour que $A\in \mathcal{O}(4)$?
On calcul,
$$\begin{array}{lcl}
A{\,}^t A&=&\begin{pmatrix} a &-b &-c &-d \cr
b & a & d &-c \cr
c &-d & a & b \cr
d & c &-b & a \cr \end{pmatrix}\begin{pmatrix}
a &b &c &d \cr
-b & a &- d &c \cr
-c &d & a & -b \cr
-d & -c &b & a \cr \end{pmatrix}\\
&&\\
&=&(a^2+b^2+c^2+d^2)\begin{pmatrix}
1&0&0&0\\
0&1&0&0\\
0&0&1&0\\
0&0&0&1
\end{pmatrix}
\end{array}$$
Comme $a,b,c,d$ non tous nuls alors $a^2+b^2+c^2+d^2\neq 0$ donc $A$ est inversible et
$A^{-1}=\dfrac{1}{a^2+b^2+c^2+d^2}{\,}^t A$.
$A\in \mathcal{O}(4)$ ssi $A{\,}^t A=I_4$ donc pour que $A$ soit dans $\mathcal{O}(4)$ il faut et il
suffit que
$a^2+b^2+c^2+d^2=1$.
Soit $u\in \R^3$ tel que $\norme{u}=1$. On considère $\fonct{f}{\R^3}{\R^3}{x}{x\wedge u}$. Calculer $f^3$ en fonction de $f$.
On pose $I=u$ et soit $J\in \Vect(I)^\perp$ tel que $\norme{J}=1$. On pose ensuite $K=I\wedge J$ de
sorte que
$\BB=(I,J,K)$ soit une base orthonormé direct de $E$.
On a,
$$\left\{\begin{array}{l}
f(I)=0,\\
f(J)=J \wedge I=-K,\\
f(K)=K \wedge I=-J
\end{array}
\right.\Longrightarrow M_\BB(f)=\begin{pmatrix}
0&0&0\\
0&0&1\\
0&-1&0
\end{pmatrix}.
$$
Donc
$$M_\BB(f^3)=(M_\BB(f))^3=\begin{pmatrix}
0&0&0\\
0&0&-1\\
0&1&0
\end{pmatrix}=-M_\BB(f)$$
on en déduit alors que $f^3=-f$.
Soit $E$ un espace vectoriel euclidien orienté de dimension $3$. Soit $u\in E$. On définit $\fonct{f}{E}{E}{x}{u\wedge(u\wedge x)}$. Montrer que $f$ est symétrique. Quelles sont les valeurs propres de $f$ ?
On complète $(u/\norme{u})$ en une base orthonormée directe.
On pose $I=\dfrac{u}{\norme{u}}$ et soit $J\in \Vect(I)^\perp$ tel que $\norme{J}=1$. On pose ensuite
$K=I\wedge J$ de sorte que $\BB=(I,J,K)$ soit une base orthonormé direct de $E$.
On a,
$$\left\{\begin{array}{l}
f(I)=0,\\
f(J)=u \wedge (\norme{u} (I\wedge J))=-\norme{u}^2J,\\
f(K)=u \wedge (\norme{u} (I\wedge K))=-\norme{u}^2K
\end{array}
\right.\Longrightarrow M_\BB(f)=\begin{pmatrix}
0&0&0\\
0&-\norme{u}^2&0\\
0&0&-\norme{u}^2
\end{pmatrix}.
$$
On obtient une matrice symétrique. Les valeurs propres sont $0$ (multiplicité $1$) et
$-\norme{u}^2$ (multiplicité $2$).
Soit $E$ un e-v euclidien orienté de dimension 3, et $(a,b,c)$ une base de $E$. Déterminer
$(x,y,z) \in E^3$ tels que : $ x \wedge y = c \quad , \quad y \wedge z = a \quad , \quad z \wedge x =
b $.
On pourra commencer par établir les formules : $(w \wedge u) \wedge (u \wedge v) = [u,v,w]u,\quad
[v \wedge w,w
\wedge u , u \wedge v] = [u,v,w]^2 $.
Supposons que une telle solution existe, alors $x\in \Vect(c)^\perp$ et également $x\in \Vect
(b)^\perp$, on
conclut alors qu'il existe $\alpha\in \R^*$ tel que $x=\alpha \,(c\wedge b)$. Le même raisonnement
montre qu'il
existe $\beta,\gamma\in \R^*$ tels que $y= \beta (a\wedge c),\, z=\gamma (a\wedge b)$.
(comme la famille $(a,b,c)$ est libre alors les réels $\alpha,\,\beta$ et $\gamma$ ne peuvent pas
être nuls).
D'autre part, on a,
$$c=x\wedge y =\alpha\beta\left( (c\wedge b)(a\wedge c)\right)=\alpha\beta\left( (b\wedge c)\wedge
(c\wedge a)\right)=\alpha\beta [c,a,b]c=\alpha\beta [a,b,c]c.$$
Le même raisonnement pour $a$ et $b$ nous donne
$$1=\alpha\beta [a,b,c]=\alpha\gamma [a,b,c]=\beta\gamma [a,b,c]\Longrightarrow
(\alpha\beta\gamma)^2[a,b,c]^3=1$$
On en déduit alors,
Soit $u$ un vecteur unitaire de l'espace euclidien $\R^3$. On définit l'application $f$ par: $$\fonct{f}{\R^3}{\R^3}{x}{\dfrac{1}{2}\left(x+\scal{x}{u}\,u+\sqrt{3}\,u\wedge\,x\right)}.$$
Soit $A\in \mathcal{O}_n(\R)$. Montrer les relations suivantes: $$\mathbf{a)\,}\, \, \dsum_{1\leq i,j\leq n}a_{i\,j}^2=n,\quad \mathbf{b)\,}\,\, \abs{\dsum_{1\leq i,j\leq n}a_{i\,j}}\leq n,\quad\mathbf{c)\,}\,\, n\leq \dsum_{1\leq i,j\leq n}\abs{a_{i\,j}}\leq n\sqrt{n}. $$
Soit $A\in \MM_n(\R)$ antisymétrique. Montrer que $I_n+A$ est inversible. On pose $B=(I_n+A)^{-1}(I_n-A)$, montrer que $B\in \mathcal{O}_n(\R)$ puis calculer $\det(B)$.
Soit $X\in \R^n$ tel que $(I_n+A)X=0$ ce qui donne $AX=-X$ puis ${\,}^t (AX)=-{\,}^t X$ or ${\,}^t
(AX)=
{\,}^t X{\,}^t A=-{\,}^t X A$. On a donc
$$AX=-X\Longrightarrow {\,}^t X A={\,}^t X\Longrightarrow {\,}^t X A\,X={\,}^t X\,X\Longrightarrow
-{\,}^t X \,X={\,}^t X\,X=\norme{X}^2,$$
on en déduit que $X=0$ d'où $I_n+A$ est inversible.
Montrons que $B\in \mathcal{O}_n(\R)$,
$$\begin{array}{lcl}
B B^t&=&(I_n+A)^{-1}(I_n-A) \left((I_n+A)^{-1}(I_n-A)\right)^t \\
&=&(I_n+A)^{-1}(I_n-A)
(I_n-A)^t( (I_n+A)^{-1})^t\\
&=&(I_n+A)^{-1}(I_n-A)(I_n+A_n)(I_n-A)^{-1}
\end{array}$$
les matrices $(I_n+A)$ et $(I_n-A)$ commutent entre elles puisqu'elles appartiennent à $\R[A]$, ce qui
donne
$$B\,{\,}^t B= (I_n+A)^{-1}(I_n+A)(I_n-A)(I_n-A)^{-1}=I_n\Longrightarrow B\in \mathcal{O}_n(\R).$$
D'autre part, $\det (B)=\dfrac{\det(I_n-A)}{\det( I_n+A)}=\dfrac{\det({\,}^t
(I_n-A))}{\det(I_n+A)}=\dfrac{\det(I_n+A)}{\det(I_n+A)}=1.$
Soient $E$ un espace euclidien et $f\in \mathcal{O}(E)$. Montrer que $\Ker (f-\mathrm{Id}e)=\im (f-\mathrm{Id}e)^\perp$.
Soient $x\in \Ker (f-\mathrm{Id}e)$ et $y\in \im (f-\mathrm{Id}e)$, il existe $z\in E$ tel que $y=f(z)-z$. On a alors $$\scal{x}{y}=\scal{x}{f(z)-z}=\scal{f(x)}{f(z)-z}=\scal{f(x)}{f(z)}-\scal{x}{z}=0.$$ On en déduit que $x\in \im(f-\mathrm{Id}e)^\perp$ et $y\in \Ker(f-\mathrm{Id}e)^\perp$, donc $\Ker(f-\mathrm{Id}e)\subset\im(f-\mathrm{Id}e)^\perp$, mais comme $\dim(\Ker(f-\mathrm{Id}e))=\dim(E)-\dim(\im (f-\mathrm{Id}e))=\dim(\im(f-\mathrm{Id}e)^\perp)$ on conclut alors que $\Ker (f-\mathrm{Id}e)=\im (f-\mathrm{Id}e)^\perp$.
Pour $\theta,\varphi\in \R$, on note $R_\theta=\begin{pmatrix}
\cos(\theta)&-\sin(\theta)\\\sin(\theta)&\cos(\theta)
\end{pmatrix}$, et $S_\varphi=\begin{pmatrix}
\cos(\varphi)&\sin(\varphi)\\\sin(\varphi)&-\cos(\varphi)
\end{pmatrix}$.
Calculer les produit $R_\theta R_{\theta'},\,R_\theta S_\varphi,\,S_\varphi R_\theta, \,S_\varphi
S_{\varphi'}$ ($\theta,\,\theta',\,\varphi,\,\varphi'\in \R$).
Application direct du cours.
Soit $E$ en espace euclidien, soient $u\in E$ non nul et $g\in \mathcal{O}(E)$. On note $\sigma$ la symétrie orthogonale par rapport à $(\R u)^{\perp}$. Décrire l'endomorphisme $g\circ \sigma\circ g^{-1}$.
On a $\sigma(u)=-u$, notons $h=g\circ \sigma \circ g^{-1}$ et $v=g(u)$ alors :
$$h(v)=g(\sigma (g^{-1}(g(u))))=g(\sigma (u))=-g(u)=-v.$$
Notons $H=\Vect (v)^\perp$, on a pour tout
$x\in H,\, 0=\scal{x}{g(u)}=\scal{g^{-1}(x)}{u}$ donc $g^{-1}(x)\in \Vect(u)^\perp$ d'où
$\sigma (g^{-1}(x))=g^{-1}(x)$, soit finalement $h(x)=x$.
On en déduit que $h$ est la symétrie orthogonale par rapport à $H=\Vect (g(u))^\perp$.
Soient $E$ espace euclidien et $u\in \mathcal{O}(E)$. Pour $k\in \N^*$, on pose $v_k=\dfrac{1}{k}\dsum_{j=0}^{k-1}u^j$. Montrer que la suite $(v_k)_{k\geq 1}$ converge vers le projecteur orthogonale sur $\Ker (\mathrm{Id}e -u)$.
On a $\Ker (\mathrm{Id}e -u)=\im (\mathrm{Id}e -u)^\perp$ (exercice précédent).
On en déduit que $(v_k)$ converge vers le projeté orthogonal sur $\Ker(u-\mathrm{Id}e )$.
Soient $a,b\in \R^3$, résoudre le système $a\wedge x=b$ d'inconnue $x\in \R^3$.
On distingue deux cas:
Soit $E$ un espace euclidien et $u$ un endomorphisme orthogonal. On pose $v=u-\mathrm{Id}e$.
Soit $n\in\mathbb{N}^*$ ; on munit $\mathbb{R}^n$ de sa structure euclidienne usuelle dont on note$ \langle \,, \, \rangle$ le produit scalaire. Soit $u\in\mathbb{R}^n$ un vecteur unitaire et $f$ l'endomorphisme de $\mathbb{R}^n$ défini par : $\forall x\in\mathbb{R}^n,\, f(x)=x-2\langle{u,x\rangle} u$.
Soit $f$ un endomorphisme bijectif de l'espace euclidien $E$, vérifiant : $\forall x,y\in E,\ \langle f(x),y \rangle=-\langle x,f(y) \rangle$.
On se donne un $n$- de réels $(x_{1}, x_{2}, \dots, x_{n})$. On pose : $$s=\sum_{i=1}^{n}{x_{i}},\ \alpha=\sum_{1 \leqslant i < j \leqslant n}{x_{i}x_{j}}, \, X=(x_{1}\ \ x_{2}\ \ \cdots\ \ x_{n})^{\mathrm{T}},\ U=(s-x_{1}\ \ s-x_{2}\ \ \cdots\ \ s- x_{n})^{\mathrm{T}},$$ $A=UX^{\mathrm{T}} \text{ et } M=A-\alpha I_{n}.$
On suppose que $X\neq 0$ (le cas $X=0$ ne représente aucun intérêt), ce qui implique $U\neq 0$, en
effet si on
suppose que $U=0$, on aurait
$$\forall i\in \inter{1,n},\,\, x_i=s\Longrightarrow s=\dsum_{i=1}^n x_i=\dsum_{i=1}^n s=ns
\Longrightarrow s=0.$$
Donc $X=0$ ce qui est impossible .
Notons également $F=\Vect (X)$ et $G=F^\perp$
On munit $\mathbb{R}^3$ de sa structure euclidienne canonique, on travaille relativement à la base canonique. Déterminer la matrice de la symétrie orthogonale par rapport au plan d'équation $y =x\tan \theta$, avec $\theta \in [0,\frac{\pi}{2}[$.
On note $P=\{(x,y,z)\in \R^3,\,\, y=x\tan (\theta)\}$. On pose $e_1=(\cos (\theta),\sin(\theta),0)$,
$e_2=(0,0,1)$. La famille $(e_1,e_2)$ est une b.o.n du plan $P$, on définit ensuite $e_3=e_1\wedge e_2
=(\sin(\theta),-\cos (\theta),0)$ de sorte que $(e_1,e_2,e_3)$ est une b.o.n directe de $\R^3$.
La matrice de la symétrie orthogonale par rapport à $P$ dans la base $(e_1,e_2,e_3)$ est
$\begin{pmatrix}
1&0&0\\
0&1&0\\
0&0&-1
\end{pmatrix}$. On en déduit alors que la matrice de cette symétrie dans la base canonique est
$$A =\begin{pmatrix}
\cos(\theta)&0&\sin(\theta)\\
\sin(\theta)&0&-\cos(\theta)\\
0&1&0
\end{pmatrix}\begin{pmatrix}
1&0&0\\
0&1&0\\
0&0&-1
\end{pmatrix}
\begin{pmatrix}
\cos(\theta)&\sin(\theta)&0\\
0&0&1\\
\sin(\theta)&-\cos(\theta)&0
\end{pmatrix}=\begin{pmatrix}
\cos(\theta)^2-\sin(\theta)^2&2\cos(\theta)\sin(\theta)&0\\
2\cos(\theta)\sin(\theta)&\sin(\theta)^2-\cos(\theta)^2&0\\
0&0&1
\end{pmatrix}.$$
Soit $A=(a_{ij})$ une matrice réelle symétrique d'ordre $n$. On note $\lambda_1,\ldots,\lambda_n$ ses valeurs propres (distinctes ou non). Prouver que : $\dsp \sum_{i=1}^n{\lambda_i^2} = \dsp \sum_{i=1}^n \dsp \sum_{j=1}^n {a_{ij}^2}$.
D'après le cours, il existe une b.o.n $\BB'=(e_1,\cdots,e_n)$ de $\R^n$ formée des vecteurs propres de $A$ (i.e. $Ae_i=\lambda_i\,e_i$). De plus, en notant $P$ la matrice de passage de la base canonique $\BB$ à $\BB'$, $P=M_\BB^{\BB'}(Id)$. Alors on a $P\in \mathcal{O}_n(\R)$ et $A=PD{\,}^t P$ avec $D=\mathrm{diag} (\lambda_1,\cdots,\lambda_n)$. On en déduit alors $${\,}^t A\,A={\,}^t (PD{\,}^t P)(PD{\,}^t P)=PD({\,}^t P \,P)D{\,}^t P=P(D^2){\,}^t P \Longrightarrow \tr ({\,}^t A A)=\tr(PD^2{\,}^t P)=\tr (D^2).$$ Pour conclure, il suffit de remarque que $\tr ({\,}^t A A)=\dsp\sum_{i=1}^n \dsp \sum_{j=1}^n {a_{ij}^2}$ et $\tr(D^2)=\dsp \sum_{i=1}^n{\lambda_i^2}$.
On note $\scal{.}{.}$ le produit scalaire canonique sur $\R^n$ et $\norme{.}$ la norme associée. Pour toute famille $u=(u_1,\cdots,u_p)$ de $(\R^n)^p$, on note $G_u$ la matrice carrée d'ordre $p$ dont le terme d'indice $(i,j)\in \inter{1,p}^2$ est $\scal{u_i}{u_j}$.
Soit $E=\R_n[X]$ ($n\in \N^*$) muni du produit scalaire $\scal{P}{Q}=\dsp\int_0^1P(t)Q(t)\ud t$. On définit $u:E\longmapsto E$ par $$\forall P\in E,\quad u(P)=\int_0^1(X+t)^nP(t)\ud t.$$
Soient $f_1, \dots ,f_n \in \CC([0,1],\R)$. Pour $(i,j) \in \inter{1,n}^2$, on pose : $$ a_{ii} = \dsp \sum_{\underset{j \neq i}{j=1}}^n \dsp \int_0^1f_j^2(t) \ud t \quad \textrm{et, pour }i\neq j, a_{ij}=- \dsp \int_0^1 f_i(t)f_j(t) \ud t $$ Soit enfin $A$ la matrice $A=(a_{ij}) \in \MM_n(\R)$.
On définit sur $E=\CC([0,1],\R)$ le produit scalaire $\scal{f}{g}=\dsp\int_0^1f(t)g(t)\ud t$ et on
note
$\norme{\cdot}_E$ la norme associée à ce p.s.
On note $B=(\scal{f_i}{f_j})_{1\leq i,j\leq n}\in \MM_n(\R)$, de sorte que
$A=\dsp\left(\dsum_{k=1}^n\norme{f_k}_E^2\right)I_n-B$. Il est clair que $A$ est symétrique.
Soit $X={\,}^t (x_1,\cdots,x_n)\in \R^n$, on a
$$\begin{array}{lcl}
\scal{X}{AX}_{\R^n}&=&
\scal{X}{\left(\dsum_{k=1}^n\norme{f_k}_E^2\right)X}_{\R^n}-\scal{X}{BX}_{\R^n}=\left(\dsum_{k=1}^n\norme{f_k}_E^2\right)\norme{X}_{\R^n}^2-\dsum_{1\leq
i,j\leq n}x_i\scal{f_i}{f_j}x_j\\
&=&\left(\dsum_{k=1}^n\norme{f_k}_E^2\right)\norme{X}_{\R^n}^2-\norme{\dsum_{k=1}^n x_kf_k}_E^2.
\end{array}$$
D'autre part, on a:
$$\norme{\dsum_{k=1}^n x_kf_k}_E\leq \dsum_{k=1}^n\abs{x_k}\norme{f_k}_E\leq
\sqrt{\dsum_{k=1}^nx_k^2}\sqrt{\dsum_{k=1}^n\norme{f_k}_E^2}=\norme{X}_{\R^n}\sqrt{\dsum_{k=1}^n\norme{f_k}_E^2}.$$
On obtient finalement,
$$\scal{X}{AX}_{\R^n}=\left(\dsum_{k=1}^n\norme{f_k}_E^2\right)\norme{X}_{\R^n}^2-\norme{\dsum_{k=1}^n
x_kf_k}_E^2\geq
\left(\dsum_{k=1}^n\norme{f_k}_E^2\right)\norme{X}_{\R^n}^2-\norme{X}_{\R^n}^2\left(\dsum_{k=1}^n\norme{f_k}_E^2\right)=0.$$
Ce qui implique que $A$ est symétrique positive.
On peut également écrire:
$$\forall X\in \R^n,\,\quad
\scal{X}{AX}_{\R^n}=\dsum_{i=1}^{n-1}\left(\dsum_{j=i+1}^n\norme{x_jf_i-x_if_j}_E^2\right).$$
Avec cette écriture, on voit que la matrice $A$ n'est pas définie positive ssi $\rg
(f_1,\cdots,f_n)\leq 1$.
Soient $u$ et $v$ deux endomorphismes symétriques d'un e-v euclidien $E$. Démontrer que les quatre propositions suivantes sont équivalentes :
$\mathbf{a)} \Longrightarrow \mathbf{b)}$ Supposons que $u\circ v $ est symétrique. Soit
$x\in E$, pour tout $y\in E$, on a
$$\begin{array}{lcl}
\scal{u\circ v (x)}{y}&=&\scal{x}{u\circ v(y)}\\
&=&\scal{u (x)}{v(y)}\quad\quad (\text{car } u \text{ est symétrique})\\
&=&\scal{v\circ u (x)}{y}\quad\quad (\text{car } v \text{ est symétrique})
\end{array}$$
Donc
$$\forall y\in E,\, \scal{u\circ v (x)}{y}=\scal{v\circ u(x)}{y}$$
Ce qui implique que $u\circ v(x)=v\circ u(x)$.
$\mathbf{b)} \Longrightarrow \mathbf{c)}$ Supposons que $u\circ v=v\circ u$, puisque $u$ est
symétrique il existe une b.o.n de $\BB=(b_1,\cdots,b_n)$ formée des vecteurs propres de $u$. Soit
$k\in \inter{1,n}$, on a
$$u(v(b_k))=v(u(b_k))=v(\lambda_k b_k)=\lambda_k v(b_k)$$
donc $v(b_k)$ est un vecteur propre de $u$ associé à $\lambda_k$, il existe alors $\alpha_k\in \R$
tel que $v(b_k)=\alpha_k b_k$, ceci prouve que $b_k$ est aussi un vecteur propre de $v$.
Diagonaliser les matrices : $$ A=\left( \begin{array}{ccccc} 1 & 1 & \ldots & 1 & 1 \\ 1 & 0 & \ldots & 0 & 1 \\ \vdots & \vdots & \ldots & \vdots & \vdots \\ 1 & 0 & \ldots & 0 & 1\\ 1 & 1 & \ldots & 1 & 1 \end{array} \right) \quad ,\quad\quad \quad B=\left( \begin{array}{cccccc} 2 & 1 & 0 & \ldots & \ldots & 0 \\ 1 & 2 & 1 & 0 & \ldots &0 \\ 0 & 1 & 2 & 1 & \ldots & 0 \\ 0 & 0 & \ddots & \ddots & \ddots & 0 \\ 0 & 0 & \ldots & 1 & 2 & 1 \\ 0 & 0 & \ldots & \ldots & 1 & 2 \end{array} \right).$$ $$\quad$$
Soient $A=(a_{ij})$ et $B=(b_{ij})$ $\in \MM_n(\R)$, symétriques, positives. Soit
$C=(c_{ij})$ la matrice définie par : $ \forall (i,j) \in \inter{1,n}^2 , \ c_{ij}=a_{ij}b_{ij}$.
Montrer que
$C$ est symétrique positive.
Montrer que, si on suppose de plus $A$ et $B$ définies positives, alors $C$ est définie positive.
Le faite que $C$ est symétrique est évident!
Comme $A$ est symétrique alors $A$ est diagonalisable, de plus il existe
$P=(p_{ij})_{1\leq i,j\leq n}\in \mathcal{O}_n(\R)$ et $D$ une matrice diagonale tel que $A=PD{\,}^t
P$
(les éléments diagonaux de $D$ sont les valeurs propres de $A$,
$\lambda_1,\cdots,\lambda_n$).
On obtient alors, pour tout $(i,j)\in \inter{1,n}^2$,
$a_{ij}=\dsp\dsum_{k=1}^n\lambda_kp_{ik}p_{jk}$.
Soit $X={\,}^t (x_1,\cdots,x_n)\in \R^n$, on a
$$\scal{X}{CX}=\dsum_{1\leq i,j\leq n}x_ic_{ij}x_j=\dsum_{1\leq i,j\leq n}x_ia_{ij}b_{ij}x_j=
\dsum_{1\leq i,j\leq n}x_i\left(\dsum_{k=1}^n\lambda_kp_{ik}p_{jk}\right)
b_{ij}x_j=\dsum_{k=1}^n\lambda_k\left(\dsum_{1\leq i,j\leq n} (p_{ik}x_i)b_{ij}(p_{jk}x_k)\right).$$
On note alors pour $k\in \inter{1,n}$, $X_k={\,}^t (p_{1k}x_1,\cdots,p_{nk}x_n)\in \R^n$. On obtient
alors, $\dsp \scal{X}{CX}=\dsum_{k=1}^n\lambda_k\scal{X_k}{BX_k}$.
Soient $E$ un espace vectoriel euclidien, $a$ et $b$ deux endomorphismes symétriques définis positifs tels que \begin{equation*} \forall x\in E\setminus\{0\} \qquad \scal{a(x)}{x}< \scal{b(x)}{x}. \end{equation*} Soit $\lambda\in\Sp(b^{-1}a)$. Montrer que $\sum\limits_{n\geq 1}\dfrac{\lambda^n}{n}$ converge.
Soit $\lambda\in\Sp(b^{-1}a)$. Alors il existe $x\neq 0$ tel que $b^{-1}\big(a(x)\big)=\lambda x$, donc $a(x)=\lambda b(x)$ donc \begin{equation*} \scal{a(x)}{x} = \lambda \scal{b(x)}{x} < \scal{b(x)}{x}. \end{equation*} Or, $a$ et $b$ étant définis positifs, on en en déduit que $\lambda>0$ d'une part et que $\lambda< 1$ d'autre part. Et notamment, la série de l'énoncé converge.
On pose $E=\R_n[X]$ que l'on munit du produit scalaire $\scal PQ=\dsp\int_{-1}^1 P(t)\,Q(t)\,\ud t$. On considère l'application $$\fonct{u}{E}{\R[X]}{P}{2XP'+(X^2-1)P''}.$$
Soit $A\in \MM_n(\R)$ inversible. Montrer qu'il existe une base orthonormale $(X_1,\cdots,X_n)$ de $\R^n$ telle que $(AX_1,\cdots,AX_n)$ soit aussi une base orthogonale de $\R^n$.
On pose $B=A^t\,A$, $B$ est symétrique réelle donc diagonalisable dans une b.o $(X_1,\cdots,X_n)$, avec
$BX_i=\lambda_i X_i$ ($\lambda_i\in \Sp (B)$).
Comme la matrice $A$ est inversible alors $(AX_1,\cdots,AX_n)$ est une base de $\R^n$.
Soit $i,\,j\in \inter{1,n}$ tels que $i\neq j$, on a $$\scal{AX_i}{AX_j}= (AX_i)^t\,(AX_j) =X_i^tA^t\,AX_j =X_i^t BX_j =\lambda_j \scal{X_i}{X_j}=0$$ Ceci prouve que la famille $(AX_1,\cdots,AX_n)$ est orthogonale.
Soient $A\in \mathcal{S}_n^{++}(\R),\, B\in \mathcal{S}_n(\R)$.