Soient $n\in \N^*,~~x_1,\cdots,x_n\in \R_+^*$ tels que $\dsum_{k=1}^nx_k=1$. Montrer que : $\dsum_{k=1}^n\dfrac{1}{x_k}\geq n^2$, étudier le cas d'égalité.
On considère $\R^n$ muni de produit scalaire usuel. On note
$X=\left(\frac{1}{\sqrt{x_1}},\cdots,\frac{1}{\sqrt{x_n}}\right)$ et
$Y=\left(\sqrt{x_1},\cdots,\sqrt{x_n}\right)$
.
En utilisant l'inégalité de Cauchy-Schwarz, on a:
$$\scal{X}{Y}^2\leq \norme{X}^2\norme{Y}^2\Longrightarrow
\left(\dsum_{i=1}^n\dfrac{\sqrt{x_i}}{\sqrt{x_i}}\right)^2\leq
\left(\dsum_{i=1}^n\dfrac{1}{x_i}\right)\left(\dsum_{i=1}^nx_i\right)\Longrightarrow \boxed{n^2\leq
\sum_{i=1}^n\dfrac{1}{x_i}}.$$
De plus, on a égalité ssi la famille $(X,Y)$ est liée, i.e. il existe $\lambda\in \R^*$ tel que:
$$Y=\lambda X\Longleftrightarrow \forall k\in
\inter{1,n},~~\sqrt{x_k}=\dfrac{\lambda}{\sqrt{x_k}}\Longleftrightarrow x_1=\cdots=x_n.$$
Comme $\dsum_{i=1}^nx_i=1$, on obtient alors $\boxed{x_1=\cdots=x_n=\dfrac{1}{n}}$.
Soient $n\in \N^*$, $(a_1,\cdots,a_n)\in \R^n,\,(b_1,\cdots,b_n)\in \R^n,\,(c_1,\cdots,c_n)\in (\R_+)^n$. Montrer que : $$\left(\sum_{k=1}^na_kb_kc_k\right)^2\leq \left(\sum_{k=1}^na_k^2c_k\right)\left(\sum_{k=1}^nb_k^2c_k\right).$$
Le même raisonnement que l'exercice 1., en posant $X=\left(a_1\sqrt{c_1},\cdots,a_n\sqrt{c_n}\right)$ et $Y=\left(b_1\sqrt{c_1},\cdots,b_n\sqrt{c_n}\right)$.
Soit $A\in\MM_n(\R)$. Montrer que $\abs{\tr A}\leq \sqrt{n\tr (A\cdot {A}^{\mathrm{T}})}$.
On définit sur $\MM_n(\R)$ le produit scalaire $\scal{M}{N}=\tr ({\,}^t M\,N)$. Alors $\abs{\scal{A}{I_n}} \leq \norme{A}\cdot\norme{I}$, or $\norme{I}=\sqrt{n}$ et $\norme{A}^2=\dsum_{ij}\abs{a_{ij}}^2=\tr(A\cdot{\,}^t A)$, ce qui achève la démonstration.
Soient $x,y$ et $z$ trois réels tels que $ x^2+2y^2+3z^2\leq 1$. Montrer l'inégalité : ${(x+y+z)^2\leq \frac{11}{6}}.$
On se place dans $\R^3$ muni de p.s usuel. On pose
$U=\begin{pmatrix}
x\\
\sqrt{2}y\\
\sqrt{3}z
\end{pmatrix}$ et $V=\begin{pmatrix}
1\\\frac{1}{\sqrt{2}}\\\frac{1}{\sqrt{3}}
\end{pmatrix}$, alors
$\langle U,\,V\rangle=x+y+z$.
En utilisant l'inégalité de Cauchy-Schwarz, on trouve:
$$ (x+y+z)^2\leq \norme{U}^2\norme{V}^2=(x^2+2y^2+3z^2)(1+\frac{1}{2}+\frac{1}{3})\leq 1\times
\dfrac{11}{6}$$
Soient $ x,y $ et $ z $ trois réels tels que $ x^2+y^2+z^2\leq 1.$ Montrer que $ (x+2y+3z)^2\leq 14$.
On se place dans $\R^3$ muni de p.s usuel. On pose
$U=\begin{pmatrix}
x\\
y\\
z
\end{pmatrix}$ et $V=\begin{pmatrix}
1\\2\\3
\end{pmatrix}$, alors
$\langle U,\,V\rangle=x+2y+3z$.
En utilisant l'inégalité de Cauchy-Schwarz, on trouve:
$$ (x+2y+3z)^2\leq \norme{U}^2\norme{V}^2=(x^2+y^2+z^2)(1+2^2+3^2)\leq 1\times 14.$$
Soit $E= \CC([0,1],\R)$ muni du produit scalaire suivant
$\scal{f}{g}= {\dsp \int_{0}^{1}} f(t)\,g(t)\,\ud t$.
Soit $F=\{f\in E,\, f(0)=0\}.$ Montrer que $F^{\perp}=\{0\}$.
Soit $f\in F^\perp$. Alors, en notant $g:x\mapsto x\,f(x)$, on a $g\in E$ et de $\scal fg=0$ on tire $g=0$ donc, par continuité, $f=0$.
Soient $a$ un vecteur unitaire d'un espace préhilbertien réel $E$, $k$ un réel et $\varphi :E \times E \to \mathbb{R}$ l'application déterminée par $$\varphi (x,y) = \left\langle {x,y} \right\rangle + k\left\langle {x,a} \right\rangle \left\langle {y,a} \right\rangle $$ Donner une condition nécessaire et suffisant pour que $\varphi $ soit un produit scalaire.
Il est clair que $\varphi$ est symétrique, bilinéaire. D'autre part, pour tout $x\in E$, on a $$\varphi(x,x)=\scal{x}{x}+k\scal{x}{a}^2\geq \norme{x}^2(1-\abs{k}),$$
Conclusion, $\varphi$ est un produit scalaire ssi $k\in ]-1,\infty[$.
Soient $E$ un $\C$-e.v et $\varphi$ une f.b.s définie sur $E\times E$. On suppose que, pour tout $x\in E$, $~~\varphi(x,x)\in \R_+$. Montrer que, pour tout $x\in E$, $\varphi(x,x)=0$.
Soit $x\in E$, on a $$0\leq \varphi(\ii x,\ii x)=\ii^2\varphi(x,x)=-\varphi(x,x)\leq 0\Longrightarrow \boxed{\varphi(x,x)=0}.$$
Soit $\alpha\in \R$, on considère $f_\alpha$ définie sur $E$ euclidien par
$f_\alpha(x)=x+\alpha \langle x,\,a\rangle\,a$ où $a\in E$ tel que $\norme{a}=1$.
Montrer que $f_\alpha\in \LL(E)$. Calculer $f_\alpha\circ f_\beta$, a quelle condition $f_\alpha$ est
bijective? Déterminer les valeurs propres de $f_\alpha$.
La linéarité de $f_\alpha$ est évidente....
Soient $\alpha,\,\beta \in \R$ et $x\in E$, on a
$$\begin{array}{lcl}
f_\alpha\circ f_\beta (x)&=&f_\alpha \left(x+\beta \scal{x}{a}a\right)\\
&=& x+\beta \scal{x}{a}a+\beta \scal{x+\beta \scal{x}{a}a}{a}a\\
&=&x+\beta \scal{x}{a}a+\beta
\scal{x}{a}+\beta\alpha\scal{x}{a}\scal{a}{a}a\\
&=&x+\beta \scal{x}{a}a+\beta \scal{x}{a}a+\beta \alpha\scal{x}{a}a=f_{\alpha+\beta +\alpha\beta} (x)
\end{array}$$
Puisque $f_0=\mathrm{Id}e$, alors si $\alpha\neq -1$ donc $f_\alpha$ est bijective et son inverse
n'est rien d'autre que
$f_{\frac{-\alpha}{\alpha+1}}$.
Si $\alpha=-1$ alors $f_{-1}(a)=a-\scal{a}{a}a=a-a=0$ donc $f_{-1}$ n'est pas injective.
Conclusion $f_\alpha$ est injective ssi $\alpha\neq -1$.
Notons $F=(a)^{\perp}$ alors $F$ est un s-e-v de $E$ de dimension $n-1$ ($n$ étant la dimension de
$E$), pour tout
$x\in F$, on a
$$f_\alpha(x)=x+\alpha\scal{x}{a}a=x \Longrightarrow 1\in \Sp (f_\alpha) \text{ et } \dim
E_1(f_\alpha)\geq n-1.$$
D'autre part, $f_\alpha(a)=(1+\alpha)a$ ce qui implique que $1+\alpha\in \Sp (f_\alpha)$. IL N'Y A
PLUS DE V.P!!
Conclusion $\Sp (f_\alpha)=\{1,1+\alpha\}$.
Soit $E$ un espace vectoriel préhilbertien réel, et soit $v\in\mathscr{L}(E)$ tel que : $\forall x \in E, \ \langle x,v(x)\rangle=0 $. Montrer que $\Ker v=(\im v)^\perp$.
Pour tout $x,y\in E$, on a $$\scal{x+y}{v(x+y)}=0=\scal{x}{v(x)}+\scal{y}{v(y)}+ \scal{x}{v(y)}+\scal{y}{v(x)},$$ ce qui montre $$\forall x,y\in E,~~\scal{x}{v(y)}=-\scal{y}{v(x)}.$$ Soit $x\in \Ker v$ et $y\in\im v$. Alors il existe $z\in E$ tel que $y=v(z)$ et $$\scal{x}{y}=\scal{x}{v(z)}=-\scal{v(x)}{z}=0\Longrightarrow \,\boxed{\Ker v\subset(\im v)^\perp}.$$ Soit $x\in(\im v)^\perp$. Alors $$\forall y\in E,\quad \scal{x}{v(y)}=0=-\scal{v(x)}{y}\Longrightarrow v(x)=0.$$ Donc $\boxed{(\im v)^\perp\subset \Ker v}$.
Soient $E,F$ deux espace préhilbertiens réels, $f:E\longmapsto F$ une application telle que: $$f(0)=0,~~\forall (x,y)\in E^2,~~\norme{f(x)-f(y)}=\norme{x-y}.$$ Montrer que $f$ est linéaire.
Soit $x\in E$, en prenant $y=0$ dans le relation vérifiée par $f$, on trouve:
$$\norme{f(x)-f(0)}=\norme{x-0}\Longrightarrow\norme{f(x)}=\norme{x}.$$
Ensuite, on a, pour tout $x,y\in E$,
$$\norme{f(x)-f(y)}^2=\norme{f(x)}^2+2\scal{f(x)}{f(y)}+\norme{f(y)}^2\Longrightarrow
\norme{x-y}^2=\norme{x}^2+2\scal{f(x)}{f(y)}+\norme{y}^2,$$
on en déduit que, pour tout $x,y\in E$, on a $ \scal{f(x)}{f(y)}=\scal{x}{y}$.
Enfin, soient $\lambda\in ,\,x,y\in E$, on a,
$$
\begin{array}{lcl}
\norme{f(\lambda x+y)-\left(\lambda f(x)+y\right)}^2&=&\norme{f(\lambda
x+y)}^2+\lambda^2\norme{f(x)}^2+\norme{f(y)}^2\\
&&-2\lambda\scal{f(\lambda x+y)}{f(x)}-2\scal{f(\lambda x+y)}{f(y)}\\
&&+2\lambda\scal{f(x)}{f(y)}\\
&&\\
&=&\norme{\lambda x+y}^2+\lambda^2\norme{x}^2+\norme{y}^2-2\lambda\scal{\lambda x+y}{x}\\
&&-2\scal{\lambda x+y}{y}+2\lambda\scal{x}{y}\\
&&\\
&=&\norme{\left(\lambda x+y\right)-\lambda x-y}^2=0
\end{array}
$$
On en déduit que $f(\lambda x+y)=\lambda f(x)+f(y)$ soit $\boxed{f\in \LL(E,F)}$.
Soit $E$ un espace préhilbertien réel, $f,g:E\longmapsto E$ deux applications telles que: $$\forall (x,y)\in E^2,~~~~\scal{x}{f(y)}=\scal{g(x)}{y}.$$ Montrer que $f,g\in \LL(E)$.
Soient $y,z\in E$ et $\lambda\in \R$, on a $$\begin{array}{lcl} \forall x\in E,~~\scal{x}{f(\lambda y+z)}&=&\scal{g(x)}{\lambda y+z}=\scal{g(x)}{\lambda y}+\scal{g(x)}{z}\\ &&\\ &=&\lambda\scal{g(x)}{y}+\scal{g(x)}{z}=\lambda\scal{x}{ f(y)}+\scal{x}{f(z)}\\ &&\\ &=&\scal{x}{\lambda f(y)+f(z)}\Longrightarrow \boxed{f(\lambda y+z)=\lambda f(y)+f(z)}, \end{array}$$ ceci montre que $f$ est linéaire, en faisant la même démarche on montre aussi que $g$ est linéaire.
Soient $E$ un $\R$-espace vectoriel non nul, $\varphi$ un produit scalaire sur $E$, $(a,b,c) \in \R^3$. $\psi : E\times E \to \R$ l'application définie par $\psi(x,y) = a\varphi(x,x) + b\varphi(x,y) + c\varphi(y,y)$. Trouver une condition nécessaire et suffisante sur $(a,b,c)$ pour que $\psi$ soit un produit scalaire sur $E$.
Soient $x,y\in E$, on a
$$\psi(y,x)=a\varphi(y,y)+b\varphi(y,x)+c\varphi(x,x) =a\varphi(y,y)+b\varphi(x,y)+c\varphi(x,x),$$
ainsi pour que $\psi$ soit symétrique il faut que $a=c$.
Supposons dans la suite que $a=c$. Il faut voir si $\psi $ est bilinéaire, soit $y, x\in E$ non nuls
et
$\lambda\neq 1\in \R$ on a
$$\psi(\lambda x,y)=a\varphi(\lambda x,\lambda x)+b\varphi(\lambda x,y)+a\varphi
(y,y)=a\lambda^2\varphi(x,x)+b\lambda \varphi (x,y)+a\varphi(y,y),$$
ainsi pour que $\psi$ soit bilinéaire il faut que $a$ soit nul, supposons dans la suit que $a=0$.
Il faut alors déterminer si $\psi$ est définie positive,
$$\forall x\in E,\, \psi(x,x)=b\varphi(x,x)$$
Donc il faut que $b>0$ puisque $\varphi(x,x)>0$ pour $x\neq 0$.
Conclusion, $\psi$ est un produit scalaire ssi $a=c=0$ et $b>0$.
Soit $\begin{array}{cccl} \varphi : & \mathbb{R}_n[X]^2 & \to & \mathbb{R}\\ & (P,Q) & \mapsto & \dsum_{k=-2017}^{2017}P(k)Q(k) \end{array}$. Quelles sont les valeurs de $n$ pour lesquelles $\varphi$ est un produit scalaire ?
Il est clair que $(\cdot\,,\, \cdot)$ est bilinéaire symétrique. D'autre part, $$(P,P)=0 \Longleftrightarrow \forall k \in \inter{-2017,2017},\, P(k)=0.$$ Ce qui implique que $P$ a au moins $4035$ racines! Ce qui n'est pas possible que si $n>4034$.
Donc $(\cdot\,,\, \cdot)$ est un produit scalaire ssi $n\leq 4034$.
$\R^3$ est muni de sa structure canonique d'espace vectoriel euclidien. Vérifier que les vecteurs $e_1=(1,0,1),$ $e_2=(1,0,2)$ et $e_3=(1,1,1)$ forment une base de $\R^3$ et en déterminer l'orthonormalisée de Gram-Schmidt.
Calculons $\det(e_1,e_2,e_3)$ dans la base canonique,
$$\det (e_1,e_2,e_3)=\begin{vmatrix}
1&1&1\\0&0&1\\1&2&1
\end{vmatrix}=-\begin{vmatrix}
1&1\\1&2
\end{vmatrix}=-1\neq 0,$$
on en déduit que $(e_1,e_2,e3)$ est une base de $\R^3$.
On pose $v_1=\dfrac{e_1}{\norme{e_1}}=\dfrac{1}{\sqrt{2}}(1,0,1)$, ensuite on pose
$$f_2=e_2-\scal{e_2 }{v_1}v_1=(1,0,2)-\dfrac{3}{2}(1,0,1)=\dfrac{1}{2}(-1,0,1)$$
puis $$ v_2=\dfrac{f_2}{\norme{f_2}}=\dfrac{1}{\sqrt{2}}(-1,0,1).$$
On pose
$$f_3= e_3-\scal{e_3 }{v_2}v_2-\scal{e_3 }{v_1}v_1=(1,1,1)-\dfrac{2}{2}(1,0,1)=(0,1,0).$$
Comme $\norme{f_3}=1$ alors on prend $v_3=f_3$.
On munit $\R_2[X]$ du produit scalaire défini par, ${\phi:\R_2[X]^2\to\R, (P,Q)\mapsto\dsp\int_{-1}^{1}P(t)Q(t)\,\ud t.}$
Dans $\R^3$ euclidien rapporté à la base canonique, déterminer la matrice de la projection orthogonale sur le plan d'équation : $x-2y+z=0$.
Notons $P=\{(x,y,z)\in \R^3,\,x-2y+z=0\}$, alors $P^\perp=\Vect \big(n=\dfrac{1}{\sqrt{6}}(1,-2,1)\big)$. On sait que $p_P=\mathrm{Id}_{\R^3}-p_{P^{\perp}}$, or $$\forall X=(a,b,c)\in \R^3,\,\quad p_{P^{\perp}}(X)=\scal{X}{n}n=\dfrac{a-2b+c}{6}(1,-2,1)$$ Ce qui donne: $$ M(p_{p^\perp})=\dfrac{1}{6}\begin{pmatrix} 1&-2&1\\ -2&4&-2\\ 1&-2&1 \end{pmatrix}.$$ On en déduit alors, $$M(p_P)=\begin{pmatrix} 1&0&0\\ 0&1&0\\ 0&0&1 \end{pmatrix}-\dfrac{1}{6}\begin{pmatrix} 1&-2&1\\ -2&4&-2\\ 1&-2&1 \end{pmatrix}$$ Soit finalement: $$\boxed{M(p_P)=\dfrac{1}{6}\begin{pmatrix} 5&2&-1\\ 2&2&2\\ -1&2&5 \end{pmatrix} }.$$
On considère l'espace euclidien $\R^4$. On note $F=\Vect\big( (1,1,0,1),(1,1,1,0),(1,1,-2,1)\big)$ .
Notons $x_1=(1,1,0,1),x_2=(1,1,1,0),x_3=(1,1,-2,1)$.
Quelle est la transformation de $\R^{3}$ dont la matrice dans la base canonique est $\frac{1}{7} \begin{pmatrix} -2 & 6&-3\\ 6&3&2\\-3&2&6\\ \end{pmatrix}$ ?
$$\begin{array}{lcl} A^2&=&\dfrac{1}{49}\begin{pmatrix} -2 & 6&-3\\ 6&3&2\\-3&2&6\\ \end{pmatrix}\begin{pmatrix} -2 & 6&-3\\ 6&3&2\\-3&2&6\\ \end{pmatrix}\\ &&\\ &=&\dfrac{1}{49}\begin{pmatrix} 4+9+36&-12+18-6&6+12-18\\ -12+18-6&36+9+4&-18+6+12\\ 6+12-18&-18+6+12&9+4+36 \end{pmatrix} =\begin{pmatrix} 1&0&0\\ 0&1&0\\ 0&0&1 \end{pmatrix} \end{array}$$ On en déduit donc que $A$ est la matrice d'une symétrie $s$. Déterminons les éléments de cette symétrie. $$\begin{array}{lcl} X=(a,b,c)\in \Ker(s-\mathrm{Id}_{\R^3})&\Longleftrightarrow& \left\{\begin{array}{lcl} -2a+6b-3c&=&7a\\ 6a+3b+2c&=&7b\\ -3a+2b+6c&=&7c \end{array} \right.\\ &\Longleftrightarrow &\left\{\begin{array}{l} a\in \R\\ b=\in \R\\ c=-3a+2b \end{array} \right. \Longleftrightarrow X\in\Vect\big( (1,0,-3),(0,1,2)\big). \end{array}$$ $$\begin{array}{lcl} X=(a,b,c)\in \Ker(s+\mathrm{Id}_{\R^3})&\Longleftrightarrow& \left\{\begin{array}{lcl} -2a+6b-3c&=&-7a\\ 6a+3b+2c&=&-7b\\ -3a+2b+6c&=&-7c \end{array} \right.\\ &\Longleftrightarrow& \left\{\begin{array}{l} a=3c\\ b=-2c\\ c\in\R \end{array} \right. \Longleftrightarrow X\in\Vect\big( (3,-2,1)\big). \end{array}$$ On remarque que: $$(3,-2,1)\perp (1,0,-3)\text{ et } (3,-2,1)\perp (0,1,2) \Longrightarrow \Ker(s+\mathrm{Id}_{\R^3}) =\big(\Ker(s-\mathrm{Id}_{\R^3})\big)^\perp.$$ Donc $s$ est la symétrie orthogonale par rapport à $\Vect\big( (1,0,-3),(0,1,2)\big)$ parallèlement à $\Vect\big( (3,-2,1)\big)$.
Déterminer la matrice dans la base canonique de $\R^{4}$ de la projection orthogonale sur $\mathrm{Vect} (v_{1}, v_{2})$ où $v_{1} = (1, -1, 0, 0)$ et $v_{2} = (0, 1, 0, 1)$.
Notons $F= \mathrm{Vect} (v_{1}, v_{2})$, alors un calcul simple nous donne $F=\Vect(u,w)$ avec $$ u=\dfrac{1}{\sqrt{2}}(1,-1,0,0),\quad w=\dfrac{1}{\sqrt{6}}(1,1,0,2).$$ On en déduit, pour tout $X=(a,b,c,d)\in \R^4$, on a $$p_F(X)=\dfrac{a-b}{2}(1,-1,0,0)+\dfrac{a+b+2d}{6}(1,1,0,2)=\dfrac{1}{6}(4a-2b+2d,4b-2a+2d,0,2a+2b+4d)$$ Donc $$\boxed{M(p_F)=\dfrac{1}{6}\begin{pmatrix} 4&-2&0&2\\ -2&4&0&2\\ 0&0&0&0\\ 2&2&0&4 \end{pmatrix} }.$$
Soit $E$ un espace euclidien de dimension $n$. Soient $F,G$ deux sous-espaces de $E$ tels que $F \subset G$. On note $s_F$ et $s_G$ les symétries orthogonales de bases $F$ et~$G$. Montrer que $s_F\circ s_G = s_G \circ s_F = s_{F\oplus G^\perp}$.
On note $W= G\cap F^\perp$. Montrons les relations suivantes:
$$G =F\overset{\perp}{\oplus} W,\quad F^\perp= W\overset{\perp}{\oplus} G^\perp,\quad E=(F\oplus
G^\perp)\overset{\perp}{\oplus} W.$$
Pour la première relations, on a
$$F \cap W= F\cap (G\cap F^\perp)=F\cap F^\perp \cap G=\{0\}.$$
D'autre part, pour $x\in G\subset E=F\overset{\perp}{\oplus} F^\perp$, ils existe alors $x_1\in F$ et
$x_2\in F^\perp$ tels que $x=x_1+x_2$, on peut alors écrire $x_2=x-x_1$ et comme $x_1\in F\subset G$
alors
$x_2\in G$. Autrement dit, $x_2\in G\cap F^\perp=W$. Ceci prouve alors que
$G=F+W$.
Puisque $W\subset F^\perp$, donc $F$ et $W$ sont orthogonaux, ceci prouve finalement que
$ G =F\overset{\perp}{\oplus} W$.
La démonstration de la deuxième relation est similaire à la première.
Pour la dernière relation:
Notons d'abord que la somme $F+G^\perp$ est direct puisque $F\cap G^\perp=\{0\}$ car
$G^\perp\subset F^\perp$. Soit $x\in (F\oplus G^\perp)\cap W$ alors il existe $x_F\in F$ et
$x_{G^\perp}\in G^\perp$ tels que
$x=x_F+x_{G^\perp}$, ainsi on peut écrire
$$x=x_F+x_{G^\perp}\in W\Longrightarrow x_{G^\perp}=x-x_F\in G \Longrightarrow x_{G^\perp}=0$$
donc $x=x_F\in F\cap W =\{0\}$, ceci prouve que $(F\oplus G^\perp)\cap W=\{0\}$.
Soit $x\in E$, on peut alors écrire par exemple
$x= x_F+x_{F^\perp}$ puisque $E=F\overset{\perp}{\oplus} F^\perp$ ensuite
$x_{F^\perp}=x_W+x_{G^\perp}$ car $F^\perp= W\overset{\perp}{\oplus} G^\perp$, ainsi,
$$x=x_F+x_{F^\perp}=x_F+ x_W+x_{G^\perp}=x_F+x_{G^\perp}+x_W\in (F\oplus G^\perp)+W.$$
Ceci prouve que $E=(F\oplus G^\perp)+W$.
Soient $x\in F\oplus G^\perp),\,y\in W$ alors
$$x=x_F+x_{G^\perp},\,\,\,\scal{x}{y}=\scal{x_F}{y}+\scal{x_{G^\perp}}{y}=0 \text{ puisque }
y\in W=G\cap F^\perp.$$
Ainsi, on a montré que $E=(F\oplus G^\perp)\overset{\perp}{\oplus} W$.
Soit $x\in E$, on écrit $x=x_F+x_{G^\perp}+x_W$, ce qui donne
$$s_G(x)=s_G(x_F+x_W)+s_G(x_{G^\perp})=x_F+x_W-x_{G^\perp} \text{ car } x_W\in G,$$
puis
$$s_F\circ s_G (x)=s_F(x_F+x_W-x_{G^\perp}) =x_F-x_W+x_{G^\perp}= x_F+x_{G^\perp}-x_W \text{ car }
x_{G^\perp}\in G^\perp \subset F^\perp,\,\, x_W\in F^\perp$$
On a également,
$$s_F(x)=s_F(x_F+s_G(x_W+x_{G^\perp})=x_F-x_W-x_{G^\perp} \text{ car } x_W,\,x_{G^\perp}\in F^\perp,$$
puis
$$s_G\circ s_F (x)=s_G(x_F-x_W-x_{G^\perp}) =x_F-x_W+x_{G^\perp}= x_F+x_{G^\perp}-x_W \text{ car }
x_{G^\perp}\in G^\perp,\,\, x_W\in G$$
et enfin
$$s_{F\oplus G^\perp}(x)= x_F+x_{G^\perp}-x_W.$$
Ceci prouve que $s_F\circ s_G = s_G \circ s_F = s_{F\oplus G^\perp}$.
On munit $\R[X]$ du produit scalaire $(P,Q)=\dsp\int_0^1P(t)Q(t)\ud t$.
On définit $\varphi$ sur $\R[X]^2$, par $$\varphi (A,B)=\dsp\int_0^\infty A(t)B(t)\ee^{-t}\ud t.$$
On définit $\varphi$ sur $\R[X]^2$, par $$\varphi (A,B)=\dsp\int_0^\infty A(t)B(t)\ee^{-t}\ud t.$$
Calculer $\underset{(a,b)\in \R^2}{\text{Inf}}\dsp\int_0^1x^2\abs{\ln(x)-ax-b}^2\ud x$.
On note $E=\{f\in \CC(]0,1[,\R),\,\dsp\int_0^1f(x)x^2\ud x< \infty\}$. On a $E$ un $\R$-e-v.
On définit pour $(f,g)\in E^2$, $\scal{f}{g}=\dsp\int_0^1f(x)g(x)x^2\ud x$ , puis on vérifie que
$\scal{\cdot}{\cdot}$ est un produit scalaire sur $E$.
On note enfin, $F=\R_1[x]\subset E$.
Déterminer $\displaystyle \inf_{a,b\in\R}\int_0^\pi \big(\sin x-ax-bx^2\big)^2\,\ud x$.
Pour le produit scalaire $\scal{f}{g}=\dsp \int_a^b fg$, une base orthonormée de l'ensemble $V$ des fonctions polynomiales de la forme $ax+bx^2$ est \begin{equation*} e_1 :x\mapsto\sqrt{\frac{3}{\pi^3}}\;x \qquad e_2:x\mapsto \sqrt{\frac{5}{\pi}}\;(x^2-\frac{3\pi}{4}). \end{equation*} La projection de $g=\sin$ sur~$V$ est $h=\scal{e_1}{g}\,e_1+\scal{e_2}{g}\,e_2$. On trouve alors \begin{equation*} \inf = {\frac{\pi}{2}}-\frac{8}{\pi}+\frac{160}{\pi^3}-\frac{1280}{\pi^5},\quad b=\dfrac{20\pi^2-320}{\pi^5},\,\quad a= 12\dfrac{20-\pi^2}{\pi^4} \end{equation*}
Déterminer $a,b\in \R$ tels que $\dsp\int_0^\infty \ee^{-t}(t^2-at-b)^2\ud t $ soit minimal.
On note $E=\R[x]$ l'ensemble des fonctions polynômiales de degré inférieur ou égale à $n$, et
$F=\{P\in E,\,P(x)=a+bx\}=\Vect(1,x)$ un s-e-v de $E$.
On définit sur $E$ le produit scalaire suivant:
$$\forall P,Q\in E,\quad \scal{P}{Q}=\int_0^\infty P(t)Q(t)\ee^{-t}\ud t.$$
Il est facile de vérifier d'abord que l'intégrale définie ci-dessus est bien définie
(voir cours sur les intégrales impropres) ensuite qu'il s'agit bien d'un produit scalaire.
La fonction $f:x\mapsto x^2\in E$ et $f\not\in F$, il s'agit alors de trouve la projection orthogonale
de $f$ sur $F$.
On va construire un b.o de $F$,
Il nous reste de déterminer le projeté orthogonale de $f$ sur $F$, pour cela il suffit de calculer $\scal{f}{e_j}$ pour $j=1,2,3$. $$\begin{array}{lcl} \scal{f}{e_1}&=&\dsp\int_0^\infty t^2\ee^{-t}\ud t =\left[-(2+2t+t^3) \ee^{-t}\right]_0^\infty =2.\\ \scal{f}{e_2}&=&\dsp\int_0^\infty (t^3-t^2)\ee^{-t}\ud t =\left[-(4+4t+2t^2+t^3) \ee^{-t}\right]_0^\infty =4. \end{array}$$ Ce qui donne $$p_F(f)= 4(t-1)+2=4t-2\Longrightarrow \boxed{ a=4,\,\, b=-2}.$$
Soit $\psi _n : \mathbb{R}^n \to \mathbb{R}$ définie par $\psi _n(x_1, \ldots , x_n)=\displaystyle \int _0^{+\infty}\text{e}^{-t}(1+x_1t+ \cdots +x_n t^n)^2\,\text{d}t$. Montrer que $\psi _n$ admet un minimum absolu sur $\mathbb{R}^n$, calculer ce minimum pour $n=3$.
On note $E=\R_n[x]$ l'ensemble des fonctions polynômiales de degré inférieur ou égale à $n$, et
$F=\{P\in E,\,P(0)=0\}=\Vect(x\mapsto x^j,\, j\in \inter{1,n})$ un s-e-v de $E$.
On définit sur $E$ le produit scalaire suivant:
$$\forall P,Q\in E,\quad \scal{P}{Q}=\int_0^\infty P(t)Q(t)\ee^{-t}\ud t.$$
Il est facile de vérifier d'abord que l'intégrale définie ci-dessus est bien définie
(voir cours sur les intégrales impropres) ensuite qu'il s'agit bien d'un produit scalaire.
La fonction $f:x\mapsto 1\in E$ et $f\not\in F$, alors $\psi_n$ n'est rien d'autre que la distance de
$f$ par
rapport à $F$ (au carrée) et d'après le cours $\psi_n$ admet un minimum.
Pour $n=3$, on va construire un b.o de $F$,
Il nous reste de déterminer le projeté orthogonale de $f$ sur $F$, pour cela il suffit de calculer $\scal{f}{e_j}$ pour $j=1,2,3$. $$\begin{array}{lcl} \scal{f}{e_1}&=&\dsp \int_0^\infty \dfrac{t\ee^{-t}}{\sqrt{2}}\ud t =\left[-(1+t) \ee^{-t}\right]_0^\infty /\sqrt{2}=\dfrac{1}{\sqrt{2}}.\\ \scal{f}{e_2}&=&\dsp\int_0^\infty \dfrac{(t^2-3t)\ee^{-t}}{\sqrt{6}}\ud t =\left[-(-1-t+t^2) \ee^{-t}\right]_0^\infty /\sqrt{6}=\dfrac{-1}{\sqrt{6}}.\\ \scal{f}{e_3}&=&\dsp\int_0^\infty \dfrac{(t^3-8t^2+12t)\ee^{-t}}{\sqrt{48}}\ud t =\left[-(2+2t-5t^2+t^3) \ee^{-t}\right]_0^\infty /\sqrt{48}=\dfrac{2}{\sqrt{48}}. \end{array}$$ Ce qui donne $$p_F(f)= \dfrac{2}{\sqrt{48}}\dfrac{t^3-8t^2+12t}{\sqrt{48}}+\dfrac{-1}{\sqrt{6}}\dfrac{t^2-3t}{\sqrt{6}}+\dfrac{1}{\sqrt{2}}\dfrac{t}{\sqrt{2}}=\dfrac{1}{24}t^3+\dfrac{-1}{2}t^2+\dfrac{3}{2}t.$$ Donc $\psi_3$ admet un minimum pour $x_1=\dfrac{-3}{2},\,x_2=\dfrac{1}{2}$ et $x_3=\dfrac{-1}{24}$ (attention au signes), et on a : $$\psi_3(\dfrac{-3}{2},\dfrac{1}{2},\dfrac{-1}{24})=\int_0^\infty (1-\dfrac{3}{2}t+\dfrac{1}{2}t^2-\dfrac{1}{24}t^3)^2\ee^{-t}\ud t =\dfrac{1}{4}.$$
Pour $n\in \N^*$ et $P\in \R_{n-1}[X]$, montrer que le minimum de $\dsum_{k=0}^n \left( k^n-P(k)\right)^2$ existe et le calculer.
On note $E=\R_n[X]$, l'application $\scal{P}{Q}=\dsum_{k=0}^nP(k)Q(k)$ définie un produit scalaire sur $E$.
De plus, si on note $F=\Vect (1,X,\cdots,X^{n-1})$ alors $F$ est un s-e-v de $E$ (de dimension $n$), et d'apès le cours $$ \min_{P\in F}\left(\dsum_{k=0}^n \left( k^n-P(k)\right)^2\right) =\ud (X^n,F)^2$$ Donc ce minimum existe, de plus en notant $P_F(X^n)$ la projection orthogonale de $X^n$ sur $F$, on a $$\min_{P\in F}\left(\dsum_{k=0}^n \left( k^n-P(k)\right)^2\right) =\ud (X^n,F)^2 = \norme{X^n-P_F(X^n)}^2.$$
On note dans la suite, pour $j\in \inter{0,n}$ $$L_j(X)=\dsp\prod_{\substack{0\leq i\leq n\\i\neq j}}\dfrac{X-i}{j-i}$$ alors la famille $(L_0,\cdots,L_n)$ est une base de $E$, de plus, $$\forall (i,j)\in \inter{0,n}^2,\quad \scal{L_i}{L_j} =\dsum_{k=0}^n L_i(k)L_j(k) =\delta_{i\,j}.$$ Notons aussi, pour tout $j\in \inter{0,n}$, $\alpha_j$ le coefficient de $X^n$ dans $L_j(X)$, ainsi, $$ \alpha_j = \dsp\prod_{\substack{0\leq i\leq n\\i\neq j}}\dfrac{1}{j-i} = \dfrac{1}{j-0} \cdots \dfrac{1}{j-(j-1)} \dfrac{1}{j-(j+1)} \cdots \dfrac{1}{j-n} =\dfrac{(-1)^{n-j}}{(n-j)!j!}=\dfrac{(-1)^{n-j}\binom n j}{n!}$$ On pose aussi, $$\forall j\in \inter{0,n-1},\quad Q_j =\alpha_j^{-1}L_j-\alpha_n^{-1} L_n\in F$$ La famille $(Q_0,\cdots,Q_{n-1})$ est une base de $F$ (petit exo 😂). Cherchons maintenant $F^\perp $. Soit $P=\dsum \beta_kL_k$ alors $$ P\in F^\perp \Longleftrightarrow \forall j\in \inter{0,n-1},\quad \scal{P}{Q_j}=0 $$ autrement dit, pour tout $0\leq j\leq n-1$, $$ \scal{\dsum_{k=0}^n \beta_kL_k}{\alpha_j^{-1}L_j-\alpha_n^{-1} L_n}=0 = \dfrac{\beta_j}{\alpha_j} -\dfrac{\beta_n}{\alpha_n}$$ Ce qui donne $\beta_j=\beta_n \dfrac{\alpha_j}{\alpha_n}$, soit $$F^\perp =\Vect \left(\dsum_{k=0}^n \alpha_j L_j\right)=\Vect (P_0) \text{ avec } P_0= \dfrac{\dsum_{j=0}^n \alpha_jL_j}{\sqrt{\dsum_{k=0}^n\alpha_k^2}}$$ Pour terminer, d'après le cours $$\ud (X^n,F)^2 = \norme{X^n-P_F(X^n)}^2=\norme{\scal{X^n}{P_0}P_0}^2 $$ Soit $$\textcolor{blue}{\boxed{\ud (X^n,F)^2 =\dfrac{\left(\dsum_{k=0}^n k^n\alpha_k\right)^2}{\dsum_{k=0}^n\alpha_k^2 }}}$$ Pour aller plus loins, on peut montrer facilement (en utilisant $(1+x)^n(1+x)^n$) que $$\dsum_{k=0}^n\alpha_k^2= \dsum_{k=0}^n\dfrac{\binom{ n}{ j}^2}{n!^2}=\dfrac{1}{n!^2} \binom{2n}{n}$$ également (démonstration par récurrence), $$\dsum_{k=0}^n k^n\alpha_k=\dfrac{1}{n!}\dsum_{k=0}^n(-1)^{n-k}k^n\binom{n}{k} =1.$$ Ainsi, $$\textcolor{blue}{\boxed{\ud (X^n,F)^2 =\dfrac{n!^4}{(2n)! }}}$$