Une suite de VA $(X_n)$ d'un espace probabilité $(\Omega,\mathcal{F},P)$, prend ses valeurs dans $\{0,\frac{1}{n},\cdots,\frac{n-1}{n}\}$, et vérifie: $$\forall k\in \inter{0,n-1},\quad P(X_n=\frac{k}{n})=\alpha_n\left(\ee^{k/n}-1\right),\quad\text{ avec }\alpha_n=\dfrac{1}{\sum_{k=0}^{n-1}(\ee^{k/n}-1)}.$$
Dans une urne figurent $N$ boules numérotées de 1 à $N$ (avec $N \geq 2$). Dans celle-ci on opère des tirages successifs (avec remise) jusqu'à l'obtention d'une série de $k$ boules consécutives identiques ($k \geq 2$). On note $T$ la variable aléatoire déterminant le nombre de tirages opérés à l'arrêt du processus.
On note dans la suite l'évènement $\text{\textcolor{red}{SUCCES}}$ :="On a obtenu une série de $k$ boules consécutives identiques".
On note également pour $n\in \N^*$, l'évènement $A_n$: "On a obtenu un $\text{\textcolor{red}{SUCCES}}$ au cours de $n$ premières tirages", ainsi que $u_n=P(A_n)$.
Il est clair que $A_n\subset A_{n+1}$. On a aussi (les tirages sont supposées indépedantes) $$\forall n\geq 2,\quad P(S_n)=\dfrac{1}{N},\quad P\left(\overline{S_n}\right)=\dfrac{N-1}{N}.$$ Les évènements $A_1,\cdots, A_{k-1}$ sont impossibles, et on a $$ A_k =S_2\cap S_3\cap S_4\cdots \cap S_{k-1}\cap S_k.$$ Donc $$u_1=u_2=\cdots=u_{k-1}=0 \text{ et } u_k=\dfrac{1}{N^{k-1}}.$$ L'évènement $A_{n+1}\setminus A_n$ signifie qu'on a obtenu un $\text{\textcolor{red}{SUCCES}}$ pour la première fois au range $n+1$, i.e. $$A_{n+1}\setminus A_n = S_{n+1}\cap S_n \cdots \cap S_{n+1-(k-1)} \cap \overline{ S_{n+1-k}}\cap \overline{A_{n-k}}.$$ En effet, les $k$ tirages :$n+1-k,\cdots,n+1$ sont identiques, et le triage $n+1-k$ est différent de tirage $n-k$ On en déduit alors, que : $$\forall n\geq k,\quad u_{n+1}-u_n=(1-u_{n-k})\dfrac{1}{N^{k-1}}\dfrac{N-1}{N}\geq 0$$ La suite $(u_n)$ est croissante, majorée (par $1$), donc convergente. On vérifie facielement que $$u_n\tendversN\,1.$$ La suite $(A_n)$ est une suite croissante, d'après le théorème continuité monotone $$P\left(\dsp \bigcup_{n\in \N^* }A_n\right) =\lim_{n\to \infty}P(A_n)=\lim_{n\to \infty} u_n=1.$$ L'évènement : "Le processus ne s'arrête pas" se traduit par $\overline{\dsp \bigcup_{n\in \N^* }A_n}$, or $$P\left(\overline{\dsp \bigcup_{n\in \N^* }A_n}\right)=1- P\left(\dsp \bigcup_{n\in \N^* }A_n\right)=0.$$ Ainsi $T$ est finie et bien définie.
La série $\dsum P(T=j)$ converge (sa somme vaut $1$), plus précisement $$1=\dsum_{j\geq 1}P(T=j) =\dsum_{j\geq k}P(T=j)=\dsum_{n\geq 0} P(T=k+n).$$ On en déduit alors que la série $\dsum P(T>n)$ converge puisque $$\forall n\geq 1,\quad P(T>n) =\dfrac{N^k}{N-1} P(T=k+n)\leq P(T=k+n).$$ On en déduit que $T$ admet une espérance finie, et (voirs aussi exercice précédent), et $$E(T)=\dsum_{n\geq 0}P(T>n)=P(T>0)+\dsum_{n\geq 1}P(T>n) =1+\dsum_{n\geq 1}\dfrac{N^k}{N-1} P(T=k+n) =1+\dfrac{N^k}{N-1}\left(1-P(X=k)\right) $$ Soit $$\textcolor{blue}{\boxed{E(T)=\dfrac{N^k-1}{N-1}}}$$
On lance une pièce équilibrée consécutivement. On s'arrête dès que deux piles successifs sont apparus. On note $X$ le nombre de lancers jusqu'à l'arrêt. Trouver la loi de $X$, s'agit-il d'une VA?
On note $P_n$ (resp. $F_n$) l'événement : "On a obtenu pile au $n$ème lancer" (resp. "On a obtenu face au $n$ème lancer").
Il est clair, que
$$P(X=1)=0,\quad P(X=2)=P(P_1\cap P_2)=\dfrac{1}{4},\quad P(X=3)=P(F_1\cap P_2\cap P_3)=\dfrac{1}{8}.$$
Les événements ($F_1,\,P_1\cap P_2,\,P_1\cap F_2)$ forment un système complet, donc, pour tout $n\geq 3$,
on a
$$P(X=n)=P(F_1)P_{F_1}(X=n)+P(P_1\cap P_2)P_{P_1\cap P_2}(X=n)+P(P_1\cap F_2)P_{P_1\cap F_2}(X=n).$$
Or,
On en déduit, pour tout $n\geq 2$, $$P(X=n)=\dfrac{2P(X=n-1)+P(X=n-2)}{4}\Longrightarrow P(X=n)=\alpha \left(\frac{1+\sqrt{5}}{4}\right)^n+\beta \left(\frac{1-\sqrt{5}}{4}\right)^n.$$ On trouve, après calcul, $\alpha =\dfrac{\sqrt{5}-1}{2\sqrt{5}},\quad \beta\dfrac{\sqrt{5}+1}{2\sqrt{5}}$.
Une ligne de métro compte 4 arrêts. Le train met une minute pour aller d'une station à l'autre et s'y
arrête pendant un temps négligeable. Un voyageur fatigué monte à la station $0$ au temps $t=0$ et
s'endort; la VA $T$ associée au temps qu'il met à se réveiller suit une loi géométrique.
Trouver la loi suivi par $X$, VA représentant le numéro de la station où il se réveille.
L'événement $(X=0)$ peut s'écrire comme $\dsp \bigcup_{k\in \N^*} (T=4k)$, Donc $$P(X=0)=\dsum_{k\geq 1}p(1-p)^{4k-1}=\dfrac{p}{1-p}\dsum_{k\geq 1}(1-p)^{4k}=\dfrac{p}{1-p}\left(-1+\dfrac{1}{1-(1-p)^4}\right)=\dfrac{p(1-p)^3}{1-(1-p)^4}.$$ De même, $$\begin{array}{lcl} P(X=1)&=&\dsum_{k\in \N}p(1-p)^{(4k+1)-1}=\dfrac{p}{1-(1-p)^4}\\ P(X=2)&=&\dsum_{k\in \N}p(1-p)^{(4k+2)-1}=\dfrac{p(1-p)}{1-(1-p)^4}\\ P(X=3)&=&\dsum_{k\in \N}p(1-p)^{(4k+3)-1}=\dfrac{p(1-p)^2}{1-(1-p)^4}\\ \end{array}$$
On lance une pièce avec une probabilité $\frac23$ d'obtenir pile, les lancers étant indépendantes. On
note $X$ la VA représentant le nombre de lancers nécessaire pour obtenir deux piles consécutifs.
Donner la loi de $X$ et calculer son espérance.
On note $P_n$ (resp. $F_n$) l'événement : "On a obtenu pile au $n$ème lancer" (resp. "On a obtenu face au $n$ème lancer").
Il est clair, que
$$P(X=1)=0,\quad P(X=2)=P(P_1\cap P_2)=\dfrac{4}{9},\quad P(X=3)=P(F_1\cap P_2\cap P_3)=\dfrac{4}{27}.$$
Les événements ($F_1,\,P_1\cap P_2,\,P_1\cap F_2)$ forment un système complet, donc, pour tout $n\geq 3$,
on a
$$P(X=n)=P(F_1)P_{F_1}(X=n)+P(P_1\cap P_2)P_{P_1\cap P_2}(X=n)+P(P_1\cap F_2)P_{P_1\cap F_2}(X=n).$$
Or,
On en déduit, pour tout $n\geq 2$, $$P(X=n)=\dfrac{3P(X=n-1)+2P(X=n-2)}{9}\Longrightarrow P(X=n)=\alpha \left(\frac{2}{3}\right)^n+\beta \left(\frac{-1}{3}\right)^n.$$ On trouve, après calcul, $\alpha =\dfrac{2}{3},\quad \beta=\dfrac{4}{3}$.
$n$ VA indépendantes $X_1,\cdots,X_n$ suivent chacune une loi de Bernoulli de paramètres respectives
$1,\frac{1}{2},\cdots,\frac{1}{n}$.
Trouve la loi de la VA $N$ qui vaut $0$ si $X_1=X_2=\cdots=X_n=1$ et $\dsp \min\{k\in
\inter{1,n},\,X_k=0\}$ sinon.
Il est clair que $P(N=0)=\dsp\prod_{i=1}^n P(X_i=1)=\dsp \prod_{i=1}^n\frac{1}{i}=\frac{1}{n!}.$ D'autre part, $P(N=1)=P(X_1=0)=0$, et $$\forall k\in \inter{2,n},\quad P(N=k)=\left(\prod_{i=1}^{k-1}P(X_i=1)\right)\,P(X_k=0)=\frac{1}{(k-1)!}\frac{k-1}{k}=\dfrac{1}{(k-2)!}\dfrac{1}{k}.$$
Soit $X$ et $Y$ deux variables aléatoires indépendantes suivant des lois de Poisson de paramètres $\lambda $ et $\mu $. Reconnaître la loi de $X$ sachant $X + Y = n$.
Soit $k\in \N$ avec $k\leq n$, on a (en utilisant le faite que $X$ et $Y$ sont indépendantes), $$P_{(X+Y=n)}(X=k)=\dfrac{P(X=k \cap X+Y=n)}{P(X+Y=n)}=\dfrac{P(X=k)P(Y=n-k)}{P(X+Y=n)}.$$ Or $$P(X+Y=n)=\dsum_{k=0}^nP(X=k)P(Y=n-k)=\dsum_{k=0}^n\dfrac{\ee^{-\lambda}\lambda^k}{k!}\dfrac{\ee^{-\mu}\mu^{n-k}}{(n-k)!}=\ee^{-(\lambda+\mu)}\dfrac{(\lambda+\mu)^n}{n!} $$ On en déduit, $$\forall n\in \N,\quad P_{(X+Y=n)}(X=n)=\dfrac{\ee^{-\lambda}\lambda^k\ee^{-\mu}\mu^{n-k}}{k!(n-k)!}\dfrac{n!}{\ee^{-(\lambda+\mu)}(\lambda+\mu)^n}={n\choose k}\left(\dfrac{\lambda}{\lambda+\mu}\right)^k\left(\dfrac{\mu}{\lambda+\mu}\right)^{n-k}.$$ En notant $p=\dfrac{\lambda}{\lambda+\mu}$ donc $1-p=\dfrac{\mu}{\lambda+\mu}$, on reconnaît une loi binomiale de paramètres $n$ et $p$.
Soit $X$ et $Y$ deux variables aléatoires discrètes indépendantes. On suppose que $X$ et $Y$ suivent des lois de Poisson de paramètres $\lambda $ et $\mu $. Quelle est la loi suivie par $X + Y$~?
Soit $n\in \N$, on a $(X+Y=n)=\dsp\bigcup_{k=0}^n (X=k\cup Y=n-k)$, donc $$\begin{array}{lcl} P(X+Y=n)&=&\dsum_{k=0}^nP(X=k)P(Y=n-k)=\dsum_{k=0}^n\dfrac{\ee^{-\lambda}\lambda^k}{k!}\dfrac{\ee^{-\mu}\mu^{n-k}}{(n-k)!}\\ &=&\dfrac{\ee^{-\lambda}\ee^{-\mu}}{n!}\dsum_{k=0}^n\dfrac{n!}{k!(n-k)!}\lambda^k\mu^{n-k}= \ee^{-(\lambda+\mu)}\dfrac{(\lambda+\mu)^n}{n!} \end{array}$$ On en déduit que $X+Y\hookrightarrow \mathcal{P}(\lambda+\mu)$.
Soient $X$ et $Y$ deux variables aléatoires indépendantes géométriques de paramètres $p$ et $q$. Calculer l'espérance de $Z = \max (X,Y)$.
On suppose que $p,q\in ]0,1[$, soit $n\in \N^*$, on a $$(Z=n)=\left(X=n \cap Y < n\right) \cup \left( X< n \cap Y=n\right) \cup \left(X=n \cap Y=n\right).$$ En utilisant l'indépendance de $X$ et $Y$, on trouve: $$\begin{array}{lcl} P(Z=n)&=&P(X=n)\dsum_{k=1}^{n-1}P(Y=k)+P(Y=n)\dsum_{k=1}^{n-1}P(X=k)+P(X=n)P(Y=n)\\ &=&p(1-p)^{n-1}\left(1-(1-q)^{n-1}\right)+q(1-q)^{n-1}\left(1-(1-p)^{n-1}\right)+pq(1-p)^{n-1}(1-q)^{n-1}\\ &=&p(1-p)^{n-1}+q(1-q)^{n-1}-(p+q-pq)\left(1-(p+q-pq)\right)^{n-1} \end{array}$$ En notant $W$ la VAD t.q $W\hookrightarrow \mathcal{G}(p+q-pq)$, on trouve: $$E(Z)=E(X)+E(Y)-E(W)=\dfrac{1}{p}+\dfrac{1}{q}-\dfrac{1}{p+q-pq}.$$
Soit $X$ et $Y$ deux variables aléatoires discrètes indépendantes. On suppose que celles-ci suivent des
lois géométriques de paramètres $p$ et $q$.
Déterminer $P(X > n)$ pour $n \in \mathbb{N}$. En déduire la loi de $Z = \min (X,Y)$. La loi de $Z$
est-t-elle géométrique~?
Soit $n\in \N$, on a $(X>n)=\dsp{\bigcup_{k\geq n+1}}(X=k)$, ce qui donne $$P(X>n)=\dsum_{k=n+1}^\infty P(X=k)=\dsum_{k\geq n+1}p(1-p)^{k-1}=p\dsum_{k=0}^\infty (1-p)^{k+n}=(1-p)^n.$$ Soit $n\in \N^*$, on a $(Z=n)=\left( X>n\cap Y=n\right)\cup \left(X=n \cap Y>n\right)\cup \left( X=n \cap Y=n\right)$, vu que $X$ et $Y$ sont indépendantes, on conclut: $$\begin{array}{lcl} P(Z=n)&=&P(X>n)P(Y=n)+P(X=n)P(Y>n)+P(X=n)P(Y=n)\\ &=&(1-p)^nq(1-q)^{n-1}+p(1-p)^{n-1}(1-q)^n+pq(1-p)^{n-1}(1-q)^{n-1}\\ &=&\left((1-p)(1-q)\right)^{n-1}\left(q(1-p)+p(1-q)+pq\right)\\ &=& (p+q-pq)\left((1-p)(1-q)\right)^{n-1}=(p+q-pq)\left(1-(p+q-pq)\right)^{n-1}. \end{array}$$ On en déduit que $Z$ est une VAD qui suit une loi géométrique de paramètre $p+q-pq$.
Soit $(X_n)$ une suite de variables aléatoires mutuellement indépendantes suivant la même loi de Bernoulli de paramètre $p \in ]0, 1[$. On note pour tout $n$ dans $\N^*$ : $$S_n =\dfrac{X_1+\cdots+X_n}{n},\quad Y_n =\dfrac{X_n+X_{n+1}}{2},\quad T_n=\dfrac{Y_1+\cdots+Y_n}{n}.$$
Soit $(X_n)$ une suite de variables aléatoires indépendantes à valeur dans $\N$, de même loi $X$, d'espérance $m$ et de variance $\sigma^2$. Soit $N$ une variable aléatoire à valeur dans $\N^*$ admettant une espérance et une variance finies. On pose $S=\dsum_{k=0}^N X_k$,
Pour $n\in \N^*$, on note $S_n=\dsum_{k=0}^nX_k$, pour évaluer la probabilisé de l'événement $(S=k)$
(avec $k\in \N$),
on peut alors écrire:
$(S=k)= \dsp\bigcup_{n\in \N^*} ((N=n) \cap (S_n=k))$. Ce qui donne
$$\forall k\in \N,\quad P(S=k)=\dsum_{n\geq 0} P((N=n) \cap (S_n=k))=\dsum_{n\geq 1} P(N=n)P(S_n=k).$$
Montrons que la famille $(kP(N=n)P(S_n=k))_{(n,k)\in \N^*\times\N}$ est sommable.
Soit $n\in \N^*$, la série $\dsum k P(N=n)P(S_n=k)$ est convergente, en effet, puisque $X_j$ admet une
espérance finie $E(X)$
donc $S_n$ admet une espérance finie (et $E(S_n)=nE(X)$) ce qui implique que
$$ \dsum_{k\geq 0} k P(N=n)P(S_n=k)\text{ converge, et } \dsum_{k\geq 0} k P(N=n)P(S_n=k)=P(N=n)
E(S_n)=nP(N=n)E(X).$$
D'autre part la série $\dsum nP(N=n)$ converge car $N$ admet une espérance fini, et $\dsum
nP(N=n)=E(N)$.
Ainsi la famille $(kP(N=n)P(S_n=k))_{(n,k)\in \N^*\times\N}$ est sommable. Donc
$$\dsum_{(n,k)\in \N^*\times\N}(kP(N=n)P(S_n=k))=\dsum_{n\geq 1}\dsum_{k\geq
0}kP(N=n)P(S_n=k)=E(X)\dsum_{n\geq 1}nP(N=n)=E(X)E(N).$$
D'autre par, ceci prouve que la série $\dsum_k kP(S=k)$ converge, donc $S$ admet une espérance finie, et
on a
$$E(S)=\dsum_{k\geq 0}kP(S=k)= \dsum_{(n,k)\in \N^*\times\N}(kP(N=n)P(S_n=k))=E(X)E(N).$$
Soient $(X_i)_{1\leq i\leq n}$, $n\,$ VAD mutuellement indépendantes. Pour $i\in \inter{1,n}$, on pose
$Y_i=\dsum_{k=1}^iX_i$.
Expliciter $M=\left(\mathrm{Cov}(Y_i,Y_j)\right)_{i,j\in \inter{1,n}}$ et l'exprimer en fonction de
$A=\begin{pmatrix}
1&\cdots&1\\
&\ddots&\\
0&&1
\end{pmatrix}$. Proposer un encadrement de valeurs propres de $M$.
Comme $\mathrm{Cov}(X,Y)=\mathrm{Cov}(Y,X)$ on en déduit que la matrice $M$ est symétrique.
Soit $(i,j)\in \inter{1,n}^2$, on suppose que $j\geq i$, en utilisant la bilinéarité de la covariance, on
trouve:
$$\mathrm{Cov}(Y_i,Y_j)=
\mathrm{Cov}(\dsum_{k=1}^iX_k,\dsum_{s=1}^jX_s)=\dsum_{k=1}^i\dsum_{s=1}^j\mathrm{Cov}(X_k,X_s)=\dsum_{k=1}^i\dsum_{s=1}^j
\delta_{k,\,s}\mathrm{Cov}(X_k,X_s)$$
Autrement dit, avec l'hypothèse $j\geq i$, $\mathrm{Cov}(Y_i,Y_j)=i\mathrm{Cov}(X,X)=iK$, donc $M$ est de
la forme
$$M=K\begin{pmatrix}
1&1&1&1&\cdots&1&1\\
1&2&2&2& &&2\\
1&2&3&3& &&3\\
1 &2 &3 &4& & &4\\
& & & & \ddots & &\vdots\\
\vdots & & & \vdots & & n-1&n-1\\
1&2&3&4 & \cdots &n-1&n
\end{pmatrix}=K\, ( {\,}^t A \, A)$$
La matrice $M$ étant symétrique, donc diagonalisable. Notons $\Sp (A)=\{\lambda_1,\cdots,\lambda_n\}$.
Soit $k\in \inter{1,n}$ et $Z_k={\,}^t (\alpha_1,\cdots,\alpha_n)\in \R^n$ un vecteur propre associé à
$\lambda_k$ (donc $Z_k\neq 0$, et quitte à diviser $Z_k$ par une constante, on peut supposer que
$\norme{Z_k}_2=1)$. On a alors,
$$MZ_k=\lambda_kZ_k\Longrightarrow K{\,}^t A AZ_k =\lambda_kZ_k\Longrightarrow {\,}^t Z_k{\,}^t
A_kAZ_k=\dfrac{\lambda_k}{K}{\,}^t Z_kZ_k$$
Autrement dit, $\norme{AZ_k}^2=\dfrac{\lambda_k}{K}$ ce qui montre que $\lambda_k>0$, d'autre part,
$$AZ_k=\begin{pmatrix}
\alpha_1+\alpha_2+\cdots+\alpha_n\\
\alpha_2+\cdots+\alpha_n\\
\vdots\\
\alpha_{n-1}+\alpha_n\\
\alpha_n
\end{pmatrix}\Longrightarrow \norme{AZ_k}^2\leq \max_{i\in
\inter{1,n}}(\abs{\alpha_i})\dsum_{j=1}^nj^2\leq \dfrac{n(n+1)(2n+1)}{6}$$
Donc $\lambda_k\leq \dfrac{K}{6}(2n^3+3n^2+n)$.
Soit $(X_n)$ une suite de variables aléatoires mutuellement indépendantes suivant la même loi de Bernoulli de paramètre $p \in ]0, 1[$. On note pour tout $n$ dans $\N^*$ : $ Y_n =\dfrac{X_n+X_{n+1}}{2},\quad S_n=\dsum_{i=1}^nY_i.$
Soit $(a,b,c)\in\mathbb{R}^3$ et $M=\left( \begin{array}{ccc}a&b&c\\ a&b&c\\ a&b&c \end{array} \right)$.
Soit $(X_n)_{n\geq 1}$ une suite de variables aléatoires deux à deux indépendantes. On suppose que chaque $X_n$ suit une loi de Bernoulli de paramètre $p_n$. On note $S_n=X_1+\dots+X_n$ et on souhaite démontrer que, $$ \forall \varepsilon>0, \lim_{n\to+\infty}P\left(\left|\frac {S_n}n-\frac 1n\sum_{k=1}^n p_k\right|\geq \varepsilon\right)=0.$$
Soit $X$ une VAD tel que $X(\Omega)=\{-1,0,1\}$ et $P(X=-1)=P(X=0)=P(X=1)=1/3$. On pose $Y=X^2$.
$X$ et $Y$ désignent deux variables aléatoires discrètes à valeurs dans $\N$ et indépendantes.
On suppose à partir de maintenant que $X\hookrightarrow \mathcal{P}(\lambda)$ avec $\lambda>0$ et qu'il existe $p\in ]0; 1[$ tel que, pour tout $k\in \N, P (Y = k) = p(1 - p)^k$. On considère la matrice aléatoire $A=\begin{pmatrix} X&X+Y\\0&Y \end{pmatrix}$.
Soient $X,\,Y$ deux VAD indépendantes suivant une loi géométrique de même paramètre $p\in ]0,1[$. Donner la loi de $\abs{X-Y}$.
On pose $Z=\abs{X-Y}$, alors $Z(\Omega)=\N$. $$P(Z=0)=P(X=Y)=\dsum_{k=1}^\infty P(X=k,\,Y=k)=\dsum_{k=1}^\infty p^2(1-p)^{2(k-1)}=\dfrac{p^2}{1-(1-p)^2}.$$ Soit $k\in \N^*$, l'événement $(Z=k)$ peut s'écrire sous la forme $$(Z=k)= (X-Y=k) \cup (Y-X=k)= \bigcup_{n\in \N^*} (X=n+k,\,Y=n)\cup (Y=n+k,\,X=n).$$ Comme $X,\,Y$ sont indépendantes et les événements ci-dessous sont incompatibles, alors: $$ \begin{array}{lcl} P(Z=k)&=&\dsum_{n\in\N} P(X=n+k)P(Y=n)+P(X=n)P(Y=n+k)\\ &&\\ &=& \dsum_{n\in\N}p(1-p)^{n+k-1}p(1-p)^{n-1}+p(1-p)^{n-1}p(1-p)^{n+k-1}=2p^2(1-p)^{k}\dsum_{n\geq 1} (1-p)^{2n-2}\\ &=&\dfrac{2p^2(1-p)^{2k}}{1-(1-p)^2}=\dfrac{2p(1-p)^k}{2+p} \end{array} $$
Soit $n\in \N^*$. On considère une suite de VAD $(X_k)_{k\in \N^*}$ indépendantes de même loi : $X_k\hookrightarrow \mathcal{U}(\inter{1,n})$. On souhaite trouver le nombre moyen de tirages nécessaire pour obtenir tous les numéros de $1$ à $n$.
On note $T_k$ le nombre de tirages nécessaire pour obtenir $k$ numéro différents $(k\in \inter{1,n})$ et $Z_1=T_1$, $Z_k=T_k-T_{k-1}$ pour $k\in \inter{2,n}$.
Soit $X$ une variable aléatoire à valeurs dans $\N$ telle que $p_n=P(X=n)>0$. On note alors
$z_n=P_{(X\geq n)}(X=n)$. Montrer que la loi de $X$ est définie par la suite $(z_n)$. Quelle est la loi
de $X$ si la suite $(z_n)$ est constante?
On suppose que $p_n={n+2 \choose 2} p^3(1-p)^n,\, \,p\in ]0,1[$. Montrer que $X$ est une variable
aléatoire, trouver la suite $(z_n)$ dans ce cas et calculer $\limiteX{n}{\infty} z_n$.
Soit $n\in \N$, on a
$$z_n=P_{(X\geq n)}(X=n)=\dfrac{P(X\geq n \cap X=n)}{P(X\geq n)}=\dfrac{P(X=n)}{\dsum_{k=n}^\infty
P(X=k)}=\dfrac{p_n}{\dsum_{k=n}^\infty p_k}=\dfrac{p_n}{1-(p_0+\cdots+p_{n-1})}.$$
Montrons que la loi de $X$ peut être déterminée par la suite $(z_n)$.
$$z_0=\dfrac{p_0}{1}\Longrightarrow p_0=z_0,\,z_1=\dfrac{p_1}{1-p_0}\Longrightarrow p_1=z_1(1-z_0)$$
de même, $z_2=\dfrac{p_2}{1-p_0-p_1}$ ce qui donne $p_2=z_2(1-z_0-z_1(1-z_0))=z_2(1-z_0)(1-z_1)$, on
montre alors par récurrence sur $n\in \N$,
$$p_0=z_0,\quad \forall n\geq 1,\,p_n=z_n\prod_{k=0}^{n-1}(1-z_k).$$
Dans le cas ou la suite $(z_n)$ est constante, alors, pour tout $n\geq 1$, on a $p_n=p_0(1-p_0)^{n}$.
Donc $X+1\hookrightarrow\mathcal{G}(p_0)$.
Avant de traiter l'exemple donné, rappelons le résultat suivant,
$$\forall x\in ]-1,1[,\quad \dsum_{k\geq 0}x^k=\dfrac{1}{1-x},\quad \dsum_{k\geq
0}(k+1)x^k=\dfrac{1}{(1-x)^2},\quad \dsum_{k\geq 0}(k+2)(k+1)x^k=\dfrac{2}{(1-x)^3}.$$
Comme $p\in ]0,1[$, alors $p_n\geq 0$ pour tout $n\in \N$ et $\dsum p_n$ converge, de plus,
$$\dsum_{n\geq 0} p_n=\dsum_{n\geq 0}{n+2 \choose 2} p^3(1-p)^n=\dfrac{p^3}{2}\dsum_{n\geq
0}(n+2)(n+1)p^n=\dfrac{p^3}{2}\dfrac{2}{\left(1-(1-p)\right)^3}=1.$$
Donc $X$ est une VAD. Soit $n\geq 0$, calculons $P(X\geq n)$,
$$\begin{array}{lcl}
P(X\geq n)&=&\dfrac{p^3}{2}\dsum_{k=n}^\infty (k+2)(k+1)(1-p)^k=\dfrac{p^3(1-p)^n}{2}\dsum_{k=0}^\infty
(k+2+n)(k+1+n)(1-p)^k\\
&=&\dfrac{p^3(1-p)^n}{2}\dsum_{k=0}^\infty \left((k+2)(k+1)+2n(k+1)+n^2+n\right)(1-p)^3\\
&=&\dfrac{p^3(1-p)^n}{2}\left(\dfrac{2}{p^3}+\dfrac{2n}{p^2}+\dfrac{n^2+n}{p}\right)=
\dfrac{(1-p)^n}{2}\left(2+2np+(n^2+n)p^2\right)
\end{array}$$
On en déduit,
$$\forall n\in \N,\quad z_n=\dfrac{
p^3(n+2)(n+1)(1-p)^n}{2}\dfrac{2}{(1-p)^n\left(2+2np+(n^2+n)p^2\right)}=\dfrac{p^3(n+2)(n+1)}{\left(2+2np+(n^2+n)p^2\right)}\tendversN\,p.$$
Soit $(x_n)_n$ une suite réelle telle que, pour tout $n\in \N$, on a $4x_{n+2}-5x_{n+1}+x_n=0$. Peut-t-on définir une variable aléatoire, à valeur dans $\N$, telle que, pour tout $n$, $P(X=n)=x_n$?.
Pour que cette suite définisse une variable aléatoire, il faut:
$$\mathbf{a)\,} \quad \forall n\in \N,\,x_n\geq 0,\quad \mathbf{b)\,}\quad \dsum_{n\geq 0} x_n=1.$$
Les solutions de l'équation caractéristique $4x^2-5x+1$ sont $1$ et $\frac{1}{4}$,
on en déduit qu'il existe $\alpha,\beta\in \R$ tels que, pour tout $n\in \N$, on ait
$x_n=\alpha+\beta \left(\frac{1}{4}\right)^n$.
La condition $\mathbf{b)\,}$ implique que $\limiteX{n}{\infty}x_n=0=\alpha$, donc
$x_n=\beta \left(\frac{1}{4}\right)^n$, puis $\dsum_{n\geq 0}x_n=1$
implique $\beta =\frac{3}{4}$. Si on prend $\alpha=0$ et $\beta =\frac{3}{4}$ alors les
conditions $\mathbf{a)\,},\,\mathbf{b)\,}$ sont vérifiées.
Soient $X$ et $Y$ deux variables aléatoires indépendantes et à valeurs dans $\N$. Elles suivent la même loi définie par : $\forall k\in\N,\,\, P(X = k) = P(Y = k) = pq^k$ où $p \in ]0, 1[$ et $q = 1- p$. On considère alors les variables $U$ et $V$ définies par $U = \sup(X, Y )$ et $V = \inf(X, Y )$.
Soient $X$ et $Y$ deux variables aléatoires définies sur un même espace probabilisé $(\Omega, \mathcal{F}, P)$ et à valeurs dans $\N$. On suppose que la loi du couple $(X; Y )$ est donnée par : $$\forall (i; j) \in \N^2,~~ P((X = i) \cap (Y = j)) = \dfrac{1}{\ee 2^{i+1}j!}.$$
Soit $X$ une variable aléatoire suivant la loi de Poisson de paramètre~$\lambda$
On considère un dé cubique, dont les faces sont numérotées de $1$ à $6$, truqué de sorte que la probabilité d'obtenir la face numéro $k$ soit proportionnelle à $k$ . On lance une fois le dé et on note $X$ le numéro de la face obtenue.
Déterminer la loi d'une VA $X$ telle que: $$X(\Omega)=\N^*,\quad \exists k\in ]0,1[,\,\forall n\in \N^*,\quad P(X=n)=kP(X\geq n).$$
D'après la condition vérifiée par $X$, on a
$$
P(X=1)=kP(X\geq 1)=k\dsum_{j=1}^\infty P(X=j)=k,\quad \left(\text{ car } (X\geq 1)=\bigcup_{j\geq 1}
(X=j)\right).
$$
Essayons de calculer $P(X=2)$,
$$P(X=2)=kP(X\geq 2)=k\dsum_{j\geq 2}P(X=j)=k\left(\dsum_{j\geq 1}P(X=j)-P(X=1)\right)=k(1-k).$$
Maintenant, calculons $P(X=3)$,
$$
\begin{array}{lcl}
P(X=3)&=&kP(X\geq 3)=k\dsum_{j\geq 3}P(X=j)\\
&=&k\left(\dsum_{j\geq 1}P(X=j)-P(X=1)-P(X=2)\right)\\
&=&k\left(1-k-k(1-k)\right)=k(1-k)^2.
\end{array}$$
On peut alors mettre l'hypothèse suivante: Pour tout $n\in \N^*$, $P(X=n)=k(1-k)^{n-1}$.
Pour $n=1$ l'hypothèse est vérifiée. Soit $n\in \N^*$, supposons que l'hypothèse est vraie pour tout
$k\in \inter{1,n}$ et essayons de la montrer pour $n+1$,
$$\begin{array}{lcl}
P(X=n+1)&=&kP(X\geq n+1)= k\dsum_{j=n+1}^\infty P(X=j)\\
&=&k\left(\dsum_{j=1}^\infty P(X=j)-\dsum_{j=1}^nP(X=j)\right) =k\left(1-\dsum_{j=1}^n
k(1-k)^{j-1}\right)\\
&=&k\left(1-k\dfrac{1-(1-k)^n}{1-(1-k)}\right)=k(1-k)^n
\end{array}$$
On en déduit que la relation est vérifiée au rang $n+1$, ce qui termine la démonstration.
Soit $X$ une variable aléatoire à valeurs dans $\mathbb{N}$. Montrer que $X$ admet une espérance finie si, et seulement si, la série $\dsum {P(X > n)} $ converge et qu'alors $E\left( X \right) = \dsum\limits_{n = 0}^{ + \infty } {P\left( {X > n} \right)} $.
Soit $N\geq 1$, on a $$\begin{array}{lcl} \dsum_{k=0}^NkP(X=k)&=&\dsum_{k=1}^Nk\left(P(X>k-1)-P(X>k )\right)=\dsum_{k=1}^NkP(X>k-1)-\dsum_{k=0}^NkP(X>k)\\ &=&\dsum_{k=0}^{N-1}(k+1)P(X> k)-\dsum_{k=0}^{N}kP(X> k)=-NP(X> N)+\dsum_{k=0}^{N-1}P(X>k). \end{array}$$ On en déduit, $$\forall N\geq 1,\quad \dsum_{k=0}^{N}P(X\geq k)-\dsum_{k=0}^NkP(X=k)=(N-1)P(X>N)=(N-1)\dsum_{k=N+1}^\infty P(X=k).$$ Supposons que $E(X)$ est fini, alors $(N-1)\dsum_{k=N+1}^\infty P(X=k)\leq \dsum_{k=N+1}^\infty kP(X=k)\tendvers{N}{\infty}0$, donc $$\limiteX{N}{\infty}\left(\dsum_{k=0}^{N}P(X> k)-\dsum_{k=0}^NkP(X=k)\right)=0\Longrightarrow \dsum_{k\geq 0}P(X< k)\text{ converge et, }\dsum_{k\geq 0}P(X> k)=\dsum_{k\geq 0}kP(X=k)=E(X).$$ Inversement, supposons que $\dsum_{k\geq 0}P(X> k)$ converge, d'après la relation ci-dessus, on a $$\forall N\geq 1,\,\, 0\leq \dsum_{k=0}^NkP(X=k)\leq \dsum_{k=0}^{N}P(X> k)\Longrightarrow \dsum_{k\geq 0} kP(X=k)\text{ converge}.$$
Une urne $U$ contient des boules numérotées $1,2,\,3$; une urne $V$ contient des boules numérotées $4,5,\,6$. On lance un dé. On change alors d'urne la boule dont le numéro a été tiré, on note $X_n$ le nombre de boules dans l'urne $U$. Exprimer $P(X_{n+1}=k)$ en fonction de tous les $P(X_{n+1}=j)$ possibles. En déduire que les espérances vérifiant $E(X_{n+1})=\frac{2}{3}E(x_n)+1$. Calculer $E(X_n)$.
Pour tout $n\in \N$, la variable $X_n$ prend pour valeurs $j\in \inter{0,6}$. Ainsi
$\left(X_n=j\right)_{j\in \inter{0,6}}$ forment un système complet d'événements. En utilisant la formule
de probabilités totale, on trouve:
$$\forall n\in \N,\,\forall k\in \inter{0,6},\quad
P\left(X_{n+1}=k\right)=\dsum_{j=0}^6P\left(X_n=j\right)P_{(X_n=j)}\left(X_{n+1}=k\right),$$
Or si $j\neq k-1$ ou $j\neq k+1$, alors $P_{(X_n=j)}\left(X_{n+1}=k\right)=0$.
Notons $A$ l'événement "Le numéro tiré est le numéro d'une boule de $U$", alors
$$P_{(X_n=k+1)}\left(X_{n+1}=k\right)=P_{(X_n=k+1)}(A)=\dfrac{k+1}{6},\text{ et
}P_{(X_n=k-1)}\left(X_{n+1}=k\right)=P_{(X_n=k-1)}\left(\overline{A}\right)=\dfrac{6-k+1}{6}.$$
On obtient alors,
$$P\left(X_{n+1}=0\right)=\dfrac{1}{6}P\left(X_{n}=1\right),\,P\left(X_{n+1}=6\right)=\dfrac{1}{6}P\left(X_{n}=5\right),
$$
et
$$\forall k\in
\inter{2,5},\,P\left(X_{n+1}=k\right)=\dfrac{6-k+1}{6}P\left(X_{n}=k-1\right)+\dfrac{k+1}{6}P\left(X_n=k+1\right).$$
Ce qui donne
$$\begin{array}{lcl}
E\left(X_{n+1}\right)&=&\dsum_{k=0}^6kP\left(X_{n+1}=k\right)=\dsum_{k=1}^5k\left(\dfrac{6-k+1}{6}P\left(X_{n}=k-1\right)+\dfrac{k+1}{6}P\left(X_n=k+1\right)\right)+P(X_n=5)\\
&=&\dsum_{k=1}^6 k\frac{6-k+1}{6}P(X_n=k-1)+\dsum_{k=0}^5 k\frac{k+1}{6}P(X_n=k+1)\\
&=&\dfrac{1}{6}\left(\dsum_{k=0}^64kP(X_n=k)+6\dsum_{k=0}^6P(X_n=k)\right)=\dfrac{2}{3}E(X_n)+1
\end{array}$$
On en déduit alors, que $E(X_n)=\left(\frac{2}{3}\right)^n\left(E(X_0)-3\right)+3$, comme $E(X_0)=3$
alors $E(X_n)=3$.
Une urne contient au départ une boule verte et une boule rouge. On fait des tirages successifs avec la
règle suivante: Quand une boule rouge sort, on s'arrête, quand une boule verte sort on la remet et on
rajoute une boule rouge.
On note $X$ le nombre de tirage exécutés au total, et $V_k$ l'événement : "une boule verte
est
tirée au tirage n$^{\circ}\,k$"".
Soit $X$ une variable aléatoire à valeurs dans $\mathbb{N}$ telle qu'il existe $a \in \mathbb{R}$ et $p \in \left] {0,1} \right[$ vérifiant: $$P(X = k) = a\left( \begin{gathered} n + k \\ k \\ \end{gathered} \right)p^k .$$ Calculer l'espérance et la variance de $X$.
Pour $x\in ]-1,1[$, on pose $f(x)=\dsum_{k\geq 0}x^k=\dfrac{1}{1-x}$, on sait que $f\in
\CC^\infty(]-1,1[)$, de plus,
$$f'(x)=\dsum_{k\geq 0}(k+1)x^k,\quad f''(x)=\dsum_{k\geq 0}(k+2)(k+1)x^k,\quad f^{(3)}(x)=\dsum_{k\geq
0}(k+3)(k+2)(k+1)x^k,\cdots$$
Ainsi, on peut montrer par récurrence que, pour tout $n\in \N$, pour tout
$x\in ]-1,1[,\,\,f^{(n)}(x)=n!\dsum_{k\geq 0}{n+k\choose k}x^k$.
$X$ est une variable aléatoire, alors,
$$1=\dsum_{k\geq 0}P(X=k)=a\dsum_{k\geq 0}{n+k\choose
k}p^k=\dfrac{a}{n!}f^{(n)}(p)=\dfrac{a}{n!}\dfrac{n!}{(1-p)^{n+1}}\Longrightarrow a=(1-p)^{n+1}.$$
On trouve également que $g_X(t)=\dfrac{n(1-p)^{n+1}}{(1-pt)^{n+1}}$, donc $g_X$ est de classe
$\CC^\infty$ au voisinage de $1$ (puisque $p< 1$) donc $X$ admet une espérance et une variance.
$$\begin{array}{lcl}
E(X)&=&\dsum_{k\geq 0}kP(X=k)\\
&=&\dfrac{a}{n!}\dsum_{k\geq 1}(k+n)\cdots (k+1)k p^k\\
&=&\dfrac{a}{n!}\dsum_{k\geq 0}(k+n+1)\cdots (k+2)(k+1) p^{k+1}\\
&=&\dfrac{ap (n+1)!}{n!}f^{(n+1)}(p)=\dfrac{(n+1)p}{(1-p)}.
\end{array}
$$
Calculons maintenant $E(X^2)=\dsum_{k\geq 0}k^2P(X=k)$,
$$\begin{array}{lcl}
E(X^2)&=&\dfrac{a}{n!}\dsum_{k=0}^\infty (k+n+1)\cdots (k+2)(k+1)^2 p^{k+1}\\
&=&\dfrac{a}{n!}\dsum_{k=0}^\infty (k+n+1)\cdots (k+2)(k+1)k p^{k+1}+\dfrac{a}{n!}\dsum_{k=0}^\infty
(k+n+1)\cdots (k+2)(k+1) p^{k+1}\\
&=&\dfrac{a}{n!}\dsum_{k=0}^\infty (k+n+2)\cdots (k+3)(k+2)(k+1) p^{k+2}+ \dfrac{a}{n!}pf^{(n+1)}(p)\\
&=&\dfrac{ap^2}{n!}f^{(n+2)}(p)+\dfrac{ap}{n!}f^{(n+1)}(p)\\
&=&\dfrac{p^2 (n+2)(n+1)}{(1-p)^2}+\dfrac{p(n+1)}{(1-p)}=\dfrac{(n+1)^2p^2+(n+1)p}{(1-p)^2}
\end{array}$$
On en déduit alors,
$$V(x)=E(X^2)-E(X)^2=\dfrac{(n+1)^2p^2+(n+1)p}{(1-p)^2}-\dfrac{(n+1)^2p^2}{(1-p)^2}=\dfrac{(n+1)p}{(1-p)^2}.$$
Soit $X$ une variable aléatoire suivant une loi géométrique de paramètre $p$. Calculer $E\left( {\frac{1}{X}} \right)$.
Rappelons que, pour tout $x\in ]-1,1[$, on a $$\dfrac{1}{1-x}=\dsum_{k=0}^\infty x^k,\quad -\ln(1-x)=\dsum_{k=0}^\infty \dfrac{x^{k+1}}{k+1}=\dsum_{k\geq 1}\dfrac{x^k}{k}.$$ En utilisant la formule de transfert, on a $$E\left(\frac{1}{X}\right)=\dsum_{k\geq 1}\dfrac{1}{k}p(1-p)^{k-1}=\dfrac{p}{(1-p)}\dsum_{k\geq 1}\dfrac{(1-p)^k}{k}=\dfrac{-p\ln(1-(1-p))}{1-p}=\dfrac{-p\ln(p)}{1-p}.$$
Soit $X$ une variable aléatoire à valeurs dans~$\N$.
Soit $X$ une VAD suivant la loi de Poisson de paramètre $\lambda>0$. Calculer $E\left(\frac{1}{1+X}\right)$.
$$\boxed{E\left(\frac{1}{1+X}\right)=\dfrac{1-\ee^{-\lambda}}{\lambda}}.$$
A quelle condition sur $r$ peut-on définir une VA $X$ telle que $X(\Omega)=\N$ et $P(X=n)=\dfrac{(2n)!r}{2^{3n}(n!)^2}$. Montrer que, quand cette condition est réalisée, $X$ admet une espérance et une variance et les calculer.
On pose $f(x)=\dsum_{n\geq 0}\dfrac{(2n)!r}{2^{3n}(n!)^2}x^n$, en utilisant le règle de D'Almbert, on
trouve que le rayon de convergence de cette SE est $2$, donc $f\in \CC^\infty(]-2,2[)$.
Pour tout $x\in ]-1,1[$, on a
$$\begin{array}{lcl}
f'(x)&=&\dsum_{n\geq 1}\dfrac{(2n)!r n}{2^{3n}(n!)^2}x^{n-1}\\
&=&\dsum_{n\geq 0}\dfrac{(2n+2)!r }{2^{3n+3}(n!)(n+1)!}x^{n}=\dsum_{n\geq 0}\dfrac{(2n+1)(2n)!r}{4
2^{3n}(n!)^2}x^n\\
&=&\dfrac{x}{2}f'(x)+\dfrac{1}{4}f(x)
\end{array}
$$
Ainsi $f$ est l'unique solution du problème de Cauchy suivant,
$$(y(0)=r,\quad (1-\frac{x}{2})y'-\frac{1}{4}y=0,$$
la résolution de ce problème nous donne
$$\forall x\in ]-2,2[,\quad f(x)=\dfrac{r}{\sqrt{1-\frac{x}{2}}}.$$
On en déduit alors que la condition sur $r$ est $r=\dfrac{1}{\sqrt{2}}$, puisque $f(1)=\sqrt{2}r=1$.
Ainsi, $G_X(t)=\dfrac{1}{\sqrt{2}}\dfrac{1}{\sqrt{1-\frac{t}{2}}}$, comme $R_c>1$ alors $X$ admet une
espérance et une variance.
On donne $X$ une VA telle que $X(\Omega)=\N^*$ et $P(X=k)=\dfrac{\alpha}{k(k+1)(k+2)}$.
On pioche une poignée de jetons dans une urne en contenant $n$, numérotés de $1$ à $n$; on admet que chaque poignée (y compris la poignée vide) a la même probabilité d'être tirée. Donner l'espérance de la variable aléatoire S donnant la somme des numéros tirés.
Supposons que $n\geq 1$ et notons $N=\dfrac{n(n+1)}{2}$, il est clair que $S(\Omega)=\inter{0,N}$.
Lorsque on tire une poignée de longueur $k$ ($k\in \inter{0,n}$) et de somme $\alpha$, il nous reste dans l'urne $n-k$ jetons dont la somme est $N-\alpha$. On en déduit que, $$\forall m\in \inter{0,N},\quad P(S=m)=P(S=N-m).$$ Supposons maintenant que $N=2M+1$, alors $$\begin{array}{lcl} E(S)&=&\dsum_{m=0}^NmP(S=m)\\ &=&\dsum_{m=0}^M mP(S=m)+\dsum_{m=M+1}^{2M+1} mP(S=m)\\ &=&\dsum_{m=0}^M mP(S=m)+\dsum_{m=0}^{M} (N-m)P(S=N-m)=\dsum_{m=0}^M NP(S=m) =N/2 \end{array} $$ En effet, on a $$1=\dsum_{m=0}^NP(S=m)=\dsum_{m=0}^MP(S=m)+\dsum_{m=M+1}^NP(S=m)=2\dsum_{m=0}^M$$ Si $N=2M$, alors $$\begin{array}{lcl} E(S)&=&\dsum_{m=0}^NmP(S=m)\\ &=&\dsum_{m=0}^{M-1} mP(S=m)+MP(S=M)+\dsum_{m=M+1}^{2M} mP(S=m)\\ &=&\dsum_{m=0}^{M-1} mP(S=m)+MP(S=M)+\dsum_{m=0}^{M-1} (N-m)P(S=N-m)=\dsum_{m=0}^M NP(S=m) =N/2 \end{array} $$
Soient $X\hookrightarrow \mathcal{P}(a),Y\hookrightarrow \mathcal{P}(a)$ deux v.a.d indépendantes ($a\in \R$). On pose $Z=X+3Y$, déterminer la fonction génératrice de $Z$ puis trouver, de deux manières différentes, l'espérance et la variance de $Z$.
$X$ suit une loi de Poisson de paramètre $a$ donc $G_X$ est définie sur $\R$ et on a
$G_X(t)=\ee^{a(t-1)}$.
Il faut déterminer la fonction génératrice de $3Y$, vu que $P(3Y=n)=0$ si $n$ n'est pas un multiple de
$3$, alors
$$g_{3Y}(t)=\dsum_{k=0}^\infty P(3Y=k)t^k=\dsum_{k\in \N}P(3Y=3k)t^{3k}=\dsum_{k\in
\N}P(Y=k)t^{3k}=g_{Y}(t^3)=\ee^{a(t^3-1)}.$$
Comme $X,\,Y$ sont indépendantes, alors $X,\,3Y$ le sont également, on en déduit que la fonction
génératrice de $Z$ est le produit des deux fonctions génératrices de $X$ et $3Y$ (qui ont le même rayon
de convergence), donc
$$\forall t\in \R,\,g_Z(t)=g_X(t)g_{3Y}(t)=g_X(t)g_Y(t^3)=\ee^{a(t^3+t-2)}.$$
Pour déterminer l'espérance et la variance de $Z$, on a
$$E(Z)=E(X+3Y)=E(X)+3E(Y)=4a,\quad V(Z)=V(X+3Y)=V(X)+9V(Y)=10a.$$
La deuxième méthode consiste à utiliser la fonction génératrice, en effet, comme $g_Z$ est de classe
$\CC^\infty$ sur $\R$, alors,
$$E(Z)=g_Z'(1),\,V(Z)=g_Z''(1)+g_Z'(1)-g_Z'(1)^2.$$
Or,
$$\forall t\in
\R,\,g_Z'(t)=a(3t^2+1)\ee^{a(t^3+t-2)},\,g_Z''(t)=(6at+a^2(t^2+1)^2)\ee^{a(t^3+t-2)},\Longrightarrow
g_Z'(1)=4a,\,g_Z''(1)=16a^2+4a.$$
En remplaçant dans les formules ci-dessus, on trouve $E(Z)=4a,\,\,V(Z)=16a^2+6a+4a-(4a)^2=10a.$
Trouver la constante $k$ et une condition sur $a\in \R$ pour que :
$P(X=n)=\left(\frac{a}{1+a}\right)^nk,$ définisse une variable aléatoire à valeur dans $\N$.
Pour toute suite de variables indépendantes $(X_n)$ suivant toutes la loi précédente, déterminer la
fonction génératrice de $S_n=\dsum_{k=1}^nX_k$, puis trouver de deux manières différentes l'espérance et
la variance de $S_n$.
$a>0$ et $k=\dfrac{1}{a+1}$, de plus, on a $$\forall t\in \R, \abs{\frac{at}{a+1}}< 1,\quad g_X(t)= \dfrac{1}{a+1}\dsum_{n\in \N}\left(\dfrac{a}{a+1}\right)^nt^n=\dfrac{1}{a+1}\dfrac{1}{1-\frac{at}{a+1}}=\dfrac{1}{a+1-at}.$$
Soit $p\in ]0,1[$. Déterminer $c$ pour que $P(X=n)=\dfrac{p^{n+1}}{c(n+1)}$ définissent la loi de
probabilité d'une VAD $X$.
Déterminer la fonction génératrice de $X$, son espérance et sa variance.
Il faut que $\dsum_{n\geq 0}P(X=n)$ soit égale à $1$, or $$\dsum_{n\geq 0}P(X=n)=\dsum_{n\geq 0}\dfrac{p^{n+1}}{c(n+1)}=\dfrac{-\ln(1-p)}{c}\Longrightarrow c=-\ln(1-p).$$ Soit $t\in \R$ tel que $\abs{t}\leq \frac{1}{p}$, on a $$g_X(t)=\dsum_{k\geq 0}P(X=k)t^k=\dfrac{1}{-\ln(1-p)}\dsum_{k\geq 0}\dfrac{p^{k+1}t^k}{k+1}=\left\{\begin{array}{lcl} \dfrac{\ln(1-pt)}{t\ln(1-p)}&\text{ si }& t\neq 0\\ &&\\ \dfrac{p}{-\ln(1-p)}&\text{ si }& t=0 \end{array} \right.$$ La fonction génératrice a un rayon de convergence $>1$ (puisque $p< 1$), donc $g_X$ est de classe $\CC^\infty$ au voisinage de $1$. Soit $t$ au voisinage de $1$, on a $$g_X'(t)=\dfrac{1}{\ln(1-p)}\dfrac{-pt-(1-pt)\ln(1-pt)}{t^2(1-pt)}$$ donc $$E(X)=g_X'(1)=\dfrac{1}{\ln(1-p)}\dfrac{-p-(1-p)\ln(1-p)}{(1-p)}=-1-\dfrac{p}{(1-p)\ln(1-p)}.$$ Ensuite, $$g_X''(t)=\dfrac{p\ln(1-pt)(t^2(1-pt))+(pt+(1-pt)\ln(1-pt))(2t-3pt^2)}{\ln(1-p)t^4(1-pt)^2},$$ soit $$g_X''(1)=\dfrac{p\ln(1-p)(1-p)+(p+(1-p)\ln(1-p))(2-3p)}{\ln(1-p)(1-p)^2}.$$ Ce qui donne $$\begin{array}{lcl} V(X)&=&g_X''(1)+g_X'(1)-(g_X'(1))^2\\ &=&\dfrac{p\ln(1-p)(1-p)+(p+(1-p)\ln(1-p))(2-3p)}{\ln(1-p)(1-p)^2}+\left(-1-\dfrac{p}{(1-p)\ln(1-p)}\right)-\left(-1-\dfrac{p}{(1-p)\ln(1-p)}\right)^2\\ &=&\dfrac{(2-2p)(1-p)\ln(1-p)+p(2-3p)}{(1-p)^2\ln(1-p)}-2-\dfrac{3p}{(1-p)\ln(1-p)}-\dfrac{p^2}{(1-p)^2\ln(1-p)^2}\\ &=&\dfrac{-p}{(1-p)^2\ln(1-p)}-\dfrac{p^2}{(1-p)^2\ln(1-p)^2}=\dfrac{-p}{(1-p)^2\ln(1-p)}\left(1+\dfrac{p}{\ln(1-p)}\right) \end{array}$$
On tire, dans une urne contenant $a$ boules blanches et $b$ boules noires, une boule au hasard. Si la
boule obtenue est blanche, on la remet, si elle est noire, on la remplace par une boule blanche.
On note $Y$ le rang de la première boule blanche obtenue lors des ces tirages successifs et $Z=b+1-Y$.
Déterminer la fonction génératrice de $Z$, en déduire l'espérance de $Z$ et de $Y$.
Pour $n\in \N^*$, on note $A_n$ l'événement " La boule tirée au tirage n° $n$ est noire",
Donc, pour $k\in \inter{2,b+1}$, on a
$$P(Y=k)=P(A_1\cap A_2\cdots \cap A_{k-1}\cap \overline{A}_k)=\dfrac{b(b-1)\cdots (b-k+2)}{(a+b)^{k-1}
}\dfrac{a+k-1}{(a+b)}$$
et $P(Y=1)=\dfrac{a}{a+b}$, d'autre part pour tout $k\geq b+2,\, P(Y=k)=0$. Pour résumé,
$$Y(\Omega)=\inter{1,b+1},\,\forall k\in \inter{1,b},\, P(Y=k)=
\dfrac{b!}{(b-k+1)!}\dfrac{a+k-1}{(a+b)^k}.$$
Comme $Z=b+1-Y$ alors $Z(\Omega)=\inter{0,b}$ et pour $0\leq k\leq b$
$$P(Z=k)=P(Y=b+1-k)= \dfrac{b!}{(b-(b+1-k))!}\dfrac{a+(b+1-k)-1}{(a+b)^{b+1-k}}=
\dfrac{b!}{k!}\dfrac{a+b-k}{(a+b)^{b+1-k}}$$
Donc
$$G_Z(t)=\dfrac{b!}{(a+b)^{b+1}}\dsum_{k=0}^b \dfrac{(a+b-k)(a+b)^k}{k!}t^k.$$
Puis,
$$\forall t\in \R,\, G'_Z(t)=\dfrac{b!}{(a+b)^{b+1}}\dsum_{k=0}^b \dfrac{k(a+b-k)(a+b)^k}{k!}t^{k-1}
$$
En particulier,
$$\begin{array}{lcl}
G'_Z(1)&=& \dfrac{b!}{(a+b)^{b+1}}\dsum_{k=0}^b \dfrac{k(a+b-k)(a+b)^k}{k!}\\
&=&\dfrac{b!}{(a+b)^{b+1}}\dsum_{k=0}^{b-1} \dfrac{(a+b-k-1)(a+b)^{k+1}}{k!}\\
&=&\dfrac{b!}{(a+b)^{b+1}}\dsum_{k=0}^{b-1}
\dfrac{(a+b-k)(a+b)^{k+1}}{k!}-\dfrac{b!}{(a+b)^{b+1}}\dsum_{k=0}^{b-1} \dfrac{(a+b)^{k+1}}{k!}
\end{array}
$$
or,
$$\begin{array}{lcl}
\dsum_{k=0}^{b-1} \dfrac{(a+b-k)(a+b)^{k+1}}{k!}&=&\dsum_{k=0}^{b-1}
\dfrac{(a+b)(a+b)^{k+1}}{k!}-\dsum_{k=0}^{b-1}
\dfrac{k(a+b)^{k+1}}{k!}\\
&=&\dsum_{k=0}^{b-1} \dfrac{(a+b)^{k+2}}{k!}-\dsum_{k=1}^{b-1}
\dfrac{(a+b)^{k+1}}{(k-1)!}\\
&=&\dsum_{k=0}^{b-1} \dfrac{(a+b)^{k+2}}{k!}-\dsum_{k=0}^{b-2}
\dfrac{(a+b)^{k+2}}{k!}\\
&=&\dfrac{(a+b)^{b+1}}{(b-1)!}
\end{array}$$
Ce qui donne
$$G'_Z(1)=b-\dfrac{b!}{(a+b)^{b+1}}\dsum_{k=0}^{b-1}
\dfrac{(a+b)^{k+1}}{k!}=b-\dfrac{b!}{(a+b)^{b}}\dsum_{k=0}^{b-1} \dfrac{(a+b)^{k}}{k!}$$
On en déduit finalement,
Une urne contient 4 boules numérotées $0,\,1,\,1,\,2$. On effectue $n$ triages avec remise et on note
$S_n$ la somme des numéros tirés.
Donner la loi de $S_n$ et déterminer l'espérance de $S_n$.
Pour $k\in \inter{1,n}$, on note $X_k$ le VAD qui donne le numéro de la $k$ème tirage. Les $(X_k)$ sont indépendantes et suivent la même loi $X$ tel que $$P(X=0)=\dfrac{1}{4},\quad P(X=1)=\dfrac{1}{2},\quad P(X=2)=\dfrac{1}{4}.$$ Il est claire que $S_n=\dsum_{k=1}^n X_k$, on en déduit que $G_{S_n}=\dsp\prod_{k=1}^nG_{X_k}=G_X^n$. Or $$\forall t\in \R,\,G_X(t)=P(X=0)t^0+P(X=1)t+P(X=2)t^2=\left(\frac{1+t}{2}\right)^2$$ Ce qui donne: $$G_{S_n}(t)=\left(\frac{1+t}{2}\right)^{2n}=\dfrac{1}{2^{2n}}\dsum_{k=0}^{2n}{2n\choose k}t^k.$$ On en déduit, $$\boxed{\forall k\in \inter{1,2n}\,\quad P(S_n=k)=\dfrac{1}{2^{2n}}{2n\choose k}.}$$
Soient $X$ et $Y$ deux variables aléatoires indépendantes et de même loi. Soit $Z$ une variable aléatoire suivant une loi géométrique de paramètre $p$ telle que $Z=X+Y+1$.
Soient $X$ et $Y$ deux variables aléatoires indépendantes sur un même espace probabilisé ; $X$ suit une loi de Bernoulli de paramètre $p$ et $Y$ une loi de Poisson de paramètre $a$. Soit $Z=XY$.
Soient deux dés (pipés ou non) indépendants. Montrer qu'il est impossible d'obtenir la loi uniforme pour la somme S des deux dés (c'est-à-dire $P(S=i)=\dfrac{1}{11}$ pour tout $i\in \inter{2,12}$.
Notons $X_1$ (resp. $X_2$) le v.a.d qui donne le résultat de 1ère dé
(resp. de 2ème dé), et
$$\forall i\in \inter{1,6},\quad P(X_1=i)=\alpha_i,\quad P(X_2=i)=\beta_i$$
Bien évidement si les dés ne sont pas pipés on aura $\alpha_i=\beta_i=\dfrac{1}{6}$.
Donc $S=X_1+X_2$, supposons que $S$ suit une loi uniforme, alors on aurait
$$\forall t\in \R,\,G_S(t)=\dsum_{k=2}^{12}\dfrac{t^k}{11}=\dfrac{t^2}{11}\left(1+t+\cdots+
t^{10}\right)= G_{X_1}(t)G_{X_2}(t).$$
D'autre part,
$$G_{X_1}(t)=t\left(\alpha_1+\alpha_2 t+\cdots+\alpha_6 t^5\right)= t\varphi_1(t)$$
$$G_{X_2}(t)=t\left(\beta_1+\beta_2 t+\cdots+\beta_6 t^5\right)= t\varphi_2(t)$$
avec $\varphi_1,\,\varphi_2$ deux polynômes de degrés 5 (et exactement 5---justifier!).
On en déduit
$$\forall t\in \R,\, \left(1+t+\cdots+ t^{10}\right)= 11\varphi_1(t)\varphi_2(t)$$
ce qui est absurde car $t\longmapsto \left(1+t+\cdots+ t^{10}\right)$ n'admet pas de racines réelles,
tandis que $\varphi_1\varphi_2$ a au moins une racine réelle.
$N$ étudiants passent un examen. Ceux qui ne l'ont pas réussi doivent le repasser jusqu'à ce qu'ils réussissent. On suppose que la probabilité; de réussir l'examen est constante égale à $p\in \left ]0,1\right[$ à chaque passage et que les différents résultats sont mutuellement indépendants. On pose $q=1-p$. On note $X$ le nombre total d'examens passés, $Y$ le nombre total de sessions et, pour tout $k\in \inter{1,N}$, $X_k$ le nombre de fois où l'étudiant passe l'examen.