Bibm@th

Forum de mathématiques - Bibm@th.net

Bienvenue dans les forums du site BibM@th, des forums où on dit Bonjour (Bonsoir), Merci, S'il vous plaît...

Vous n'êtes pas identifié(e).

Répondre

Veuillez composer votre message et l'envoyer
Nom (obligatoire)

E-mail (obligatoire)

Message (obligatoire)

Programme anti-spam : Afin de lutter contre le spam, nous vous demandons de bien vouloir répondre à la question suivante. Après inscription sur le site, vous n'aurez plus à répondre à ces questions.

Quel est le résultat de l'opération suivante (donner le résultat en chiffres)?
huit plus quatre-vingt dix-sept
Système anti-bot

Faites glisser le curseur de gauche à droite pour activer le bouton de confirmation.

Attention : Vous devez activer Javascript dans votre navigateur pour utiliser le système anti-bot.

Retour

Résumé de la discussion (messages les plus récents en premier)

johnon mikes
13-01-2026 12:29:16

Bonsoir !

Votre raisonnement est parfaitement correct et vous êtes sur la bonne voie.
Voici l'analyse de vos points :
Espérance : Comme les $X_n$ sont centrées ($E(X_n) = 0$), vous avez bien $E(L_m^{(k)}) = 0$ par linéarité.

Variance : Puisque les variables sont indépendantes, la variance de la somme est la somme des variances :
$$V(L_m^{(k)}) = \sum_{j=1}^{k} V(X_{m^2+j}) = k \cdot E(X_1^2)$$

Inégalité de Bienaymé-Tchebychev :
En l'appliquant à $L_m^{(k)}$ avec le seuil $m^2\epsilon$, on obtient :



[EDIT@Yoshi Modérateur]
Intervention malheureuse de ma part qui a fait sauter la fin en même temps que le lien parfaitement incongru (Publicité déguisée : violation de nos Règles de fonctionnement...
Vu ce qui précédait je me limite à un avertissement..

Vincent62
17-06-2022 02:50:51

Bonjour Fred,

De ce que je comprends du but de cet exercice, c'est démontrer un cas particulier de la loi forte des grands nombres, car ici on ne suppose pas que [tex]E[X_1]<+\infty[/tex].

Ici, pour démontrer la convergence presque sûrement vers [tex]0[/tex], on demande d'utiliser l'inégalité de Bienaymé-Tchebychev, d'où mon raisonnement.

J'ai démontré que [tex](\frac{S_{m^2}}{m^2})[/tex] converge presque sûrement vers 0 équivaut à [tex]P(\forall_{M\in \mathbb{N}}\cup_{m\ge M}\{|\frac{S_{m^2}}{m^2}|\ge \epsilon\})=0[/tex].

En effet, [tex](\frac{S_{m^2}}{m^2})[/tex] converge presque sûrement vers 0 équivaut à [tex]\forall \epsilon >0, \exists M\in \mathbb{N}, |\frac{S_{m^2}}{m^2}|\le \epsilon[/tex].

Il y a forcément un truc faux car la convergence en probabilité n'implique pas celle presque sûre.

Fred
16-06-2022 23:34:07

Re-

Là, tu ne t'intéresses pas à la convergence presque sûre, mais à la convergence en probabilité....

F.

Vincent62
16-06-2022 12:17:42

Bonjour,

Je termine l'exercice.

J'obtiens donc, en utilisant l'inclusion précédente, que :

[tex]P\big(\frac{\sup_{1\le k\le 2m+1}|L_m^{(k)}|}{m^2}\ge \epsilon\big)\le \frac{(2m+1)^2E(X_1^2)}{m^4\epsilon^2}[/tex].

On demande de montrer que [tex]\frac{S_{m^2}+\sup_{1\le k\le 2m+1}|L_m^{(k)}|}{m^2}\to 0[/tex] presque sûrement lorsque [tex]m\to +\infty[/tex].

J'avais déjà montré que [tex]\big(\frac{S_{m^2}}{m^2}\big)\to 0[/tex] presque sûrement lorsque [tex]m\to +\infty[/tex].

J'avais procédé ainsi...
D’après l’inégalité de Bienaymé-Tchebychev, on a :

[tex]P\big(|\frac{S_{m^2}}{m^2}-E\big(\frac{S_{m^2}}{m^2}\big)|\ge t\big)\le \frac{V\big(\frac{S_{m^2}}{m^2}\big)}{t^2}[/tex].

Or, par indépendance des [tex]X_n[/tex], on obtient (après quelques étapes de calcul) que [tex]E\big(\frac{S_{m^2}}{m^2}\big)=0[/tex] et par ditribution identique des [tex]X_n[/tex], il vient que [tex]V(\big(\frac{S_{m^2}}{m^2}\big))=\frac{1}{m^4}V(S_{m^2})=\frac{1}{m^4}=kV(X_{m^2+1})=kE(X^2_{m^2+1})=kE(X_1^2)[/tex].

Finalement, [tex]P(|\frac{S_{m^2}}{m^2}|\ge t)\le \frac{kE(X_1^2}{m^4t^2}\to 0[/tex] lorsque [tex]m\to +\infty[/tex].

Qu'en pensez-vous ?

Merci !

Vincent62
13-06-2022 18:30:17

Je vois Fred, merci.
Donc il n'y a finalement rien à démontrer, c'est simplement l'application de la définition du sup...

Fred
13-06-2022 16:28:31

Bonjour,

Vincent62 a écrit :

Bonjour,


Soit [tex]m\ge 1[/tex]. Supposons que [tex]L_m\in \big(\frac{\sup_{1\le k\le 2m+1}|L_m^{(k)}|}{m^2}\ge \epsilon\big)[/tex].

Cette phrase n'a aucun sens. A gauche du symbole $\in$, tu as une variable aléatoire, donc une fonction. A droite, tu as un événement, donc un ensemble, qui est contenu dans l'ensemble de définition commun à toutes tes fonctions. Qu'est-ce que ça veut dire qu'une fonction appartient à une partie de son ensemble de définition????

En vérité, il ne faut pas ici se laisser noyau par le vocabulaire probabiliste. Il s'agit d'un exercice assez simple sur les fonctions.
Si on traduit ce que tu dois démontrer, c'est que si tu as $N$ (ici $2m+1$) fonctions définies sur un même ensemble $\Omega$, si tu choisis $\omega\in\Omega$, et si le sup de ces fonctions évalué en $\omega$ est plus grand que $\delta$ (ici $m^2\epsilon$), il y a une de ces fonctions dont la valeur en $\omega$ est plus grande que $\delta$.

F.

Vincent62
13-06-2022 14:45:54

Bonjour,

Je reviens à la charge avec la suite de ce bel exercice...
On demande de montrer que :
[tex]\big(\frac{\sup_{1\le k\le 2m+1}|L_m^{(k)}|}{m^2}\ge \epsilon\big)\subset \bigcup_{k=1}^{2m+1}(|L_m^{(k)}|\ge m^2\epsilon)[/tex].

Voilà ce que je propose.
Soit [tex]m\ge 1[/tex]. Supposons que [tex]L_m\in \big(\frac{\sup_{1\le k\le 2m+1}|L_m^{(k)}|}{m^2}\ge \epsilon\big)[/tex].

On a donc que [tex]\sup_{1\le k\le 2m+1}|L_m^{(k)}|\ge m^2\epsilon[/tex]. Par définition de la borne supérieure, [tex]\forall \delta>0[/tex], [tex]\exists k_0\in [1;2m+1]\cap \mathbb{N}[/tex] tel que [tex]\sup_{1\le k\le 2m+1}|L_m^{(k)}|-\delta <|L_m^{(k_0)}|<\sup_{1\le k\le 2m+1}|L_m^{(k)}|[/tex].

Ainsi, [tex]\sup_{1\le k\le 2m+1}|L_m^{(k)}|-\delta\ge m^2\epsilon-\delta[/tex] et donc [tex]|L_m^{(k_0)}|>m^2\epsilon-\delta[/tex].

Cette relation étant valable pour tout [tex]\delta >0[/tex], on en déduit qu'il existe [tex]k_0\in [1;2m+1]\cap \mathbb{N}[/tex] tel que [tex]|L_m^{(k_0)}|\ge m^2\epsilon[/tex], d'où le résultat (à une rédaction près).

Voilà, qu'en pensez-vous ?

Merci !

Vincent62
08-06-2022 06:14:56

Bonjour Fred,

Effectivement, du coup ça devient évident...

Fred
07-06-2022 20:15:11

Relis ton énoncé! Tes variables sont identiquement distribuées. En particulier, elles ont même espérance, même variance, etc....

Vincent62
07-06-2022 14:45:29

Je mets mes idées ici...

Comme les variables sont indépendantes, on a que [tex]V(X_1)=E(X_1^2)-E^2(X_1)=E(X_1^2)[/tex].

L'inégalité à démontrer est donc : pour tout [tex]m\ge 1[/tex], et tout [tex]1\le k\le 2m+1[/tex], on a [tex]P\big(|L_m^{(k)}|\ge m^2 \epsilon\big)\le \frac{(2m+1)V(X_1)}{m^4\epsilon^2}[/tex] avec [tex]L_m^{(k)}=X_{m^2+1}+...+X_{m^2+k}[/tex].

Du coup, la question serait : pourquoi a-t-on : [tex]V(X_{m^2+1})+...+V(X_{m^2+k})\le (2m+1)V(X_1)[/tex] ?

Puisque [tex](2m+1)[/tex] est le nombre de termes, cela revient à comprendre pourquoi [tex]V(X_1)[/tex] est le plus grand des termes entre tous les [tex]V(X_{m^2+k})[/tex], pour [tex]m\ge 1[/tex] et [tex]1\le k\le 2m+1[/tex].

J'espère ne pas avoir trop divagué !

Vincent62
07-06-2022 14:09:45

Oui, en effet. J'ai zappé le terme "variance".

Bref, les variables [tex](X_n)[/tex] étant indépendantes, on obtient que :

[tex]P(|L_m^{(k)}|\ge m^2\epsilon)\le \frac{V(X_{m^2+1})+...+V(X_{m^2+k})}{m^4 \epsilon^2}[/tex].

Pour le numérateur, on pourrait majorer par le nombre de termes (k variant de [tex]1[/tex] à [tex]2m+1[/tex]) multiplié par le plus grand terme de la somme.
On aurait alors le facteur [tex](2m+1)[/tex]. Par contre, je ne sais pas déterminer le plus grand terme de cette somme.
Reste encore à trouver le lien avec [tex]E(X_1^2)[/tex].

Fred
07-06-2022 11:53:58

Bonjour Vincent,

  Je ne vais pas lire ce que tu as écrit, car tu n'as pas du tout tenu compte de ce que Richadam et moi avons écrit :

les variables aléatoires sont indépendantes, cela simplifie le calcul de la variance

F.

Vincent62
07-06-2022 10:47:16

aAlors, voilà où j'en suis concernant le calcul de [tex]V(L_m^{(k)})[/tex].

On a : [tex]V(L_m^{(k)})=E((L_m^{(k)})^2)-(E(L_m^{(k)}))^2=E((L_m^{(k)})^2)[/tex].

Or, [tex]E((L_m^{(k)})^2)=E((X_{m^2+1}+...+X_{m^2+k})^2)=E\big(X^2_{m^2+1}+...+X^2_{m^2+k}+\sum_{i,j=1, i\neq j}^k X_{m^2+i}X_{m^2+j}\big)=\sum_{p=1}^k E(X_{m^2+p}^2)+E(\sum_{i,j=1, i\neq j}^k X_{m^2+i}X_{m^2+j})[/tex].

Si je zoome, j'ai, pour tout [tex]p[/tex], [tex]E(X^2_{m^2+p})=E(X_{m^2+p}X_{m^2+p})=E(X_{m^2+p})E(X_{m^2+p})=0[/tex] car les [tex]X_n[/tex] sont indépendantes pour tout [tex]n\ge 1[/tex].

Mais du coup, on aurait aussi avec les mêmes arguments que [tex]\sum_{p=1}^k E(X_{m^2+p}^2)+E(\sum_{i,j=1, i\neq j}^k X_{m^2+i}X_{m^2+j})=0[/tex], et tout serait nul...

Bref, qu'est-ce qui ne va pas ?

Vincent62
07-06-2022 09:55:46

Merci Fred, merci Richadam,

Je continue le raisonnement et je poste mes réponses plus tard.

richadam
07-06-2022 08:50:03
Vincent62 a écrit :

Bonsoir,

Je considère [tex](X_n)_n[/tex] une suite de variables aléatoires réelles idépendantes et identiquement distribuées telles que [tex]E(X_n)=0[/tex] pour tout [tex]n[/tex] et [tex]E(X_1^2)<+\infty[/tex]. Pour tout [tex]n\ge 1[/tex], on pose [tex]S_n=\sum_{k=1}^n X_k[/tex].

J'ai montré que la suite de variables aléatoires [tex]\big(\frac{S_m^2}{m^2}\big)_n[/tex] converge presque sûrement vers [tex]0[/tex], en utilisant l'inégalité de Bienaymé-Tchebychev.

Par contre, ensuite, on demande de montrer que pour tout [tex]m\ge 1[/tex], et tout [tex]1\le k\le 2m+1[/tex], on a [tex]P\big(|L_m^{(k)}|\ge m^2 \epsilon\big)\le \frac{(2m+1)E(X_1^2)}{m^4\epsilon^2}[/tex] avec [tex]L_m^{(k)}=X_{m^2+1}+...+X_{m^2+k}[/tex].

J'ai donc pensé à utiliser l'inégalité de Bienaymé-Tchebychev, encore, appliquée à la variable aléatoire [tex]L_m^{(k)}[/tex].
Dans cette inégalité, on aura à déterminer [tex]E(L_m^{(k)})[/tex], donc autant le faire tout de suite, ou en tout cas voir ce qu'il se passe.
Par linéarité de l'espérance, on a donc, pour tout [tex]m\ge 1[/tex], et tout [tex]1\le k\le 2m+1[/tex] :

[tex]E(L_m^{(k)})=E(X_{m^2+1})+...+E(X_{m^2+k})[/tex].

Et là, j'ai bien envie de dire que [tex]E(L_m^{(k)})=0[/tex], car pour tout [tex]n[/tex], [tex]E(X_n)=0[/tex].

Egalement, dans l'inégalité de Bienaymé-Tchebychev, j'aurais à calculer [tex]V(L_m^{(k)})=E((L_m^{(k)})^2)-E(L_m^{(k)})^2[/tex]...

Qu'en pensez-vous ?

Merci !

vos variables aléatoires sont indépendantes, cela simplifiera le calcul de la variance.

Pied de page des forums