Monotones Klassen-Lemma
Das monotone Klassen- Lemma , das von Wacław Sierpiński stammt und von Dynkin populär gemacht wurde , ermöglicht es , die Gleichheit zwischen zwei Wahrscheinlichkeitsgesetzen wirtschaftlich zu demonstrieren : So wie zwei lineare Karten, die auf einer Basis zusammenfallen, über den gesamten Raum zusammenfallen, zwei Wahrscheinlichkeitsmaße, die zusammenfallen fallen auf einem π-System mit dem Stamm zusammen, der durch dieses π-System erzeugt wird.
In einigen Werken erscheint das monotone Klassen-Lemma als "Dynkins Pi-Lambda-Theorem".
Monotone Klasse und π-System
Definition -
- Eine Klasse von Teilen einer Menge Ω heißt π-System, wenn diese Klasse durch endliche Schnittmenge stabil ist:VS{\ displaystyle {\ mathcal {C}}}
{BEIM∈VS und B.∈VS}}⇒{BEIM∩B.∈VS}}.{\ displaystyle \ {A \ in {\ mathcal {C}} {\ text {et}} B \ in {\ mathcal {C}} \} \ Rightarrow \ {A \ cap B \ in {\ mathcal {C} } \}.}
- Eine Klasse von Teilen einer Menge Ω wird als λ-System oder monotone Klasse bezeichnet, wenn diese Klasse Ω enthält und durch Differenz und zunehmende Vereinigung stabil ist:M.{\ displaystyle {\ mathcal {M}}}
{BEIM∈M. und B.∈M. und BEIM⊂B.}}⇒{B.∖BEIM∈M.}},{∀nicht≥0,{BEIMnicht∈M. und BEIMnicht⊂BEIMnicht+1}}}}⇒{⋃nicht≥0BEIMnicht ∈M.}}.{\ displaystyle {\ begin {align} \ {A \ in {\ mathcal {M}} {\ text {und}} B \ in {\ mathcal {M}} {\ text {und}} A \ subset B \ } \ quad & \ Rightarrow \ quad \ {B \ setminus A \ in {\ mathcal {M}} \}, \\\ {\ forall n \ geq 0, \ quad \ {A_ {n} \ in {\ mathcal {M}} {\ text {und}} A_ {n} \ Teilmenge A_ {n + 1} \} \} \ quad & \ Rightarrow \ quad \ left \ {\ bigcup _ {n \ geq 0} A_ {n } \ \ in {\ mathcal {M}} \ right \}. \ end {align}}}
Beispiele für π-Systeme:
- eine Klasse von Intervallen: VS1={]]- -∞,x]] | x∈R.}}.{\ displaystyle {\ mathcal {C}} _ {1} = \ {] - \ infty, \, x] \ | \ x \ in \ mathbb {R} \}.}
- die Klasse der Singletons: VS2={{x}} | x∈Ω}} ∪ {∅}}.{\ displaystyle {\ mathcal {C}} _ {2} = \ {\ {x \} \ | \ x \ in \ Omega \} \ \ cup \ \ {\ Emptyset \}.}
- die Klasse der Pflastersteine: VS3={BEIM×B. | BEIM,B.∈P.((Ω)}}.{\ displaystyle {\ mathcal {C}} _ {3} = \ {A \ mal B \ | \ A, B \ in {\ mathcal {P}} (\ Omega) \}.}
Ein Beispiel für eine monotone Klasse:
Sei zwei Wahrscheinlichkeitsmaße und definiert auf Die Klasse ist eine monotone Klasse .
P.{\ displaystyle \ mathbb {P}}Q.{\ displaystyle \ mathbb {Q}}((Ω,B.).{\ displaystyle (\ Omega, {\ mathcal {B}}).}M.={BEIM∈B. | P.((BEIM)=Q.((BEIM)}}{\ displaystyle {\ mathcal {M}} = \ {A \ in {\ mathcal {B}} \ | \ \ mathbb {P} (A) = \ mathbb {Q} (A) \}}
Aussage und Beweis des monotonen Klassen-Lemmas
Monotones Klassen-Lemma -
Die kleinste monotone Klasse, die das π-System enthält, ist der Stamm, der von erzeugt wird VS{\ displaystyle {\ mathcal {C}}}VS.{\ displaystyle {\ mathcal {C}}.}
Demonstration
Wir bezeichnen die Menge der monotonen Klassen wie Lassen Sie uns zuerst zeigen, dass ein Element kleiner ist (dh in allen anderen enthalten ist) (dieses Element wird auch eindeutig sein). Tatsächlich :
M.{\ displaystyle \ mathbb {M}}M.{\ displaystyle {\ mathcal {M}}}VS⊂M..{\ displaystyle {\ mathcal {C}} \ subset {\ mathcal {M}}.}M.{\ displaystyle \ mathbb {M}}
-
M.{\ displaystyle \ mathbb {M}}ist nicht leer, da es die Menge aller Teile von enthältP.((Ω),{\ displaystyle {\ mathcal {P}} (\ Omega),}Ω ;;{\ displaystyle \ Omega \;}
- somit ist der Schnittpunkt aller Elemente von gut definiert und M.VS{\ displaystyle {\ mathcal {M}} _ {\ mathcal {C}}}M.{\ displaystyle \ mathbb {M}}VS ⊂ M.VS,{\ displaystyle {\ mathcal {C}} \ \ subset \ {\ mathcal {M}} _ {\ mathcal {C}},}
- Andererseits ist der Schnittpunkt einer Familie monotoner Klassen immer noch eine monotone Klasse, daher eine monotone Klasse und gehört daher dazu M.VS{\ displaystyle {\ mathcal {M}} _ {\ mathcal {C}}}M.VS{\ displaystyle {\ mathcal {M}} _ {\ mathcal {C}}}M.,{\ displaystyle \ mathbb {M},}
- Schließlich ist durch Konstruktion in jedem Element von enthaltenM.VS{\ displaystyle {\ mathcal {M}} _ {\ mathcal {C}}}M..{\ displaystyle \ mathbb {M}.}
Die Klasse ist daher das kleinste Element von M.VS{\ displaystyle {\ mathcal {M}} _ {\ mathcal {C}}}M..{\ displaystyle \ mathbb {M}.}
Wir bezeichnen den Stamm erzeugten Wie jeder Stamm eine monotone Klasse, eine monotone Klasse daher enthältσ((VS){\ displaystyle \ sigma ({\ mathcal {C}})}VS.{\ displaystyle {\ mathcal {C}}.}σ((VS){\ displaystyle \ sigma ({\ mathcal {C}})}VS,{\ displaystyle {\ mathcal {C}},}M.VS⊂σ((VS).{\ displaystyle {\ mathcal {M}} _ {\ mathcal {C}} \ subset \ sigma ({\ mathcal {C}}).}
Im Rest der Demonstration versuchen wir zu zeigen, dass es sich um einen Stamm handelt (was dazu führen wird ). Wir verwenden den folgenden Satz:
M.VS{\ displaystyle {\ mathcal {M}} _ {\ mathcal {C}}}σ((VS)⊂M.VS{\ displaystyle \ sigma ({\ mathcal {C}}) \ subset {\ mathcal {M}} _ {\ mathcal {C}}}
Satz - Eine monotone Klasse, die durch Kreuzung stabil ist, ist ein Stamm. Somit ist jedes λ-System, das auch ein π-System ist, ein Stamm.
Demonstration
In der Tat enthält und ist jede monotone Klasse durch Übergang zum Komplementären stabil (da sie durch Differenz und Enthalten stabil ist ). Wenn darüber hinaus die Schnittmenge stabil ist, impliziert die festgelegte Version von De Morgans Gesetzen , dass sie durch Vereinigung stabil ist:
M.{\ displaystyle {\ mathcal {M}}}Ω{\ displaystyle \ Omega}Ω{\ displaystyle \ Omega}M.{\ displaystyle {\ mathcal {M}}}
{BEIM,B.∈VS}}⇒{BEIM¯,B.¯∈VS}}⇒{BEIM¯∩B.¯∈VS}}⇒{BEIM¯∩B.¯¯((=BEIM∪B.)∈VS}}.{\ displaystyle {\ begin {align} \ {A, B \ in {\ mathcal {C}} \} & \ Rightarrow \ {{\ overline {A}}, {\ overline {B}} \ in {\ mathcal {C}} \} \\ & \ Rightarrow \ {{\ overline {A}} \ cap {\ overline {B}} \ in {\ mathcal {C}} \} \\ & \ Rightarrow \ {{\ overline {{\ overline {A}} \ cap {\ overline {B}}} (= A \ cup B) \ in {\ mathcal {C}} \}. \ end {align}}}
Durch eine offensichtliche Induktion ist die Vereinigung einer endlichen Familie von Elementen von immer noch ein Element von
Let und dann eine zählbare Familie von Elementen von notiertem Let
M.{\ displaystyle {\ mathcal {M}}}M..{\ displaystyle {\ mathcal {M}}.}M.,{\ displaystyle {\ mathcal {M}},}((BEIMnicht)nicht≥1.{\ displaystyle (A_ {n}) _ {n \ geq 1}.}
B.nicht=⋃1≤k≤nicht BEIMk.{\ displaystyle B_ {n} = \ bigcup _ {1 \ leq k \ leq n} \ A_ {k}.}
Dann ist eine zunehmende Folge von Elementen von daher
((B.nicht)nicht≥1{\ displaystyle (B_ {n}) _ {n \ geq 1}}M.,{\ displaystyle {\ mathcal {M}},}
⋃nicht≥1 B.nicht ∈ M.,{\ displaystyle \ bigcup _ {n \ geq 1} \ B_ {n} \ \ in \ {\ mathcal {M}},}
Andererseits können wir zum Beispiel durch doppelte Einbeziehung zeigen, dass
⋃nicht≥1 B.nicht = ⋃nicht≥1 BEIMnicht,{\ displaystyle \ bigcup _ {n \ geq 1} \ B_ {n} \ = \ \ bigcup _ {n \ geq 1} \ A_ {n},}
Der Satz wird daher demonstriert.
Wir müssen nur zeigen, dass es durch Kreuzung stabil ist, um zu dem Schluss zu kommen, dass es sich um einen Stamm handelt. Dafür posieren wir für jeden Teil von :
M.VS{\ displaystyle {\ mathcal {M}} _ {\ mathcal {C}}}M.VS{\ displaystyle {\ mathcal {M}} _ {\ mathcal {C}}}BEIM{\ displaystyle A}Ω,{\ displaystyle \ Omega,}
D.BEIM={B.∈M.VS | B.∩BEIM∈M.VS}}.{\ displaystyle {\ mathcal {D}} _ {A} = \ left \ {B \ in {\ mathcal {M}} _ {\ mathcal {C}} \ | \ B \ cap A \ in {\ mathcal { M}} _ {\ mathcal {C}} \ right \}.}
Wir können einerseits leicht zeigen, dass die letzten beiden Eigenschaften der monotonen Klasse erfüllt sind, weil
D.BEIM{\ displaystyle {\ mathcal {D}} _ {A}}
((B.1∩BEIM)∖((B.2∩BEIM) = ((B.1∖B.2)∩BEIMund⋃nicht≥0((B.nicht∩BEIM) = ((⋃nicht≥0B.nicht)∩BEIM,{\ displaystyle (B_ {1} \ cap A) \ Backslash (B_ {2} \ cap A) \ = \ (B_ {1} \ Backslash B_ {2}) \ cap A \ quad {\ text {and}} \ quad \ bigcup _ {n \ geq 0} (B_ {n} \ cap A) \ = \ \ left (\ bigcup _ {n \ geq 0} B_ {n} \ right) \ cap A,}
auf der anderen Seite, dass wenn dann also eine monotone Klasse ist, sobald die
Argumentation dann in 2 Stufen ist:
BEIM∈M.VS,{\ displaystyle A \ in {\ mathcal {M}} _ {\ mathcal {C}},}Ω∈D.BEIM.{\ displaystyle \ Omega \ in {\ mathcal {D}} _ {A}.}D.BEIM{\ displaystyle {\ mathcal {D}} _ {A}}BEIM∈M.VS.{\ displaystyle A \ in {\ mathcal {M}} _ {\ mathcal {C}}.}
- wenn dann die Stabilität durch Schnittmenge von bedeutet, dass man daher für ein nicht spezifiziertes Element entweder auf äquivalente Weise entwederBEIM∈VS,{\ displaystyle A \ in {\ mathcal {C}},}VS{\ displaystyle {\ mathcal {C}}}VS⊂D.BEIM,{\ displaystyle {\ mathcal {C}} \ subset {\ mathcal {D}} _ {A},}M.VS⊂D.BEIM,{\ displaystyle {\ mathcal {M}} _ {\ mathcal {C}} \ subset {\ mathcal {D}} _ {A},}B.∈M.VS{\ displaystyle B \ in {\ mathcal {M}} _ {\ mathcal {C}}}B.∈D.BEIM,{\ displaystyle B \ in {\ mathcal {D}} _ {A},}BEIM∈D.B. ;;{\ displaystyle A \ in {\ mathcal {D}} _ {B} \;}
- also haben wir für jedes Element und schließlich mit anderen WortenB.∈M.VS{\ displaystyle B \ in {\ mathcal {M}} _ {\ mathcal {C}}}VS⊂D.B.,{\ displaystyle {\ mathcal {C}} \ subset {\ mathcal {D}} _ {B},}M.VS⊂D.B. ::{\ displaystyle {\ mathcal {M}} _ {\ mathcal {C}} \ subset {\ mathcal {D}} _ {B} \:}
∀B.,B.'∈M.VS,B.∩B.'∈M.VS.{\ displaystyle \ forall \, B, B ^ {\ prime} \, \ in {\ mathcal {M}} _ {\ mathcal {C}}, \ qquad B \ cap B ^ {\ prime} \ in {\ mathcal {M}} _ {\ mathcal {C}}.}
Durch die Anwendung des Satzes ist daher ein Stamm. Wie enthalten schließen wir das M.VS{\ displaystyle {\ mathcal {M}} _ {\ mathcal {C}}}M.VS{\ displaystyle {\ mathcal {M}} _ {\ mathcal {C}}}VS,{\ displaystyle {\ mathcal {C}},}σ((VS)⊂M.VS.{\ displaystyle \ sigma ({\ mathcal {C}}) \ subset {\ mathcal {M}} _ {\ mathcal {C}}.}
Anwendungen
Die Eindeutigkeit der Wahrscheinlichkeit misst das Lemma
Das monotone Klassen-Lemma hat eine unmittelbare Konsequenz
Lemma Eindeutigkeitswahrscheinlichkeitsmaß -
zwei Wahrscheinlichkeitsmaß und definierte auf dem probabilistischen Raum und übereinstimmend auf dem π-System auch fällt zusammen auf dem Feld , erzeugt durch :
P.{\ displaystyle \ mathbb {P}}Q.{\ displaystyle \ mathbb {Q}}
((Ω,BEIM),{\ displaystyle (\ Omega, {\ mathcal {A}}),}VS⊂BEIM,{\ displaystyle {\ mathcal {C}} \ subset {\ mathcal {A}},} VS{\ displaystyle {\ mathcal {C}}}
{∀BEIM∈VS,P.((BEIM)=Q.((BEIM)}}⇒{∀BEIM∈σ((VS),P.((BEIM)=Q.((BEIM)}}.{\ displaystyle \ {\ forall A \ in {\ mathcal {C}}, \ quad \ mathbb {P} (A) = \ mathbb {Q} (A) \} \ quad \ Rightarrow \ quad \ {\ forall A. \ in \ sigma ({\ mathcal {C}}), \ quad \ mathbb {P} (A) = \ mathbb {Q} (A) \}.}
Demonstration
Wir posieren
M.={BEIM∈BEIM|P.((BEIM)=Q.((BEIM)}}.{\ displaystyle {\ mathcal {M}} = \ {A \ in {\ mathcal {A}} \, | \, \ mathbb {P} (A) = \ mathbb {Q} (A) \}.}
Wir können leicht überprüfen, ob es sich um eine monotone Klasse handelt. Wie ist eine enthaltende monotone Klasse enthält die kleinste enthaltende monotone Klasse nämlichM.{\ displaystyle {\ mathcal {M}}}M.{\ displaystyle {\ mathcal {M}}}VS,{\ displaystyle {\ mathcal {C}},} M.{\ displaystyle {\ mathcal {M}}}VS,{\ displaystyle {\ mathcal {C}},}σ((VS).{\ displaystyle \ sigma ({\ mathcal {C}}).}
Lassen Sie uns unter vielen wichtigen Anwendungen des Einzigartigkeits-Lemmas die vielleicht wichtigste zitieren:
Folgerung - Daraus folgt:
- zwei Wahrscheinlichkeitsmaße und definiert auf sind gleich, wenn sie die gleiche Verteilungsfunktion haben ;P.{\ displaystyle \ mathbb {P}}Q.{\ displaystyle \ mathbb {Q}}((R.,B.((R.)){\ displaystyle (\ mathbb {R}, {\ mathcal {B}} (\ mathbb {R}))}
- zwei Zufallsvariablen und sogar ein Gesetz, wenn sie dieselbe Verteilungsfunktion haben .X.{\ displaystyle X}Y.{\ displaystyle Y}
Demonstration
Wir posieren
VS={]]- -∞,x]]|x∈R.}}.{\ displaystyle {\ mathcal {C}} = \ {] - \ infty, \, x] \, | \, x \ in \ mathbb {R} \}.}
Die Klasse ist ein π-System, und
da beide Wahrscheinlichkeitsmessungen und die gleiche Verteilungsfunktion haben , d.h.
VS{\ displaystyle {\ mathcal {C}}}σ((VS)=B.((R.).{\ displaystyle \ sigma ({\ mathcal {C}}) = {\ mathcal {B}} (\ mathbb {R}).}P.{\ displaystyle \ mathbb {P}}Q.{\ displaystyle \ mathbb {Q}}
∀x∈R.,P.((]]- -∞,x]])=Q.((]]- -∞,x]]),{\ displaystyle \ forall x \ in \ mathbb {R}, \ qquad \ mathbb {P} (] - \ infty, \, x]) = \ mathbb {Q} (] - \ infty, \, x]), }}
P.{\ displaystyle \ mathbb {P}} und deshalb fällt zusammen auf
definitionsgemäß zwei reelle Zufallsvariablen, und haben die gleiche Verteilungsfunktion , wenn ihre Wahrscheinlichkeit Gesetze, und hat die gleiche Verteilungsfunktion :
Q.{\ displaystyle \ mathbb {Q}}VS,{\ displaystyle {\ mathcal {C}},}σ((VS)=B.((R.).{\ displaystyle \ sigma ({\ mathcal {C}}) = {\ mathcal {B}} (\ mathbb {R}).}X.{\ displaystyle X}Y.,{\ displaystyle Y,}P.X.{\ displaystyle \ mathbb {P} _ {X}}P.Y.,{\ displaystyle \ mathbb {P} _ {Y},}
∀BEIM∈B.((R.),P.X.((BEIM)=P.((X.∈BEIM),und ∀x∈R.,P.X.((]]- -∞,x]])=P.((X.≤x).{\ displaystyle \ forall A \ in {\ mathcal {B}} (\ mathbb {R}), \ quad \ mathbb {P} _ {X} (A) = \ mathbb {P} (X \ in A), \ qquad {\ text {et}} \ forall x \ in \ mathbb {R}, \ quad \ mathbb {P} _ {X} (] - \ infty, \, x]) = \ mathbb {P} (X. \ leq x).}
Wenn also und hat die gleiche Verteilungsfunktion , und zusammenfallen auf damitX.{\ displaystyle X}Y.,{\ displaystyle Y,}P.X.{\ displaystyle \ mathbb {P} _ {X}}P.Y.{\ displaystyle \ mathbb {P} _ {Y}}VS,{\ displaystyle {\ mathcal {C}},}P.X.=P.Y..{\ displaystyle \ mathbb {P} _ {X} = \ mathbb {P} _ {Y}.}
Lassen Sie uns kurz erklären, warum :
σ((VS)=B.((R.){\ displaystyle \ sigma ({\ mathcal {C}}) = {\ mathcal {B}} (\ mathbb {R})}
-
B.((R.){\ displaystyle {\ mathcal {B}} (\ mathbb {R})} ist per Definition der Stamm, der von den offenen von erzeugt wird R.,{\ displaystyle \ mathbb {R},}
- ein open of ist eine zählbare Vereinigung offener Intervalle, weil wir durch die Dichte von in habenÖ{\ displaystyle {\ mathcal {O}}}R.{\ displaystyle \ mathbb {R}}Q.{\ displaystyle \ mathbb {Q}}R.,{\ displaystyle \ mathbb {R},}
Ö=⋃((beim,b)∈E.]]beim,b[,mitE.={((beim,b)∈Q.2|beim<b, ]]beim,b[⊂Ö}},{\ displaystyle {\ mathcal {O}} = \ bigcup _ {(a, b) \ in E}] a, b [, \ qquad {\ text {with}} \ qquad E = \ {(a, b) \ in \ mathbb {Q} ^ {2} \, | \, a <b, \] a, b [\ Teilmenge {\ mathcal {O}} \},}
- und die offenen Intervalle gehören in (daher die offen diejenigen gehören daher enthält ), daσ((VS){\ displaystyle \ sigma ({\ mathcal {C}})}σ((VS),{\ displaystyle \ sigma ({\ mathcal {C}}),}σ((VS){\ displaystyle \ sigma ({\ mathcal {C}})}B.((R.){\ displaystyle {\ mathcal {B}} (\ mathbb {R})}
]]beim,b[=]]- -∞,beim]]vs.∩((⋃nicht≥1]]- -∞,b- -1nicht]]).{\ displaystyle] a, b [=] - \ infty, a] ^ {c} \, \ cap \, \ left (\ bigcup _ {n \ geq 1}] - \ infty, b - {\ tfrac {1 } {n}}] \ right).}
Für die Aufnahme in die umgekehrte Richtung ( enthält ), zu beachten , dass der Stamm von allen der geschlossenen erzeugte während wird von einigen der erzeugten geschlossenen nur.
B.((R.){\ displaystyle {\ mathcal {B}} (\ mathbb {R})}σ((VS){\ displaystyle \ sigma ({\ mathcal {C}})}B.((R.){\ displaystyle {\ mathcal {B}} (\ mathbb {R})}R.,{\ displaystyle \ mathbb {R},}σ((VS){\ displaystyle \ sigma ({\ mathcal {C}})}R.{\ displaystyle \ mathbb {R}}
Unabhängigkeitskriterien
Beispielsweise,
Kriterien - Sei X und Y zwei reelle Zufallsvariablen, die in einem Wahrscheinlichkeitsraum definiert sind ((Ω,BEIM,P.).{\ displaystyle (\ Omega, {\ mathcal {A}}, \ mathbb {P}).}
- Wenn für ein Paar (x, y) reeller Zahlen,
P.((X.≤x und Y.≤y) = P.((X.≤x)×P.((Y.≤y),{\ displaystyle \ mathbb {P} \ left (X \ leq x {\ text {et}} Y \ leq y \ right) \ = \ \ mathbb {P} \ left (X \ leq x \ right) \ times \ mathbb {P} \ left (Y \ leq y \ right),}
dann X und Y sind
unabhängig .
- Wenn Y Werte in und if für ein Paar hatNICHT,{\ displaystyle \ mathbb {N},}((x,nicht)∈R.×NICHT,{\ displaystyle (x, n) \ in \ mathbb {R} \ times \ mathbb {N},}
P.((X.≤x und Y.=nicht) = P.((X.≤x)×P.((Y.=nicht),{\ displaystyle \ mathbb {P} \ left (X \ leq x {\ text {et}} Y = n \ right) \ = \ \ mathbb {P} \ left (X \ leq x \ right) \ times \ mathbb {P} \ left (Y = n \ right),}
dann X und Y sind
unabhängig .
- Natürlich, wenn X und Y Werte in und wenn für ein Paar habenNICHT,{\ displaystyle \ mathbb {N},}((m,nicht)∈NICHT2,{\ displaystyle (m, n) \ in \ mathbb {N} ^ {2},}
P.((X.=m und Y.=nicht) = P.((X.=m)×P.((Y.=nicht),{\ displaystyle \ mathbb {P} \ left (X = m {\ text {und}} Y = n \ right) \ = \ \ mathbb {P} \ left (X = m \ right) \ times \ mathbb {P. } \ left (Y = n \ right),}
dann X und Y sind
unabhängig .
Der Beweis des letzten Kriteriums erfordert nicht das monotone Klassen-Lemma, aber dieses Lemma ist sehr nützlich für den Beweis der ersten beiden Kriterien. Das zweite Kriterium kann verwendet werden, um beispielsweise zu demonstrieren, dass bei der Zurückweisungsmethode die Anzahl der Iterationen unabhängig von dem am Ende dieser Iterationen erzeugten Zufallsobjekt (häufig eine Zufallszahl) ist. Für den Beweis dieser Kriterien sowie für den Beweis des Gruppierungslemmas benötigen wir die folgende Definition und Aussage.
Definition - In einem Wahrscheinlichkeitsraum ist eine endliche Familie von Klassen genau dann eine unabhängige Familie, wenn
((Ω,BEIM,P.),{\ displaystyle (\ Omega, {\ mathcal {A}}, \ mathbb {P}),} ((VSich)ich∈ich{\ displaystyle ({\ mathcal {C}} _ {i}) _ {i \ in I}}BEIM{\ displaystyle {\ mathcal {A}}}
∀((VSich)ich∈ich∈∏ich∈ichVSich,P.((⋂ich∈ichVSich)= ∏ich∈ich P.((VSich).{\ displaystyle \ forall (C_ {i}) _ {i \ in I} \ in \ prod _ {i \ in I} {\ mathcal {C}} _ {i}, \ qquad \ mathbb {P} \ left (\ bigcap _ {i \ in I} C_ {i} \ right) = \ \ prod _ {i \ in I} \ \ mathbb {P} (C_ {i}).}
Satz - Wenn in einem Wahrscheinlichkeitsraum eine endliche Familie von π-Systemen eine unabhängige Familie ist, dann ist die Familie eine Familie unabhängiger Stämme .
((Ω,BEIM,P.),{\ displaystyle (\ Omega, {\ mathcal {A}}, \ mathbb {P}),} ((VSich)ich∈ich{\ displaystyle ({\ mathcal {C}} _ {i}) _ {i \ in I}}BEIM{\ displaystyle {\ mathcal {A}}}((σ((VSich))ich∈ich{\ displaystyle \ left (\ sigma ({\ mathcal {C}} _ {i}) \ right) _ {i \ in I}}
Demonstration
Wir posieren
BEIMj={BEIM∈BEIM|∀((BEIMich)ich∈ich∖{j}}∈∏ich∈ich∖{j}}VSich,P.((BEIM∩((⋂ich∈ich∖{j}}BEIMich))=P.((BEIM)×∏ich∈ich∖{j}}P.((BEIMich)}}.{\ displaystyle {\ mathcal {A}} _ {j} = \ left \ {A \ in {\ mathcal {A}} \, \ left | \, \ forall (A_ {i}) _ {i \ in I. \ backslash \ {j \}} \ in \ prod _ {i \ in I \ backslash \ {j \}} {\ mathcal {C}} _ {i}, \ quad \ mathbb {P} \ left ( A \ cap {\ big (} \ bigcap _ {i \ in I \ backslash \ {j \}} A_ {i} {\ big)} \ right) = \ mathbb {P} (A) \ times \ prod _ {i \ in I \ backslash \ {j \}} \ mathbb {P} (A_ {i}) \ right. \ right \}.}
Wir können leicht überprüfen, ob es sich um eine monotone Klasse handelt. Da eine enthaltende monotone Klasse die kleinste enthaltende monotone Klasse enthält, nämlich Die neue Familie von π-Systemen, die durch Ersetzen durch in der Familie erhalten wird, ist daher immer noch eine Familie unabhängiger π-Systeme. Aus den gleichen Gründen, können wir jede sukzessive ersetzen durch in der Familie ohne diese Familie verlieren ihre Eigenschaft der Unabhängigkeit. Beachten Sie, dass ein Stamm und insbesondere jeder Stamm notwendigerweise auch ein π-System ist.
BEIMj{\ displaystyle {\ mathcal {A}} _ {j}}BEIMj{\ displaystyle {\ mathcal {A}} _ {j}}VSj,{\ displaystyle {\ mathcal {C}} _ {j},} BEIMj{\ displaystyle {\ mathcal {A}} _ {j}}VSj,{\ displaystyle {\ mathcal {C}} _ {j},}VSj'=σ((VSj).{\ displaystyle {\ mathcal {C}} _ {j} ^ {\ prime} = \ sigma ({\ mathcal {C}} _ {j}).}VSj{\ displaystyle {\ mathcal {C}} _ {j}}VSj'{\ displaystyle {\ mathcal {C}} _ {j} ^ {\ prime}}((VSich)ich∈ich{\ displaystyle ({\ mathcal {C}} _ {i}) _ {i \ in I}}VSich{\ displaystyle {\ mathcal {C}} _ {i}}VSich'=σ((VSich),{\ displaystyle {\ mathcal {C}} _ {i} ^ {\ prime} = \ sigma ({\ mathcal {C}} _ {i}),}((VSich)ich∈ich,{\ displaystyle ({\ mathcal {C}} _ {i}) _ {i \ in I},}VSich',{\ displaystyle {\ mathcal {C}} _ {i} ^ {\ prime},}
Anwendungen:
- Lassen Sie und dann unter den Annahmen des ersten Kriteriums und sind unabhängige π-Systeme. Unter dem Vorschlag, und dann sind unabhängige Stämme. Aber und was sichert die Unabhängigkeit des Paares (X, Y) .VS1={X.- -1((]]- -∞,x]]) | x∈R.}}{\ displaystyle {\ mathcal {C}} _ {1} = \ {X ^ {- 1} (] - \ infty, \, x]) \ | \ x \ in \ mathbb {R} \}}VS2={Y.- -1((]]- -∞,y]]) | y∈R.}}.{\ displaystyle {\ mathcal {C}} _ {2} = \ {Y ^ {- 1} (] - \ infty, \, y]) \ | \ y \ in \ mathbb {R} \}. }}VS1{\ displaystyle {\ mathcal {C}} _ {1}}VS2{\ displaystyle {\ mathcal {C}} _ {2}}σ((VS1){\ displaystyle \ sigma ({\ mathcal {C}} _ {1})}σ((VS2){\ displaystyle \ sigma ({\ mathcal {C}} _ {2})}σ((VS1)=σ((X.){\ displaystyle \ sigma ({\ mathcal {C}} _ {1}) = \ sigma (X)}σ((VS2)=σ((Y.),{\ displaystyle \ sigma ({\ mathcal {C}} _ {2}) = \ sigma (Y),}
- Lassen Sie und unter den Annahmen des zweiten Kriteriums und sind unabhängige π-Systeme. Darüber hinaus und und wir schließen wie zuvor. Um das dritte Kriterium zu beweisen, verwenden wir diese Zeit undVS3={X.- -1((m) | m∈NICHT}}∪{∅}}{\ displaystyle {\ mathcal {C}} _ {3} = \ {X ^ {- 1} (m) \ | \ m \ in \ mathbb {N} \} \ cup \ {\ Emptyset \}}VS4={Y.- -1((nicht) | nicht∈NICHT}}∪{∅}}.{\ displaystyle {\ mathcal {C}} _ {4} = \ {Y ^ {- 1} (n) \ | \ n \ in \ mathbb {N} \} \ cup \ {\ Emptyset \}. }}VS1{\ displaystyle {\ mathcal {C}} _ {1}}VS4{\ displaystyle {\ mathcal {C}} _ {4}}σ((VS1)=σ((X.){\ displaystyle \ sigma ({\ mathcal {C}} _ {1}) = \ sigma (X)}σ((VS4)=σ((Y.),{\ displaystyle \ sigma ({\ mathcal {C}} _ {4}) = \ sigma (Y),}VS3{\ displaystyle {\ mathcal {C}} _ {3}}VS4.{\ displaystyle {\ mathcal {C}} _ {4}.}
Siehe auch
Anmerkungen und Referenzen
-
1928, Ein allgemeiner Satz über Familien von Mengen, Fund. Math, 12, 206 & ndash ; 210 ,
-
(in) Eugene Dynkin ( Hrsg. ) ( Trans. DE Brown), Theorie der Markov-Prozesse , Dover Publications,31. Januar 2008( 1 st ed. 1961), 224 p. ( ISBN 978-0-486-45305-7 und 0-486-45305-7 , online lesen ) , Kap. 1, p. 1-2.
-
Per Definition ist (siehe generierter Stamm ) der kleinste (für die Aufnahme) enthaltende Stamm, während er ein enthaltender Stamm ist. Daher ist er (für die Aufnahme) kleiner als mit anderen Wortenσ((VS),{\ displaystyle \ sigma ({\ mathcal {C}}),}σ((VS){\ displaystyle \ sigma ({\ mathcal {C}})}VS,{\ displaystyle {\ mathcal {C}},}M.VS{\ displaystyle {\ mathcal {M}} _ {\ mathcal {C}}}VS.{\ displaystyle {\ mathcal {C}}.}σ((VS){\ displaystyle \ sigma ({\ mathcal {C}})}M.VS,{\ displaystyle {\ mathcal {M}} _ {\ mathcal {C}},}σ((VS)⊂M.VS.{\ displaystyle \ sigma ({\ mathcal {C}}) \ subset {\ mathcal {M}} _ {\ mathcal {C}}.}
-
(en) Olav Kallenberg (en) , Grundlagen der modernen Wahrscheinlichkeit , 2 e ed. [ Detail der Ausgabe ], Beweis entwickelt aus dem Beweis von Satz 1.1, Seite 2.
-
(en) Olav Kallenberg (en) , Grundlagen der modernen Wahrscheinlichkeit , 2 e ed. [ Detail der Ausgabe ], Lemma 3.6, Seite 50.
Literaturverzeichnis
- (en) Olav Kallenberg, Grundlagen der modernen Wahrscheinlichkeit , New York, Springer, Slg. "Wahrscheinlichkeit und ihre Anwendungen",1997( Nachdruck 2001), 638 S. ( ISBN 0-387-95313-2 , online lesen )
Verknüpfte Seiten
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">